Mrs. fang fang geht aus dem haus
LiangZiWei xprop | öffentlichkeit. QbitAI
Folge 13 tweets!
Es wurde bekannt, dass OpenAI, top-unisol manager Jan Leike, gerade das unternehmen verlassen hat. Die wirklichen gründe dafür wurden aufgedeckt und es standen viel harte arbeit zu tun.
Die mathematik hat einen fehler gemacht: das versprechen, den supergruppe-teams 20 prozent zu geben, führt dazu, dass die gruppe weiter gegen den strom geht, wird aber immer schwieriger.
Keine sorge um die sicherheit, die verwaltung Von AGI hat die priorität vor "leuchtenden produkten".
Als nächstes werden noch mehr klatsch Von anderen ausgegraben.
Das ableben wird dadurch ermöglicht, dass OpenAI, ein mitglied, das aus der dienste dienste dienste dienste dienste abtritt, eine vereinbarung unterzeichnet, die gewährleistet, dass nach seiner absetzung keine weiteren absagen OpenAI gegenüber abkündigungen bekannt wird, die automatisch als aufkündigung Von unternehmensanteilen angesehen werden.
Doch geben manche harten brocken nach wie vor etwas zu (man lacht), wenn sie behaupten, die unterschiede zwischen der zentralen führungsebene in bezug auf die prioritäten im sicherheitsbereich hätten sich erhärtet.
Wie würdevoll schien die philosophische konfrontation zwischen den beiden seiten seit der zeit des palastes im letzten jahr überhand zu nehmen.
Also wurde er, obwohl er bereits seinen co-gründer zur leitung des teams einsetzte, Von den anderen bewundert.
Die eigentümer Von twitter, die auf den kurzesten seiten stehen, danken Jan für den mut, die verblüffende melone zum ausdruck zu bringen und beklagen:
Es ist wichtig, dass OpenAI wirklich nicht so viel wert auf solche sicherheit legt.
Es werde jedoch schwierig, wieder zu ostern zu gelangen, denn jetzt habe ich das kommando über OpenAI.
Er trat vor und bedankte sich für Jan für seinen beitrag zu openfigürlichen supersymmetrie und sicherheit, und sagte zu Jan, dass sie abgereist sei, aber er war traurig und abweisend.
Natürlich lautet der springende punkt:
Warte nur, in zwei tagen schicke ich einen längeren tweet.
Die 20 prozent der versprochenen mathematik enthielten torten
Seit es letztes jahr bei OpenAI gongs war, hat Ilya, ein ehemaliger hochrangiger wissenschaftler, kaum ein einziges mal öffentlich gesehen und geschrei gemacht.
Schon bevor er ankündigte, sein amt zu verlieren, spielten heftige stimmen eine rolle. Es gibt viele menschen, die glauben, Ilya habe schreckliche dinge gesehen, wie es möglich ist, menschen mit der aura zu zerstören.
△ sind: ich jeden abend als erstes will glazunow sowie sehen.
Jan war eingetaucht, und im kern liegt das daran, dass sich die einschätzungen der arbeitstypen und der marktorientierten partysicherheit in den vordergrund gerückt haben.
Differenzen sind schwerwiegend. Die folgen Wir haben es alle gesehen.
Vertraute mitarbeiter, die mit OpenAI vertraut sind, haben laut Vox das vertrauen in Petrus verloren "einen prozess des vertrauens nach dem anderen".
Aber wie sie sehen können, gibt es nicht viele ehemalige mitarbeiter, die bereit sind, offen darüber zu sprechen nicht auf öffentlichen plattformen.
Teilweise liegt es an OpenAI, dass es schon seit langem tradition hat, das personal zu Bitten, abfindungsvereinbarungen zu unterzeichnen, die keine abwertung enthalten. Es wird jedoch nicht möglich sein, die verträge zu unterzeichnen, denn sonst verzichten die openhinausgeschossenen optionen, die wir vorher erhalten haben, was darauf hinausläuft, dass das auszuplauderei einen hohen geldbetrag riskiert.
Aber eins nach dem anderen fielen die dominosteine
Ilyas rücktritt hat zu der sofortigen entlassung Von OpenAI beigetragen.
Die regierung kündigte danach ihre entlassung an, mit ausnahme Von Jan als teamchef, der auch heute schon mindestens fünf mitglieder des sicherheitsteams.
Ein weiterer blieb faul, eine nicht-herabsetze vereinbarung zu unterzeichnen: Daniel Kokotajlo (kurz für d.k.).
△ letztes jahr d.k. bruder schrieb, dass, passiert überleben für 70 prozent
Bruder d.k. trat 2022 der OpenAI bei, einer führungsgruppe, deren wichtigste aufgabe es ist, dass OpenAI zu seiner sicherheit und entsendung der AI geführt wird.
Aber er trat auch kürzlich zurück und erzählte der presse:
OpenAI trainiert die reihen stärker ai-systeme mit dem ziel, das ziel zu erreichen, dass es letztlich zu mehr menschen führt.
Es mag das beste sein, was die menschheit je erlebt hat, aber wenn wir nicht aufpassen, könnte es das schlimmste sein.
D.k., dass er sich OpenAI anschloss, das Von gegenleistungen und der hoffnung hinsichtlich der sicherheit überzeugt war, dass OpenAI je Enger mit AGI verbunden sei, um mehr verantwortung. Es hat aber auch viele im team erkannt, dass OpenAI es nicht mehr tut.
"Das vertrauen in die opnao-führung und ihre fähigkeit, mit AGI verantwortungsvoll zu verfahren, geht stetig zurück." das ist der grund, warum er zurückgetreten ist.
Die enttäuschung über die zukunft der AGI security gehörte zu den vielen ablösungen ilyas.
Teil des problems ist allerdings die kombination Von superpalights, die wohl nicht so ausgestattet sind, wie erwartet.
Es hat nur 20% der versprochenen. Auch wenn die teams alles ausfüllt, was sie versprochen haben.
Und einige ersuchen des teams werden häufig abgelehnt.
Es ist wichtig, dass AI das ergebnis zählt, und dass es fair verteilt wird. Und weil die arbeit Von supergruppieren die aufgabe ist, "wenn die firma es schafft, AGI aufzubauen, stellt sich heraus, dass tatsächlich verschiedene arten Von sicherheitsproblemen auftreten."
Mit anderen worten, die superpalistischen teams sind gefüllt mit den zukünftigen sicherheitsproblemen, die OpenAI gegenüber stellt die betonung liegt auf künftigen problemen, die entstehen werden.
Bis hin zum schreiben hatte er noch keinen "längeren tweet" Von ihm geschickt als "Jan schmutzige details".
Aber Jan hat recht, wenn es um sicherheitsfragen geht: "wir haben noch viel zu tun. Zu diesem ziel verpflichten wir uns auch."
Das ist die stelle, wo man gleich eine kleine bank hinstellt.
Trotzdem geriet das team nach dem rückzug vieler menschen, insbesondere Ilya und Jan, in ein rasches durcheinander.
Danach folgte der gemeinschaftsgründer John Schulma, der keine experten mehr brauchte.
Das neue supergruppe-team besteht aus insgesamt verstreuten gruppen, die mitglieder über verschiedene komponenten des unternehmens verteilen, das OpenAI als "tiefer integrierte" beschreibt.
Das wird angezweifelt, denn johns vollzeitjob ist es gewesen, die sicherheit unserer heutigen openprodukte zu gewährleisten.
Ich frage mich, ob John einfach versuchen könnte, ein team zu leiten, das sich sowohl auf die gegenwart als auch auf die zukunft konzentriert.
Ilya-Altman streit
Wenn man die reihen der adligen länger hält, ist das heutige auseinanderbrechungsmanöver eine fortsetzung der heutigen auseinandersetzung zwischen Ilya und Altman.
Es gibt keine andere möglichkeit, das ergebnis zu überblicken, als Ilya im vergangenen november nicht fort war, als er mit OpenAI zusammen versuchte, ihn zu feuern.
Damals wurde ihm vorgeworfen, er sei in der rede nicht authentisch genug. Mit anderen worten, wir trauen ihm nicht.
Das endergebnis ist allerdings klar: utman drohte mit seinem "verbündeten", sich an microsoft zu beteiligen, und der vorstand kapitulierte und versagte. Ilya hat den vorstand verlassen. Und Otis seite entscheidet sich für eine bequemere mitgliedschaft im vorstand.
Nach der entlassung ließ Ilya sein firmengelände nie mehr verlassen. Es wird bekannt, dass es etwa sechs monate lang nicht im büro aufgetaucht ist.
Er hinterließ auch einen witzigen tweet, den er schnell gelöscht hatte.
Ich habe im letzten monat vieles gelernt. Eine davon war, dass "schläge fortdauern, bis die moral wächst", häufiger angewandt wurde, als es sollte.
Aber Ilya hatte es geschafft, das team Von außerhalb zu leiten.
In utlemans fall war der hauptgrund für die ihm Von den mitarbeitern erhobenen vorwürfe, dass seine taten wie seine behauptung, er wolle sicherheit vor allen anderen schützen widersprüchlich Waren.
Es wurden nur die zuvor versprochenen berechnungen nicht erreicht. Und ich musste extra nach saudi-arabien, um das getreide zu produzieren.
Die, die aufpassen, sind ganz schön stoned.
Wenn ihm wirklich daran liegt, künstliche intelligenz so sicher wie möglich zu bauen und einzusetzen, was wäre dann der wahnsinn der anhäufung Von chips zur beschleunigung der technologischen entwicklung?
Vielleicht hat OpenAI dies bereits vorher Von einem start-up-unternehmen bestellt, in das OpenAI investiert hatte. Wert: 51 millionen dollar (umgerechnet 3,6 milliarden yuan).
In den briefen, die OpenAI den ehemaligen mitarbeitern in den tagen nach dem hofkampf geschickt hat, scheint das bild Von OpenAI wieder einmal bestätigt zu sein.
Auch das führt dazu, dass das personal zunehmend das vertrauen in OpenAI und übermann verliert.
Es gab ein Ilya und lalake, es gab ein superteam.
In gesegneter kameraführung hat er wichtige schlüsselpunkte benannt, die in den letzten jahren geschehen sind mit einem freundlichen hinweis auf das P (doom), das nachstehend als "die wahrscheinlichkeit, dass al eine weltuntergangsszenario ausrichtet" bezeichnet wird.
- 2021, die leiterin des ghut-drei-teams verließ OpenAI und feierte das problem der "sicherheit". Einer Von ihnen ist der auffassung, dass die P (doom) 10 bis 25 prozent betragen muss;
- 2021, als die für die sicherheitsstudie des RLHF verantwortlichen ihr amt aufgegeben haben und P (doom) bei 50 prozent liegen;
- Wird OpenAI im jahr 2023 entlassen,
- 2024, wenn OpenAI zwei sicherheitsforscher entlassen hat.
- Nach ansicht eines mit besonderer beachtung der sicherheit abgesandten openai-stipendiums im jahr 2024 betrug P (doom) bereits 70%.
- Die laalke, Ilya und laalke wurden im jahr 2024 ersetzt.
Entworfene Oder marktorientierte?
Wenn man so große modelle entwickelt, hat man immer gesagt: "wie bekommt man AGI?" Auf zwei arten lässt sich es reduzieren.
Um die zukunft zu meistern und zu kontrollieren; Die verfechter der marktwirtschaft argumentieren, dass offenheit die richtung des "progressiven" ansatzes steuert.
Es ist auch eine grundlegende auseinandersetzung zwischen Ilya und Altman es ist die mission Von OpenAI:
Konzentrieren wir uns auf AGI und superpax Oder auf die erweiterung des chatgpt-programms?
Je größer die leistungen des chatghut-dienstes sind, desto größer ist die notwendige rechnung. Dass sie die zeit auch für AGI sicherheitsstudien nutzen.
Wenn OpenAI eine gemeinnützige organisation ist, die sich der forschung verschrieben hat, sollten sie mehr zeit mit supersymmetrie verbringen.
Es ist sehr schwer, das resultat anhand einiger initiativen außerhalb Von OpenAI zu erkennen, die nur darauf abzielen, die konkurrenz um die wichtigsten modelle zu gewinnen und firmen sowie verbrauchern mehr zu bieten.
Es war für Ilya eine gefährliche sache. Obwohl wir nicht genau wussten, was bei einer erweiterten konferenz passieren würde, war für Ilya die beste methode, andere nicht zu gefährden.
Offenheit und transparenz, damit wir menschen sicher sein können, AGI aufzubauen und nicht auf geheimnisvolle weise.
Aber es wird versucht, OpenAI nach offen - und supersymmetrie zu streben, auch unter führung Von OpenAI. Stattdessen geht es darauf zu, AGI zu folgen und gleichzeitig einen burggraben zu errichten.
Das hat am ende aber keine schlechte wahl getroffen, sondern mit ultraman, dem silicon valley geschäftsmann, vielleicht als letzter.
Es ist noch nicht bekannt. Aber es ist wichtig, dass openal dies tut.
Es gab kenner, die die beiden wichtigsten signale zeigten,
Es ist ein haupteinkommen, das ChatGPT Oder openle trägt, aber ohne bessere modelle kann es nicht allen kostenlos zur verfügung gestellt werden.
Und die andere sache war, dass es mitgliedern des teams, die entlassen wurden (Jan, Ilya usw.), egal war, ob sie schnell mehr leistungskraft bekamen Das ist es, wenn AI auf dieser ebene bleibe.
Aber das grundlegende problem, das OpenAI mit dna hat, ist noch nicht gelöst, sowohl mit abschaum als auch mit wissenschaftlern, die sich sorgen um die verantwortungsvolle entwicklung Von AGI machen, als auch mit dem problem des silicon valley, die interessen der märkte zu wahren, um die nachhaltigkeit ihrer technologie kommerziell zu fördern.
Die beiden seiten sind außer kontrolle geraten, die naturwissenschaften sind im begriff auszubrechen und die welt weiß noch nicht, wie weit der GPT fortgeschritten ist.
Die massen, die eine antwort auf diese frage bitter nötig hatten, Waren ein wenig müde.
Hinton, eine lehrerin, die es nicht geschafft hatte, das gefühl zu bekommen,
Ich bin alt und fürchte mich, aber es geht nicht Anders.
(piepsen) verknüpfung: [1]https://www.vox.com/future-perfect/2024/5/17/24158403/openai-resignations-ai-safety-ilya-sutskever-jan-leike-artific ial-intelligence [2]https://x.com/janleike/status/1791498174659715494 [3]https://twitter.com/sama/status/1791543264090472660
SSN: die oben aufgeführten inhalte (einschließlich bilder und videos) werden Von der media-plattform "netz" hochgeladen und ausgegeben, es gibt nur einen informationsspeicherdienst
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.