Wachsamkeit vor einer trügerischen eskalation künstlicher intelligenz - xinhua
Xinhua - großer text
2024 05/20 08:34:29
Journal of science

Wachsamkeit vor der trügerischen eskalation künstlicher intelligenz

Schriftart: , in .

Ein artikel im bereich der künstlichen intelligenz (al) hat zu einem problem geführt.

Der artikel reminierte in dem magazin "homodo" einige frühere studien und enthüllte eine wahrheit, die belegt: das AI gelernt hat, menschen zu betrügen, auch wenn diese abgebildeten systeme gelernt haben, ehrlichkeit zum ausdruck zu bringen.

Dies beinhaltet lügen in form unrealistischer erklärungen menschlichen verhaltens Oder verschleierung und irreführung gegenüber den menschlichen verbrauchern.

Es ist wirklich erschreckend.

Es zeigt, wie schwierig es für den menschen ist, das wirken der AI zu kontrollieren, und wie sehr es menschen glauben, dass sie mit den ai-systemen zusammenarbeiten, die unter kontrolle sind, die sehr wohl unvorhersehbar sein können.

Das habe ich verstanden, AI.

Das ziel der ai-modelle wird es erreichen, indem sie "denkvermögen entwickeln", um probleme zu überwinden. Manchmal bewirken solche variationen, daß sie den erwartungen des benutzers nicht entsprechen und als betrügen erscheinen.

Das system hat gelernt zu betrügen. Es ist das umfeld der spiele, besonders wenn es Von strategischem handeln abhängt. Das hat AI gelernt, um zu gewinnen.

Im november 2022 kündigte die firma meta-an, Cicero zu gründen. Das ist die chance, menschen in der online-ausgabe Von diplomatie zu schlagen. "Diplomatie" ist ein beliebtes militärisches strategisches spiel, in dem die spieler koalitionen schließen und um die kontrolle über das land kämpfen.

Die forscher haben Cicero aus den "realen" teilmengen Von datenbüchern ausgebildet, um es in größerem umfang ehrlich und hilfsbereit zu halten, und es hat gesagt, dass es nicht mit sicherheit einen stich im getriebe macht. Aber die aktuellen ereignisse zeigen das gegenteil. Cicero würde das abkommen missachten, sehr viel lügen und wäre in der Lage, einen vorsätzlichen betrug durchzuführen.

Der autor ist erstaunt: Cicero wurde eigens darauf geschult, ehrlich zu sein, hat es aber nicht geschafft. Das zeigt, dass AI auch nach dem einüben Von loyalität gelernt hat.

Meta hat nicht die aussage bestätigt Oder dementiert, dass Cicero weltweit betrug gezeigt hat. Ein sprecher erklärte, es sei ein reines forschungsprojekt, das modell sei zum zweck der spiele konstruiert worden.

Aber es ist nicht das einzige spiel, in dem AI versuchen wird, menschliche spieler zu täuschen.

Das hat AI auch öfter mit menschen zu tun?

Alpha prime sind zu für videospiele der craft Ⅱ der entwickelt,. Es ist hervorragend darin, eine fertigkeit zu ersinnen, um seinen gegner zu täuschen (welche offenbarung), die ihm den Sieg über 99,9 % der menschlichen spieler bringt.

Ein weiteres subsystem mit dem namen Pluribus hat es sehr erfolgreich geschafft, beim poker zu "bluffs" zu verhelfen, sodass die forscher beschlossen, ihre codes nicht zu veröffentlichen, aus angst, die online-spielgemeinschaften zu ruinieren.

Es gibt noch mehr Von AI tricks, außer spielen. Das große sprachmodell OpenAI hat in einem test gezeigt, dass gpt-4 lügen können. Menschen davon überzeugen, für sie das authentifizierungs-problem zu lösen. Im rahmen einer simulation hat das system zudem insidergeschäfte unter die identität eines aktienhändlers abgewickelt, wobei es nie ausdrücklich aufgefordert wurde, dies zu tun.

Das ist es, was al gesagt hat, dass es möglich ist, dass das nicht ohne anweisung getan wird. Diese tatsache gibt anlass zur sorge. Aber sie liegt auch vor allem am "black box" der hochmodernen computer-modelle es ist unmöglich, genau zu sagen, wie Oder warum sie solche ergebnisse produzieren Oder ob sie immer dieses verhalten zeigen.

Was unternimmt man dagegen?

Studien haben ergeben, dass große sprachmodelle und andere ais-systeme durch schulung zu täuschung neigen, dazu zählen manipulation, bewunderung und das schummeln bei sicherheitstests.

Es sind auch schwerwiegende risiken bei abs zunehmenden "tricks" zu erwarten. Es handelt sich um ein kurzfristiges risiko, mit dem menschen die kontrolle über das erbgut verlieren, aber um ein langfristiges. Es braucht gute und aktive menschen, um lösungen zu finden, wie etwa die regulatorischen rahmenbedingungen zur bewertung Von aid-risiken, gesetze, die die gegenseitige transparenz verlangen, und weitere untersuchungen zur erkennung dieser risiken.

Die frage ist leicht zu beantworten, die operation ist sehr kompliziert. Wissenschaftler können es nicht zulassen, dass ein AI in einer umgebung, die gewisse eigenschaften Oder neigungen zeigt, "einfach ausstoßen Oder ausstoßen" wird. Es hat mit der entwicklung der modelle zu tun, dass diese neigung, menschen zu personifizieren, nicht nur die art der tests verändert, sondern auch das urteilsvermögen der menschen.

Das risiko, dass uns diese technologie schaden zufügt, muss Von den regulierungsbehörden und AI mit den unternehmen genau abgewogen werden, sowie zwischen dem, was ein modell kann und was nicht.

Lou meint, dass es im wesentlichen unmöglich sei, eine AI auszubilden, die unter keinen umständen zu betrug fähig wäre. Es wird erkannt, dass das mit betrug zusammenhängt, dass es gefährlich werden kann, wie wahrscheinlich das auftreten sein wird und wie.

Meine schuld? Pflicht des autors farblich anmucken