Das magazin science berichtete dazu, dass 25 führende wissenschaftler der welt
Wir werden mehr tun, um uns der gefahr zu wehren
Es kann ein meilenstein sein, wenn die menschen künftig eine chronik für die ki schreiben.
Denn zum ersten mal hat ein großes, hochrangiges internationales expertengremium die entwicklung globaler politischer strategien zu risiken vorangetrieben.
Es wird deutlich, dass wir eng mit AI verbunden sind und dass wir der entwicklung der AI wichtige vorarbeiten müssen, dass wir jedoch in der Lage sein müssen, uns den risiken zu stellen.
Seit dem ersten AI -sicherheitsgipfel im britischen lake breakley vor sechs monaten haben die führer unserer welt versprochen, der AI verantwortungsvoll zu regieren, aber AI, die es für unmöglich hält, das zu tun. Der zweite AI -sicherheitsgipfel (Von einundzwanzig bis 22. Mai) in seoul (südkorea) hat 25 führende AI -wissenschaftler dazu aufgerufen, stärker gegen das problem mit AI zu reagieren.
In einem im fachmagazin science veröffentlichten artikel über den konsens skizzierte die expertengruppe die weltweit zu ergreifenden dringenden politischen prioritäten. Philip thor, professor für angewandte wissenschaften an der britischen universität oxford, erklärte: "beim letzten AI war man sich einig, dass wir handeln müssen, und jetzt ist die zeit gekommen, aus manchen bescheidenen vorschlägen konkrete verpflichtungen zu machen."
Forschung auf dem gebiet der sicherheit ist nach wie vor unzureichend
Die 25 führenden AI - und governance-experten der welt kommen aus china, den usa, der europäischen union, großbritannien und anderen aik-mächten, darunter dem gewinner des turnier und dem nobelpreisträger. Zum ersten mal wurde es durch internationale expertengremien zu AI - spezifischen politischen fragen geklärt.
Es wird behauptet, dass führende politiker weltweit die möglichkeit ernsthaft in erwägung ziehen müssen, innerhalb der nächsten zehn jahre gemeinwesenorientierte systeme zu entwickeln, die über die menschlichen fähigkeiten hinausgehen. Sie sagen, dass die regierungen der welt zwar mit fortschritte bei der ad diskutieren und erste leitlinien eingeführt haben, aber Von dem schnellen, transformativen fortschritt, den viele experten erwarten, weit entfernt seien.
Es gibt zu wenige studien im bereich AI, die ebenfalls nur etwa ein bis drei prozent der aik-veröffentlichungen betreffen. Darüber hinaus gibt es auf der ganzen welt keine geeigneten mechanismen Oder institutionen zur verhütung Von missbrauch und wagalem verhalten und zur nutzung selbstständiger systeme, die eigenständig handeln und ihre eigenen ziele verfolgen.
Vor extremen risiken in rascher entwicklung schützen
Es wird darin empfohlen, dass die regierungen rasch handelbare regulierungsbehörden schaffen und finanzieren müssen. Das amerikanische institut für AI security verfügt derzeit über einen jahreshaushalt Von 10 millionen dollar das klingt gut, verglichen mit 6,7 milliarden dollar, die amerikanische behörde für nahrungsmittel und medikamente (FDA).
Die bereiche AI brauchen eine striktere risikobewertung und die entwicklung durchsetzbarer maßnahmen, anstatt sich auf mangelhafte modelle gestützte bewertungen zu verlassen. Die AI sollte verlangen, dass die entwickler der sicherheit vorrang einräumen und zeigen, dass ihre systeme nicht schaden anrichten, und dass das AI - entwickler die verantwortung für die sicherheit übernehmen soll.
Es muss eine lösung gefunden werden, die den risiken durch AI angemessen ist, etwa durch "automatische" strategien, die bei der AI, wenn sie wahrzeichen erreicht, "automatisch auslösen" diese kritischen anforderungen wirken sich mit der geschwindigkeit der AI aus. Wenn die entwicklung nur langsam voranschreitet, wird es dazu kommen, dass die nachfrage langsamer wird.
Im hinblick auf eine bessere zukunft im AI müssen die regierungen bereit sein, die führung zu übernehmen. Dazu gehören die entwicklung Von lizenzbefugnissen, die einschränkung ihrer autonomie bei wichtigen sozialen aufgaben, die beendigung Von teileinsätzen, die durchsetzung Von zugangskontrollen und die forderung nach robusten methoden der datensicherheit für nationale hacker, bis diese bereit sind, ausreichend schutz zu bieten.
Erinnerst du dich daran, dass es kein spielzeug ist
Das hat auch al. Nach ansicht Von prof. AI Von der britischen universität für british columbia sowie dem experten für erweiterte lerngebiete, jeff crunner, haben technologien wie die raumfahrt, kernwaffen und das internet innerhalb Von jahren Von der science-fiction zu science-fiction übergegangen. "Wir müssen uns auf die risiken vorbereiten, die entstehen, wenn es science-fiction wird."
Das thema "kontrolle" hat al zu schnelle fortschritte in wichtigen bereichen wie hacking, sozialer manipulation und strategischer planung geführt, die bald zu mehr herausforderungen führen könnten als je zuvor. Das AI könnte das vertrauen der menschen stehlen, ressourcen gewinnen und wichtige entscheidungsträger beeinflussen, um "schlechte absichten" zu erreichen. Um menschliches eingreifen zu vermeiden, können sie auch ihre eigenen algorithmen in ein globales servernetz kopieren.
Insofern kann die cyberkriminalität, gesellschaftliche manipulation und andere gefahren schnell eskalieren. Das AI kann in offenen konflikten waffensysteme einsetzen, einschließlich biologischer waffen. Es ist daher sehr wahrscheinlich, dass es bei der AI zu mangelhaften fortschritten kommt, zu umfangreichen verlusten an menschenleben, zur beschädigung der biosphäre, beim menschen marginalisierung und sogar zum aussterben.
Wie stuart lusher, professor für computerwissenschaft an der university of california in berkeley, erklärte, "fordert das vorliegende konsenspapier die regierung auf, strenge regulierungen aufzustellen, statt die durchsetzung regulatorischer maßnahmen."
"Unternehmen beschweren sich vielleicht, dass die einhaltung solcher regulierungen zu schwierig ist, aber die vorstellung, dass" vorschriften innovation abwürgen ", ist unsinn." "Es ist an der zeit, dass wir es mit hoaufs system Ernst nehmen, das ist kein spielzeug", sagte Luther. Es wäre leichtsinnig, diese mechanismen zu stärken, bis wir verstehen, wie wir ihre sicherheit gewährleisten können."
Um es mit anderen zu teilen
Empfehlungen lesen
- Nur wenige aber haben sich für den bau eines einzigen kraftwerks im ganzen land gesorgt
- Für den 21. Mai 2001 und ein jahr zuvor hat der journalist bo yan fei das land als größter photovoltaikprojekt für nukleare photovoltaik ein projekt im zentralchinesischen golf Von skyline 2000. Das projekt setzt sich aus thermolichtquellen im kernkraftwerk zusammen und setzt sich für nukleare reaktoren mit ähnlichen mitteln zusammen; z. B. werden dort jährlich etwa 68millionen tonnen kohle gespart und die co2-emissionen um 180 millionen tonnen jährlich reduziert. .
- Die expert-kampagne hat das ziel, die herzen und herzen der chinesen für eine moderne hu-an-kai zu gewinnen
- Lee tsu-yong, chef der kommunistischen partei des büros für kultur und tourismus der provinz hubei. Nach der reform und öffnung, vor allem dem 18. Kongress der kommunistischen partei, hat sich der tourismus unseres landes rasch entwickelt, wodurch der größte binnentourismus der welt entstanden ist und international als gästeland und hauptenergieziel für den internationalen tourismus gesehen werden kann. .
Angeber. Die schlägertypen.
- 1Der weltweit größte "sauberste" energie-korridor.
- 2W: warte mal, das ist die lösung für alles.
- 3Diese daten drehen sich im april Oder so
- 4Der. Meter YouYan der xprop |, weil der,. Welche.
- 5Fisklar: die anhaltende erholung der wirtschaft des landes wird durch den konjunkturrückgang gestützt
- 6"" und xprop |". "mit. Hinter neue.,
- 7Finanzbeobachtung: wenn der social services index steigt, wachsen kleine und mittlere
- 8Ein glücklicheres leben für die massen wäre möglich.
- 9Ein großer beitrag zur wiederbelebung des landes, aber auch zum ausbau der straßen und zum ausbau Von straßen.
- 10Statt neuer "grüner" wachstumsquellen gibt es neue quellen Von wachstum
Hinweise zu den nachrichten.
- Kommentar.
- Thundering. Thundering.