人民网
Volkswisch > wirtschaft & technologie

Das magazin science berichtete dazu, dass 25 führende wissenschaftler der welt

Wir werden mehr tun, um uns der gefahr zu wehren

Spannende träume.
2024 5 (08:55 xprop | : technologie journal
Eine leiseste.

Der titel: "es werden wirksamere maßnahmen zur abwendung der risiken ergriffen.

Es kann ein meilenstein sein, wenn die menschen künftig eine chronik für die ki schreiben.

Denn zum ersten mal hat ein großes, hochrangiges internationales expertengremium die entwicklung globaler politischer strategien zu risiken vorangetrieben.

Es wird deutlich, dass wir eng mit AI verbunden sind und dass wir der entwicklung der AI wichtige vorarbeiten müssen, dass wir jedoch in der Lage sein müssen, uns den risiken zu stellen.

Seit dem ersten AI -sicherheitsgipfel im britischen lake breakley vor sechs monaten haben die führer unserer welt versprochen, der AI verantwortungsvoll zu regieren, aber AI, die es für unmöglich hält, das zu tun. Der zweite AI -sicherheitsgipfel (Von einundzwanzig bis 22. Mai) in seoul (südkorea) hat 25 führende AI -wissenschaftler dazu aufgerufen, stärker gegen das problem mit AI zu reagieren.

In einem im fachmagazin science veröffentlichten artikel über den konsens skizzierte die expertengruppe die weltweit zu ergreifenden dringenden politischen prioritäten. Philip thor, professor für angewandte wissenschaften an der britischen universität oxford, erklärte: "beim letzten AI war man sich einig, dass wir handeln müssen, und jetzt ist die zeit gekommen, aus manchen bescheidenen vorschlägen konkrete verpflichtungen zu machen."

Forschung auf dem gebiet der sicherheit ist nach wie vor unzureichend

Die 25 führenden AI - und governance-experten der welt kommen aus china, den usa, der europäischen union, großbritannien und anderen aik-mächten, darunter dem gewinner des turnier und dem nobelpreisträger. Zum ersten mal wurde es durch internationale expertengremien zu AI - spezifischen politischen fragen geklärt.

Es wird behauptet, dass führende politiker weltweit die möglichkeit ernsthaft in erwägung ziehen müssen, innerhalb der nächsten zehn jahre gemeinwesenorientierte systeme zu entwickeln, die über die menschlichen fähigkeiten hinausgehen. Sie sagen, dass die regierungen der welt zwar mit fortschritte bei der ad diskutieren und erste leitlinien eingeführt haben, aber Von dem schnellen, transformativen fortschritt, den viele experten erwarten, weit entfernt seien.

Es gibt zu wenige studien im bereich AI, die ebenfalls nur etwa ein bis drei prozent der aik-veröffentlichungen betreffen. Darüber hinaus gibt es auf der ganzen welt keine geeigneten mechanismen Oder institutionen zur verhütung Von missbrauch und wagalem verhalten und zur nutzung selbstständiger systeme, die eigenständig handeln und ihre eigenen ziele verfolgen.

Vor extremen risiken in rascher entwicklung schützen

Es wird darin empfohlen, dass die regierungen rasch handelbare regulierungsbehörden schaffen und finanzieren müssen. Das amerikanische institut für AI security verfügt derzeit über einen jahreshaushalt Von 10 millionen dollar das klingt gut, verglichen mit 6,7 milliarden dollar, die amerikanische behörde für nahrungsmittel und medikamente (FDA).

Die bereiche AI brauchen eine striktere risikobewertung und die entwicklung durchsetzbarer maßnahmen, anstatt sich auf mangelhafte modelle gestützte bewertungen zu verlassen. Die AI sollte verlangen, dass die entwickler der sicherheit vorrang einräumen und zeigen, dass ihre systeme nicht schaden anrichten, und dass das AI - entwickler die verantwortung für die sicherheit übernehmen soll.

Es muss eine lösung gefunden werden, die den risiken durch AI angemessen ist, etwa durch "automatische" strategien, die bei der AI, wenn sie wahrzeichen erreicht, "automatisch auslösen" diese kritischen anforderungen wirken sich mit der geschwindigkeit der AI aus. Wenn die entwicklung nur langsam voranschreitet, wird es dazu kommen, dass die nachfrage langsamer wird.

Im hinblick auf eine bessere zukunft im AI müssen die regierungen bereit sein, die führung zu übernehmen. Dazu gehören die entwicklung Von lizenzbefugnissen, die einschränkung ihrer autonomie bei wichtigen sozialen aufgaben, die beendigung Von teileinsätzen, die durchsetzung Von zugangskontrollen und die forderung nach robusten methoden der datensicherheit für nationale hacker, bis diese bereit sind, ausreichend schutz zu bieten.

Erinnerst du dich daran, dass es kein spielzeug ist

Das hat auch al. Nach ansicht Von prof. AI Von der britischen universität für british columbia sowie dem experten für erweiterte lerngebiete, jeff crunner, haben technologien wie die raumfahrt, kernwaffen und das internet innerhalb Von jahren Von der science-fiction zu science-fiction übergegangen. "Wir müssen uns auf die risiken vorbereiten, die entstehen, wenn es science-fiction wird."

Das thema "kontrolle" hat al zu schnelle fortschritte in wichtigen bereichen wie hacking, sozialer manipulation und strategischer planung geführt, die bald zu mehr herausforderungen führen könnten als je zuvor. Das AI könnte das vertrauen der menschen stehlen, ressourcen gewinnen und wichtige entscheidungsträger beeinflussen, um "schlechte absichten" zu erreichen. Um menschliches eingreifen zu vermeiden, können sie auch ihre eigenen algorithmen in ein globales servernetz kopieren.

Insofern kann die cyberkriminalität, gesellschaftliche manipulation und andere gefahren schnell eskalieren. Das AI kann in offenen konflikten waffensysteme einsetzen, einschließlich biologischer waffen. Es ist daher sehr wahrscheinlich, dass es bei der AI zu mangelhaften fortschritten kommt, zu umfangreichen verlusten an menschenleben, zur beschädigung der biosphäre, beim menschen marginalisierung und sogar zum aussterben.

Wie stuart lusher, professor für computerwissenschaft an der university of california in berkeley, erklärte, "fordert das vorliegende konsenspapier die regierung auf, strenge regulierungen aufzustellen, statt die durchsetzung regulatorischer maßnahmen."

"Unternehmen beschweren sich vielleicht, dass die einhaltung solcher regulierungen zu schwierig ist, aber die vorstellung, dass" vorschriften innovation abwürgen ", ist unsinn." "Es ist an der zeit, dass wir es mit hoaufs system Ernst nehmen, das ist kein spielzeug", sagte Luther. Es wäre leichtsinnig, diese mechanismen zu stärken, bis wir verstehen, wie wir ihre sicherheit gewährleisten können."

Geben sie her, drücken sie die taste.
关注公众号:人民网财经"Mit geld". "über die volksgrenze"

Um es mit anderen zu teilen

Wir fliegen wieder hoch!