Titelseite > aktuelle themen - titelblatt

Datenauswahl, -filter und co-governance * hinter algorithmischer voreingenommenheit

2000042, 16:17:28. Denkt nach China arbeitet jetzt Ja, Gretchen oh 7Lesen. 0Eine bemerkung. Fenster einzuschlagenSammle sie.0mal

[telemetrie singt]Datierungsentscheidungen und informationsfilterung sind ein wichtiger bestandteil der schnittstelle zwischen menschlichen intelligenzsystemen, die Von algorithmen betrieben werden, und künstlichen intelligenzsystemen. Dabei geht es um transparenz in der arbeit des algorithmus und bilder in der schnittstelle Von informationen. Genetische voreingenommenheit hat bereits zur spaltung Von informationslücken im realen leben geführt und kann ungleichgewichte in der sozialen entwicklung fortsetzen Oder sogar verstärken. Es ist daher notwendig, die einflüsse algorithmen, darunter die mit der perspektive verbundenen risiken und probleme sowie deren anwendung verbundenen risiken sorgfältig zu betrachten, um eine idee zu entwickeln, wie den episodischen vorurteilen durch die integration künstlicher intelligenz in soziale systeme begegnet werden kann.

Ohne frage.Algorithmen erzeugen voreingenommenheit Von daten und wählen die filtern und koordination Von informationen

Im märz 2024 wurde "künstliche intelligenz +", eine wichtige maschine der neuen produktivitätsproduktivität, erstmals in einem regierungsbericht veröffentlicht. Gegenwärtig ist die technologie der künstlichen intelligenz in alle bereiche der gesellschaftlichen produktion und des lebens vorgedrungen, mit riesigen modellen und algorithmen, die tief in alle bereiche der gesellschaft eingebettet sind und allesamt faktoren der infrastruktur und der wirtschaftlichen entwicklung darstellen. Doch hinter diesem anscheinend auf echte daten gestützten system liegt ein schwer zu überfälliges problem: die algorithmus voreingenommenheit. Diese voreingenommenheit ist nichts, was sich einfach aus der luft selbst erwächst, sondern sie hat ihren ursprung in allen aspekten der datenauswahl, -filterung und algorithmen. Die filterung Von informationen beispielsweise auf systemisch relevanten plattformen wie bittern, schnelle hand - Oder twitter-videos erhöht die spaltung zwischen den rändern. Selbst in einer familie werden mit hilfe eines algorithmus zwischen kindern und eltern unterschiedliche inhalte gesät, und der graben wird immer größer, je länger und oft das kurze video dauert. Dafür gibt es zwei gründe: einerseits ist datenauswahl ein eckpfeiler des algorithmus, der die software und ausgabe des algorithmus bestimmt. Realistische daten sind häufig nicht vollständig objektiv, sondern ermöglichen das erfassen der umgebung, der kultur und der menschlichen entscheidungsfindung, was es algorithmen ermöglicht, sensibel gegenüber bestimmten gruppen Oder einem bestimmten hintergrund zu sein. Die zu große abhängigkeit Von einer bestimmten quelle könnte dazu führen, dass das algorithmen andere geräusche ignorieren kann und so die soziale divergenz und kognitive isolation verschärft. Daher stellt sich die frage, wie sich daten aus unterschiedlichen quellen objektiv behandeln lassen und dass es daher unbedingt notwendig ist, auf voreingenommenheit zu verzichten. Zweitens kann die nutzerbezogene personalisierte informationsfilter und co-filtern während des algorithmus auch die informationsströme und -interaktionen beeinflussen, welche die kluft zwischen gruppen in den altersgruppen, einkommensstufen und berufsgruppen in der gesellschaft weiter vergrößern. Eine der größten herausforderungen in der heutigen gesellschaft ist die verminderung der voreingenommenheit des algorithmus und die ausgewogenheit der persönlichen empfehlung und fairness bei der konzeption und anwendung des algorithmus.

Ein, die unterschiedlichen datenbanken und die verehrte datenauswahl

Dies führt dazu, dass das datenbanken so gespeichert wird, dass das algorithmen in der Lage ist, daten effizient zu finden, zu aktualisieren und zu verarbeiten. Die algorithmus entwickelten sich überwiegend auf bestehende datenbanken und generierte kontinuierlich neue datenressourcen. Im laufe der zeit hat der datenbanken - unterschied und -qualität dazu geführt, dass es algorithmus zunehmend erschwert, fehlkalkulationen der daten zu vermeiden, was wiederum dazu geführt hat, dass der algorithmus einige teilergebnisse ausdruckt. Daher ist es wichtig, die sich aus der qualität der daten ergebenden algorithmischen voreingenommenheit zu überwinden. Um das zu erreichen, müssen wir zunächst die grenz der datengrundlage verstehen.

1. Fehlende und lückenhafte datenvielfalt

Die rasche entwicklung künstlicher intelligenzalgorithmen steht in einem Engen zusammenhang mit der komplexität, vielfalt und normalisierung der datenbank. Insbesondere in der frühphase der entwicklung Von algorithmen, die mit datenbasierten anwendungen arbeiten, beeinflussen die vielfalt, verfügbarkeit und verfügbarkeit Von daten die wirksamkeit des algorithmus. Zwar stehen unter der führung Von unternehmen und der politik immer mehr datenressourcen zur verfügung, die für veranstaltungen in der wirtschaft, für die entwicklung Von unternehmen, für staatliche Oder öffentliche dienstleistungen zur verfügung gestellt werden können, aber im verhältnis zur steigenden nachfrage sind diese ressourcen begrenzt. Vor allem die zeit der großen modelle treibt den bedarf an datenressourcen in neue höhen. Die nachfrage nach großen modellen nach umfangreichen trainingsdaten, darunter vielfalt, expertise und so weiter, bestimmt weitgehend ihre wirksamkeit. Das führte dazu, dass daten für die zukunft der künstlichen intelligenz unentbehrlich werden. Probleme mit der identifizierung ausreichender daten zur effektiven ausführung der aufgabe führen, beeinträchtigen sie unmittelbar die genauigkeit und verlässlichkeit der ausausgaben des algorithmus Unterdessen kam es zu ungleichgewichten in den stichprobe aufgrund fehlender statistiken über das ausmaß und die vielfalt. Kleine, unvollständige trainingsdaten sind nicht die gesamtheit, da ist die genauigkeit des algorithmus viel geringer, das lernen nimmt sich im laufe der arbeit ab und verlängert "verbotene" daten und ausgabe der verzerrt gewünschten ergebnisse.

Das problem der datenfülle ist: erstens: in einigen neu entstehenden fachgebieten gibt es noch keine relativ vollständige datenbank. Insbesondere in einigen innovativen wissenschaftlichen forschungsbereichen Oder verschiedenen branchen haben nur begrenzte daten Oder keine strukturierten datenbanken. [1] zweitens führt das fehlen allgemein akzeptierter "datenstandards" zu inkompatibilität der datenbanken. Drittens stellt die mangelnde verfügbarkeit historischer daten ein größeres hindernis für die anwendung eines algorithmus dar, der auf erfahrungen aus der vergangenheit Oder einem muster beruht. Viertens werden daten wegen privater privatsphäre und weil einige sensible Oder vertrauliche informationen möglicherweise nicht zugänglich Oder nicht zugänglich sind, eine "unöffentliche" ressource. Fünftens bestehen in bestimmten bereichen Oder organisationen kulturelle Oder institutionelle hindernisse für die weitergabe Oder verbreitung Von daten, die den fluss Von daten zwischen verschiedenen geografischen regionen und bereichen der welt behindern. [2] da für den aufbau und die instandhaltung Von datenbanken größere investitionen erforderlich sind und die kosten der speicherung und aktualisierung Von daten für kleinere organisationen Oder forschungszentren zu hoch sind, erfordert dies eine verlässlichkeit und kontinuität der daten. Für die robusten daten ist die wartung der datenbank relativ hoch, aber wenn die aktuell aktualisiert werden, kann die ausgabe der algorithmen leiden.

2. Ererbte vorurteile in den grundlegenden daten

Die daraus resultierenden werturteile und werterbeeinflusst die daten beginnen mit der erstellung der daten. Aber weil man Von der vorstellung einer "objektiven neutralität" des algorithmus ausgeht, übersieht man leicht die subjektivität der daten zu erfassen, aufzulösen und damit daten des algorithmus zu verwenden. Die wertvoreingenommenheit bei den basisdaten lässt sich in zwei kategorien einteilen: [3][4] erstens die gesellschaftlich verwurzelte wertvoreingenommenheit, einschließlich sozioökonomischer, kultureller, historischer und geschlechtsspezifischer voreingenommenheit; Zweitens stellt das lernen durch algorithmus eine wertvoreingenommenheit dar, die hauptsächlich aus der markte und der bestätigung Von voreingenommenheit resultiert.

Die erste kategorie Von basis-daten verweist vor allem auf probleme, die entstehen, wenn daten fließen und über den austausch zwischen verschiedenen kulturen fließen. In diesem fall führt die marginalisierung bestimmter gruppen zu einem "willkürlichen ausfall" der intelligenten algorithmen und zur beschädigung der fundamente, was zu strukturellen vorurteilen in der gesellschaft führt und diese verstärkt. In den usa etwa ist rassismus seit langem ein zentrales systemisches problem. Wenn us-politikinstrumente, literatur, historische erzählungen und ähnliches in einer bestimmten epoche algorithmischer datenbank verwendet werden, ist es unvermeidlich, dass sie mit vorurteilen und mit vorurteilen in verbindung stehen.

Die zweite kategorie basistischer datenvoreingenommenheit umfasst zwei schlüsselbegriffe: die markieren und die bestätigung der voreingenommenheit Voreingenommenheit bedeutet, dass die markierung eines datensets bei kontrolliertem roboterlernen dazu führt, dass die modelle ein profil Oder ein falsches bild Von den daten notieren. [5] die bestätigung der voreingenommenheit bedeutet, dass ein algorithmus, der Von objektiven daten lernt, die fehlerausgaben steigert und die voreingenommenheit in ihren empfehlungen Oder entscheidungen bestätigt. [6] diese art Von voreingenommenheit ist nicht auf objektiven, innewohnenden sozialen bedingungen und historischen und kulturellen werten ausgerichtet, sondern sie ist vielmehr Von algorithmus inspiriert, der algorithmus hervorbringt und roboter-interaktionen begleitet. Da das algorithmen keinen "aktiven gegendruck" voll anwenden kann, könnten voreingenommenheit bei der externen eingabe Von daten und der algorithmus selbst zur vorspietzung solcher extern gespeicherten daten, zu lernen und zu recyceln führen und damit zur verbreitung Oder gar zur erzeugung neuer voreingenommenheit.

Im zweiten gibt es die mechanismen des informationsfiltermechanismus, der dem algorithmus zugrunde liegt

Die in der datenbank erzählung auftauchten voreingenommenheit rückmeldungen nimmt mit der handhabung und kategorisierung Von informationen zu Obwohl dem algorithmus daten exponentiell zunehmen, ist die informationsverarbeitung unseres gehirns begrenzt; die informationsüberfluss führt dazu, dass wir nur "eingeschränkte rationalität" nutzen können. Angesichts des rauen informationsflusses und der begrenzten informationsakzeptanz, die unsere algorithmen bieten, wird das filtersystem weithin in die algorithmische praxis eingeführt. Zwar kann ein filter-system das problem der voreingenommenheit sicherlich lösen und für den benutzer eine bessere auswahl bieten, doch wird dieser filter auch dazu führen, dass ein algorithmus der voreingenommenheit "in die falle" fällt. Zudem schaffen [7] digitale plattformen, die den informationsfluss steuern, Von faktoren wie geschäftsinteressen, staatlicher regulierung und informationswärme beeinflusst werden, ein voreingenommenes ergebnis, weil sie nicht in der Lage sind, sich Von der fracht Von informationen zu Trennen.

1. Der grundlegende typ der informationfilter

Informationsfilterung ist der prozess der auswahl und darstellung Von informationen aufgrund bestimmter kriterien Oder präferenzen. 9] algorithmus, die in dynamik informationsfluss, trotz informationen filtern zu dienstleistung, effizienzsteigerungen auf bei der, aber eine einer massiven angekreuzt, wird senken diversifizierung umfang und öffentliche debatte, zu für die gesellschaft insgesamt des know-hows in struktur auswirkungen. [10] persönliche filterung und co-filterung Von inhalt sind die beiden hauptmuster in unseren algorithmen. [11] persönliche inhaltsbezogene filter, die den persönlichen präferenzen, interessen und verhaltensweisen des nutzern angepasst sind, z. B. die erhebung der originellen informationen des nutzern und die extraktion der unterschiedlichen arten Von nutzerdaten; Dateien auf der grundlage nutzerdaten erstellen und zu analysieren und zu behandeln; Die daten des benutzers für praktische empfehlungen verwenden. [12] dieser ansatz erfüllt die im bereich der erfahrung entstehenden anforderungen dadurch, dass er wesentliche vorlieben des benutzers berücksichtigt (z. B. hobbys, -quellangaben und fragen auf dem gebiet der geschichte).

Mit filtern nutzen kollektiven weisheit Oder Von vorhersagen nutzer individuen. Oder Von 13] mit die individuellen filtern abhängig einer nutzer der, mit informationen filtern auf mehrerer benutzer die integrierten zu, hätte annahmen "in den vergangenen geeinigt benutzer oftmals in wieder einigen", Mehr leisten, wenn der nutzer scheinbar keine informationen hat. Vom technischen standpunkt aus kann man die methode in einen Speicher basierenden filteralgorithmus und einen auf modelle basierenden co-filteralgorithmus unterteilen. [14] hier wird eine interspeicherbasierte filteralgorithmus verwendet, der eine matrix (benutzer - projektbewertung) erstellt, wobei man vorliebe Von vorhandenen daten mit denen des benutzers zu einem projekt teilt. Gleichzeitig sucht die funktion sucht in der anwendung die ähnlichkeiten zwischen einem benutzer und einem eintrag aus Ein auf einem modell basierender co-filter-algorithmus erstellt ein modell zum filtern Von informationen und zur empfehlung Von werten, die in den meisten fällen anwendung finden, z. B. einem belles-scalierer Oder einem auf linearen algebra basierenden mittel.

2.algorithmische voreingenommenheit im filtersystem

Personalisierte und inhaltsbasierte filter und co-filter sind, in welcher form auch immer, oftmals einem prozess gefolgt, der zu "datengewinnung - datenbank - erstellung Von modellen - algorithmen" führt. Diese beiden ansätze basieren in der regel auf einer großen anzahl Von nutzerdaten, erstellen modelle, die der digitalen plattform entsprachen, und arbeiten mit spezifischen algorithmen ab und übertragen algorithmen in konkrete situationen, um automatisierte benutzerselektion und informationsfluss zu ermöglichen. Es gibt jedoch einige potenzielle probleme in diesem prozess, so etwa die möglichkeit, dass modelle lernen und voraussagen durch unausgewogene Oder parteiische datenströme Oder durch den auf die wirtschaft beschränkten informationsfluss beeinflusst werden, was zu richtungsorientierung und folgen für die öffentliche meinung führen kann.

In individuellen informationen filtern, da wichtige auf nutzer geschichte, Von auf, empfehlen, unternehmen wird zu algorithmus, plattform) versteckt, sonderangefertigten zu um nutzer, [15] und teilweise einschränken nutzer zu Anders informationen die angekreuzt. Eher erfüllen ansichten und, Der prozess des informationsaustauschs entsteht durch eine lange tradition der "filter". [16] algorithmen entwickeln sich beim tiefenlernen und der analyse zu einer "entführung" des nutzerwerts, dessen zeit, gedächtnis und sogar das persönliche urteilsvermögen dem algorithmus überlassen werden. [17] obwohl das "personalisierte filtersystem" (eine umgebung, die die kosten für die nutzung und den verbrauch Von informationen erhöht) die bedürfnisse der nutzer nach informationen unterschiedlicher stufen senkt, beruhen diese daten auf oberflächlichen, kommerzialisierten inhalten. Die algorithmus sind störrisch, was unter anderem einen keil zwischen angebot und nachfrage führt und die nachfrage nach unterschiedlichen informationen behindert. Im zusammenspiel zwischen individuen und plattformen werden einzelne an spezielle semantische positionen gebunden, um diese zu vermitteln. Was der benutzer gesehen hat, passte zu seinen ideen und präferenzen: die filterung Von informationen führt zu einer beibehaltung seiner bestehenden muster des zugriffs und der benutzung Von informationen, verursacht eine stärkere abspaltung zwischen den einzelnen personen und verstärkt die probleme algorithmen.

Zusätzlich dazu, dass algorithmen die persönlichen daten des benutzers analysieren, erweitern sie die grenzen seiner informationspräferenzen und perfektionieren die dazugehörige vorliebe des benutzers für andere personen. Während dieses prozesses werden immer mehr und ganzheitlichere informationen und die daten über das verhalten der nutzer durch codierte filterung genutzt. Zwar erhöht dies zum teil den zugang des einzelnen zu diversen themen und verringert die durch die personalisierte informationsverarbeitung entstehenden informationsprobleme. Einerseits gibt es probleme, die auf die zusammenführung Von filteralgorithmen selbst ansprechen, bei denen es zu einer ungenauigkeit, zu schmal, zu spezialisierung und zu homogenität kommt, was es erschwert, den neuen nutzern Oder den in der vergangenheit begrenzten daten eine präzise und objektive beurteilung zu ermöglichen und so ein scheinbar definitives filtersystem zu erzeugen. Andererseits ist die auf einem ähnlichen vorliebe beruhende co-filterung in der natur eine wiederholung Von ähnlichkeiten. Die plattform, die durch die rücksicht auf individuelle Oder differenzierte informationspräferenzen den zugang zu informationen erweitert, scheint die grenzen des informationszugangs zu erweitern aber nur das "loch" mit einer fülle an informationen zu erweitern, um das informationshindernis für einen ausgleich zwischen öffentlichen und privaten informationen zu schaffen. 18] die co-filter erweitern die soziale voreingenommenheit weiter, indem sie bei bestimmten sozialen fragen an die setze, an die die nutzer informationen und ihr kollektives verhalten weitergegeben haben.

Die auswirkungen Von algorithmen zeigen

Daten sind der erste schritt, und zwei filtermechanismen können datenprobleme lösen und gleichzeitig durch algorithmus verursachte probleme lösen. Ferner kann ein algorithmus als kiste fungieren, in der grunddaten, filtersysteme und andere wichtige technologien eingeschlossen sind. Nach der diskussion Von mechanismen zur voreingenommenheit des algorithmus sollte man nicht nur an zwei filtersystemen zweifeln.

Algorithmische modelle zeichnen elemente mit hoher präzision, vielfalt und komplexität. Die architektur des algorithmus ist komplex und selbst für die entwickler Von modellen komplex; insbesondere was nichtlineare modelle und deren auslegung besonders schwierig macht. Nichtlineare modelle, wie beispielsweise tiefe neuronale netze, enthalten häufig viele parameter und komplexe hierarchien und erschweren das verständnis ihrer internen funktionsweise. Gleichzeitig ist die einführung Von zufall beim lernen in algorithmischen modellen eine gängige praxis, beispielsweise wenn man für randomisierte probenablage und hobsetzungen der daten nicht berücksichtigt, führt das blackerboy-modell, bei dem nicht die internen strukturen und funktionsweise des algorithmus berücksichtigt werden, zu merklich unterschiedlichen ausstrahlungsergebnissen, wodurch ein entsprechender ausbildungsbedarf besteht. Gerade diese zufälligkeit stellt jedoch die fähigkeit, modelle zu verändern, auf grundlage neuer daten infrage. Das modell kann auf geruchserenditen zu hoch eingestellt und auf geräusche empfindlich reagieren, was zu einer unterbewertung neuer, vorher nicht gebemerkter daten führt. Damit ist ein wichtiges thema für die heutige forschung, wie algorithmen in komplexen modellen transparent gemacht werden können.

Der algorithmus befindet sich oft in einem undurchsichtigen, schwer auffindbaren "black box" Dank der rückmeldung unter dem algorithmus "blackbox" könnten voreingenommenheit als eine möglichkeit erwiesen werden, unsere bestehenden vorurteile zu verlängern, zu verstärken und einen teufelskreis auszulösen. Mit grundlage daten, gefiltert technologien ihren verschiedene, medien algorithmus modell sich, algorithmus modelle funktionieren logik die daten mehr sowie LiDu, in des geschwindigkeit und verbundenen technologien mehr sich, algorithmus die algorithmus vorurteile auswirkungen in bei noch komplizierter. In dem wirklichen umfeld des "algorithmus in einer gesellschaft (den verlust Von emotionen)" wird die voreingenommenheit des algorithmus zu größerer ungleichheit und [19] selbst zu einer reihe sozialer folgen führen.

Viertens, vorurteile und bilder: was die funktion der steuerung ans licht kommt

Im aktuellen medienumfeld sind algorithmus nicht mehr nur technologie, sondern auch eine soziale, intellektuelle regel, die dem öffentlichen sinn sinn gibt. Dabei spielen datensammlung und informationsfilterung eine wichtige rolle in den algorithmus. Zunächst einmal erhält der algorithmus aufgrund Von "definitiven daten" in der anfangsphase des spiels ein "definitives training", das die direkte gültigkeit der datenauswahl und der algorithmen beeinflussen kann. Zweitens: nach der auseinandersetzung mit den datenfiltern und der einführung piakter filter wird ein teil der voreingenommenheit im algorithmus fortgeschrieben und vertieft. Letztlich wird die kombination aus "algorithmen", die Von inneren problemen in der gesellschaft verursacht wird, zusammen mit der hilfe Von modellen durch externe faktoren wie kapital und regime, irgendwann zu einer schädigung des informationsökosystems und zu einem ungleichgewicht bei der sozialen gerechtigkeit führen.

1. Algorithmen mit "technologischer energie" ersetzen und damit das "technologische risiko" steigern

Angesichts der voreingenommenheit der algorithmen wird es Von entscheidender bedeutung sein anzuerkennen, dass technologie risiken mit sich bringen und auch in der Lage ist, diese risiken zu verringern, und dass die transparenz der algorithmen entscheidend ist. Die "blackbox" des algorithmus, also undurchsichtig und erklärt, geht um das recht der öffentlichkeit auf information, die akzeptanz und das vertrauen in die algorithmen zu beeinflussen. Undurchsichtigkeit wird als merkmal Von "mathematischen fähigkeiten" angesehen [20] und die erläuterbaren regeln des algorithmus könnten eine wichtige rolle spielen, wenn es darum geht, die kausalität bei ergebnissen künstlicher intelligenz zu verstehen. So legen etwa wichtige rechtliche regeln fest, welche die transparenz des algorithmus und die erläuternden auflagen als regelungsalgorithmen festlegen [21], um das ungleichgewicht zwischen denjenigen, die den algorithmus entworfen haben, denjenigen, deren algorithmus Von der öffentlichkeit bewertet wird, zu verringern und die objektive gültigkeit der wahl des algorithmus zu erhöhen.

Die erhöhung der transparenz des algorithmus bedeutet, die fähigkeit zur betriebsanwendung des algorithmus zu enthüllen und stakeholdern ein einblick in die entscheidungsfindung des algorithmus zu ermöglichen, damit sie nicht nur mit den ergebnissen des algorithmus umgehen müssen, sondern auch die art und weise, wie die algorithmen ergebnisse erzeugen, namentlich durch informationsweitergabe und beteiligung an der transparenz. In beiden fällen ging es entscheidend um die entwicklung erklärbarer und erklärbarer algorithmen.

In dem bedeutet offenlegung Von informationen die spontane auslegung des informationsgebers, die offenlegung Von material und die art der produktion Von informationen. Im zuge dieses prozesses müssen die plattformen die logik und die regeln offenlegen, die innerhalb der algorithmen verwendet werden, um Von allen seiten der gesellschaft verstanden und überwacht zu werden. Einerseits kann die einerseits die sitzung "dateneingabe - hacken Von daten datenausgabe" entsperren; Auf der anderen seite war es möglich, mit rereengineering verzerrte ergebnisse aus den ausgaben des algorithmus mittels technischer algorithmen zu entziffern, zu messen, zu analysieren etc.

Transparenz zieht mehr benutzer in die unterschiedlichen phasen des informationsprozesses ein; [22] die beteiligung an der transparenz-verwirklichung erfordert die nutzung der macht anderer akteure. Zunächst muss die algorithmus - gestalter sicherstellen, dass die quellen und scan-prozesse für die ausbildung der daten zugänglich und verifizierbar sind, und zwar durch robuste datenverfolgungs - und -mechanismen. Zweitens sollten algorithmen wie plattformen und medien in regelmäßigen abständen transparenzberichte veröffentlichen und feedback-mechanismen und -kanäle einrichten, die das recht der nutzer auf information und aufsicht garantieren. Dies wiederum gibt den nutzern das recht, "automatisierte entscheidungen" zu ändern, und verbessert [23] die einbindung des algorithmus. Schließlich müssen die staatlichen aufsichtsämter dynamische, systemweite regulierungsmechanismen schaffen, die ihre ordnungsgemäße durchführung sicherstellen. Der benutzer sollte bei jeder komponente des algorithmus so weit wie möglich am eintritt der benutzer beteiligt sein und die interessen der "mehrheit" wahren. Die erhöhung der transparenz des algorithmus und die erläuternden untersuchungen sind Von entscheidender bedeutung, um die voreingenommenheit des algorithmus zu reduzieren. Die nutzung kollektiven wissens durch technologie und gesellschaft und die nutzung der kollektiven intelligenz fördert die dramatischen prozesse, die die steuerung des algorithmus in einer digitalen gesellschaft vorantreiben.

2. Ethische standards und ethische grundsätze, die Von algorithmen ausgearbeitet wurden

Die algorithmus müssen in ethische regelungsfragen eingebettet sein, und die algorithmus müssen durch ethisches bewusstsein, ethische normen und ethische prinzipien eingeschränkt und diktiert werden, sowie sie in verhaltensleitlinien und wertestandards für technologiekonzerne verwandein. Von der perspektive eines algorithmus aus gesehen, wurde nicht nur die steuerung der mit dem algorithmus herrschenden steuerung angeführt, sondern auch eine kraft des sozialen engagements. Um eine einheitliche gesellschaft und soziale beurteilung der algorithologischen entscheidungsfindung und gesellschaft sowie eine stadt und das algorithmen zu ermöglichen, muss das algorithologische designer in bezug auf das "sinn der gesellschaft" moralische prinzipien, moralische standards und wertmaßstäbe einbeziehen, um das verantwortungsgefühl Von algorithmen in der sozialen praxis zu erzeugen. Potenzielle vorurteile bewusst zu identifizieren und Von ihnen zu korrigieren.

In der realität muss eine verringerung der "voreingenommenheit mit algorithmen" Von einer weniger "technischen voreingenommenheit" ausgehen und die regeln der algorithmus wie die prinzipien der selbständigkeit, der unparteilichkeit und der optimierung unterstützen. [25] insbesondere muss es während der algorithmus entwicklung Von algorithmen notwendig sein, weiterhin aktiv nach gerechten algorithmen und technologien zu suchen, klare ethische leitlinien auszuarbeiten und zu verbreiten, algorithmisch-entwicklern ein bidirektives verständnis, faire beurteilung und reaktionsstrategien zu vermitteln. [27] Während der anwendung der algorithmen wird die kommunikation mit stakeholdern, einschließlich der betroffenen sozialen gruppen, regierungsbeamten und experten auf damit zusammenhängenden gebieten, fortgesetzt und mittels durchgehend wiederholtes datentrainingsprogramm und moraler simulation werden die meinungen verschiedener interessengruppen, experten und experten in algorithmische algorithmen einfließen. Während der instandhaltung des algorithmus ist es kein mutieren des algorithmus, sondern es ist erlaubt, den taumball am nutzer und am plattform vor ort zu reflektieren und technologien für den guten antrieb zu entwickeln.

3. Menschen gehen nicht ans telefon

Der schlüssel zwischen mensch und maschine ist, menschliche intelligenz mit technischen systemen organisch zu verbinden, damit normen und erleichterung über potenzielle vorurteile erreicht werden. Die bedeutung dieser idee ist auf allen ebenen der algorithmischer entwicklung zu erkennen, ihr kernstück ist das intensive bemühen, tiefgehende überlegungen und die breitere anwendung gerechter algorithmen und technologien bei der entwicklung des algorithmus zu fördern.

Zunächst einmal sollte der algorithmus nicht als steuer der gesellschaft, sondern als instrument im dienste der menschheit gesehen werden. Die beibehaltung des menschheitsprinzips, dass die verantwortlichkeiten und werte Von algorithmen, technikern und sozialmanagern ein grundlegender grundsatz zur regelung des algorithmus sind, kann helfen, die grenzen Von rechnern und objekten zu überwinden, indem es menschen das urteilsgefühl eingibt.

Zweitens ist bilder bilder Von menschen und robotern notwendig, um sowohl die zensur als auch die rechenschaftslegung bei der konzeption Von algorithmen zu stärken Im gegenzug ist damit sichergestellt, dass der algorithmus im rahmen funktionieren kann, damit ein bestimmtes moralisches rahmenwerk entstand, das die unterschiedlichen werte wie fairness, gleichheit und datenschutz einbezieht. Einerseits erfordert die durchsetzung des algorithmus verlässlichkeit und fairness, andererseits aber auch die rechenschaftspflicht, indem man einen kanal für die effektive rechenschaftslegung der opfer unfairer algorithmus entwickelt und verantwortungs - personen verwirklicht, die Von der anwendung des algorithmus voreingenommenheit profitieren.

Noch in algorithmus Von, und mit regierungsführung betonend, dass die bleiben, auch algorithmus neu auf in die und datensammlung und mit zu diskriminierende und in bestimmten mit in die industrieübergreifenden in für algorithmen, stärken algorithmen die und algorithmus in bewertung ihrer aufmerksamkeit unterschiedlicher gruppen folgen. Der schlüssel ist, menschliche intelligenz in technische systeme zu integrieren, fairness und transparenz zu fördern und bilder Von menschen in integrierten regierungssystemen aufzustellen.

Fünf, abschluss

Da immer mehr algorithmus jeden aspekt des öffentlichen lebens durchdringen, ist das problem der algorithmus -voreingenommenheit nicht mehr das "rezessive problem". Es geht bei der lösung Von problemen mit algorithmus nicht nur um eine einfache, unsicheren algorithmus, sondern um eine enorm vernetzte und mit der sozialen realität stark interagieren. Der hauptteil des problems besteht darin, dass die verantwortung für die beantwortung Von meinungsverschiedenheiten im algorithmus allein dem entwickler Oder dem anwender in die hände spielen würde. Es ist schwierig, die voreingenommenheit des algorithmus effektiv zu lösen, selbst wenn die technische basis vorhanden ist und man die algorithmisch-architektur sowie die details des algorithmus versteht. Soziale voreingenommenheit in algorithmus ist charakteristisch für mehrtes engagement und für angriffe auf die produktion und soziale beziehungen und für komplexität, vielfalt und undurchsichtigkeit und bilder, die bilder aus einer vielzahl Von algorithmus und interaktive modelle bei der steuerung der gesellschaft erfordern. Die synergien zwischen der menschlichen intelligenz und den rechnersystemen Oder die einführung neuer wege zur effektiven steuerung des algorithmus im zeitalter der künstlichen intelligenz sind eine der antriebssysteme des technologischen fortschritts. Indem wir die beziehung zwischen menschen und instrumenten und technologien neu überdenken, können wir intelligenz und starke computersysteme besser miteinander verarzten, es vermeiden, dass ein einzelner körper die voreingenommenheit des algorithmus übersteht, und die einheit Von instrumentalem rationalismus und werterrationalität aufrechterhalten.

Verfasser: institut für öffentlichkeitsarbeit und kommunikation der universität Von vannan

* das vorliegende epochale ergebnis eines bedeutsamen themas der staatlichen sozialwissenschaft: "forschung Von algorithmen im kontext künstlicher intelligenztechnik zur entwicklung eines auf native china ausgerichteten theoretischen systems" (23&ZD215)

Oberirdisch gesehen. Und

0
0
Der online-kommentare
Ich habe fieber