Website-Icon Perspektiven Global

Heiliger KI: Ist es wirklich das allwissende Orakel? – The Mail & Guardian

Diskussionen über Fortschritte in der künstlichen Intelligenz ⁤(KI) werden romantisiert und als allwissendes Orakel⁢ und Retter ‍dargestellt. Dies scheint eine Marketingstrategie der großen Technologieunternehmen zu sein, aber wir sind besorgt darüber, wie unkritisch diese Technologien eingesetzt werden.

Es gibt zahlreiche Geschichten von Privatpersonen,‌ Regierungsbehörden ⁤und privaten Bereichen, die die großen Sprachmodelle der KI nutzen, um aufkommende ​und‍ langjährige Probleme ⁤zu lösen. Diese Technologien werden als allwissend angesehen, was ihnen ermöglicht, alles zu „wissen“, was bekannt ist – und⁤ darüber hinaus.

Ein Beispiel‍ für diese Technologien ist der Promi ChatGPT. Viele ‍Universitätsstudenten rufen ‌ChatGPT an, um ihnen bei der Bewältigung⁤ ihrer Aufgaben und anderer ⁣Forschungsaufgaben zu helfen. Tatsächlich⁢ hat einer der Autoren dieses Artikels diese Tendenz ⁤bei seiner Arbeit mit Studenten an der Universität⁤ Johannesburg erlebt.

In den meisten Fällen zeigen die Arbeiten der Studenten eine unkritische Nutzung dieser Technologie, die wie Menschen schreibt. Aber diese Einmischung geht über den akademischen⁢ Raum hinaus und wird täglich von‍ Personen ⁣in verschiedenen ‌Bereichen genutzt.

Die Benutzer dieser ​Technologie verstehen nicht, dass hinter der Unkenntnis von ChatGPT Gefahren lauern, von denen sie nichts wissen. Oftmals sind die von ihm produzierten Informationen inkorrekt und von Ungenauigkeiten durchzogen – ein Problem, das der Allwissenheit​ widerspricht, die ⁣die Technologie haben soll.

Aber​ es gibt noch eine ernstere Gefahr, die in der Technologie​ steckt und eine Herausforderung für die ehrfürchtige⁣ Verehrung dieser Technologie ⁣darstellt. Das Werkzeug ist von‌ Natur aus voreingenommen und diskriminierend.

Eine häufige Art, wie es Menschen ​diskriminiert, besteht darin, bestimmte gesellschaftliche ⁢Probleme bestimmten Personen zuzuschreiben, aufgrund historischer Übel wie Rassismus und Sexismus. Zum Beispiel wurde festgestellt, dass der Einsatz von KI-Technologie im Justizsystem der Vereinigten Staaten schwarze Amerikaner diskriminierte. Es wurde vorhergesagt, ​dass sie​ eher dazu neigen, Verbrechen⁢ zu begehen oder erneut straffällig zu⁤ werden als ihre weißen Kollegen. Nach gründlicher Forschung⁤ stellte sich jedoch‍ heraus, dass dies nicht der Fall war.

Ein weiterer Vorfall, der die eingebettete ​Voreingenommenheit in KI-Systemen aufdeckte, ereignete sich, als entdeckt wurde, dass ⁤das Einstellungssystem von Amazon⁣ Frauen bei Bewerbungen diskriminierte. Die Systeme lehnten automatisch Bewerbungen ab, die darauf hinwiesen, ⁢dass die Bewerberinnen Frauen waren.

KI-Technologien, die Sätze schreiben und menschliche Sprachen⁣ lesen ⁢können – sogenannte große Sprachmodelle -⁣ haben sich als perpetuierende Formen von Rassismus ⁢erwiesen. Während wir schnell einwenden können, dass diese Fälle auf die US-amerikanische Gesellschaft und Gesellschaften im Globalen⁤ Norden zutreffen,​ müssen wir auch verstehen, dass ​Südafrika eine multirassische Gesellschaft ist und wir ‌Fälle von rassischer Segregation, Voreingenommenheit und Diskriminierung erlebt haben.

Der Globale‍ Norden steht für die meisten Technologien, die ​wir in ‌Südafrika ‍nutzen.⁣ Wenn diese Werkzeuge in diesem⁢ Bereich ‍problematisch sind, dann folgt⁢ daraus, ‍dass‌ unabhängig von der ​Gesellschaft, in der sie verwendet werden, ⁣diese⁤ Techniken ⁢ihre problematische Natur zeigen werden – und in diesem Fall entlang rassischer ‍oder geschlechtsspezifischer Linien.

Für diejenigen von uns, ‌die mit diesen neuartigen und hochmodernen Werkzeugen arbeiten, werden Fragen der algorithmischen Diskriminierung angesichts der weit verbreiteten Verwendung⁢ von KI in nahezu jedem Bereich unserer Gesellschaft sehr besorgniserregend.

Vielleicht ist es angebracht darauf hinzuweisen, dass Diskriminierung kein neues gesellschaftliches Problem ist – insbesondere im Kontext Südafrikas sind wir ⁣mit diesem sozialen Übel vertraut. Diskriminierung, die offene und versteckte ​Formen von Rassismus, Voreingenommenheit ⁣und Unterdrückung einbezieht, ist eines der ‍sozialen Ungerechtigkeitsprobleme, die historisch und zeitgenössisch die ⁢Gesellschaft durchdrungen haben.

Diskriminierende Handlungen in Form von Rassismus wurden in der akademischen Literatur, im sozialen Aktivismus und in formellen und informellen Erzählungen diskutiert. Darüber hinaus haben ⁣öffentliche Richtlinien und andere nationale und internationale Dokumente von den Vereinten Nationen,​ der Europäischen Union, der Afrikanischen Union und anderen versucht, diskriminierende und rassistische Ideologien und Handlungen‍ zu mildern.

Wir ​würden vermuten, ‍dass mit dem Ende der Apartheid oder des Kolonialismus im‌ Allgemeinen sowie der Bürgerrechtsbewegung in den USA ​soziale Ungerechtigkeiten in Form von Diskriminierung und Rassismus beendet worden wären.

Aber diese sozialen Übel bestehen weiterhin⁢ und widerstehen ihrer Milderung – vielleicht können diese Probleme mit dem Mythos von neun Leben einer Katze ⁣verglichen werden.

Es hat ‍sich gezeigt, dass diese Probleme wahrscheinlich noch lange bestehen werden. Dies liegt daran, dass eine neue Form von Rassendiskriminierung aufgetaucht ‍ist, ​die das Problem kompliziert. Der⁤ Rassist auf unserer Veranda​ ist nicht ‌mehr nur ein ‌Mensch, der aktiv ⁤rassistische Handlungen offen‍ ausführt, sondern KI -‍ insbesondere die KI, die wie Menschen schreibt und spricht.

Die großen Sprachmodelle, die verdeckte Formen von Rassismus perpetuieren, umfassen die vielgepriesenen ChatGPT 2.0, 3.5 und 4.0. Diese‍ werden von den Studenten ⁢eines der Autoren verwendet, um ihre Aufgaben zu erledigen.

Verstehen Sie uns nicht falsch, ⁢große Sprachmodelle sind‍ relevante soziale Technologien. Sie sind darauf trainiert, Texte in verschiedenen Anwendungen zu verarbeiten und zu generieren, um in Bereichen wie Gesundheitswesen, Justiz und⁣ Bildung zu helfen.

Sie ⁢konstruieren Texte, fassen Dokumente zusammen,‌ filtern Bewerbungen und Vorschläge, fällen Urteile‌ im Justizsystem ⁢und entscheiden, wer Gesundheitsgüter erhält.

Aber lassen Sie uns nicht von der vermeintlichen orakelhaften oder heiligen Natur großer ‍Sprachmodelle täuschen – sie‍ haben auch besorgniserregende⁣ Aspekte.

Eine kürzlich durchgeführte Studie mit dem Titel Dialect Prejudice ⁣Predicts AI Decisions⁤ About People’s Character, Employability and Criminality von Valentine Hofmann, Pratyusha Ria ‌Kalluri, Dan Jurafsky und Sharese King unterstreicht, ‍dass KI große ‌Sprachmodelle ​schuldig sind, verdeckte Diskriminierung und Rassismus gegenüber Schwarzen, insbesondere Afroamerikanern⁤ und Frauen, basierend auf Sprache ⁤zu perpetuieren.

Diese großen⁢ Sprachmodelle verbinden Beschreibungen ‍wie schmutzig, hässlich, Koch, Sicherheit und Hauspersonal mit afroamerikanischen Englischsprechern und⁤ Frauen. Diejenigen, die Standardamerikanisch‍ sprechen, werden mit ⁤“professionelleren“ Jobs in Verbindung gebracht.

Noch schlimmer ist, dass große Sprachmodelle afroamerikanischen Englischsprechern in einem größeren ‌Maßstab die Todesstrafe verhängen‍ als Standardamerikanischsprechern für dasselbe Verbrechen.

Warum sind diese Fragen der algorithmischen Diskriminierung, Voreingenommenheit⁣ und‍ des Rassismus wichtig, und warum sollten wir uns darum kümmern?

Als Südafrikaner, angesichts unserer rassischen, kulturellen und sprachlichen ‍Vielfalt, sollten wir uns über diese Technologien Sorgen machen. Es besteht ein dringender Bedarf, KI-Systeme in nahezu jedem Bereich unserer Gesellschaft einzusetzen, von Gesundheitswesen bis Bildung und Justizsystemen.

KI-Technologien, insbesondere große Sprachmodelle, sind besonders relevant in⁤ Bereichen der Gesellschaft wie Beschäftigung und dem Justizsystem.

Allerdings ⁣sind große Sprachmodelle nicht harmlos; wie andere⁢ maschinelle Lernsysteme tragen sie menschliche Voreingenommenheit, Stereotypen und ⁤Vorurteile in den Trainingsdatensätzen. Dies führt zu Diskriminierung und⁤ Voreingenommenheit dieser Modelle entlang rassischer und geschlechtsspezifischer Linien gegenüber Minderheiten.

Der in ​großen Sprachmodellen eingebettete​ Rassismus und die Diskriminierung sind nicht so offensichtlich wie in den meisten früheren Formen von Rassismus; sie sind auf eine ⁢farbenblinde Weise verdeckt.

In einem Experiment interpretierte ein großes Sprachmodell ein schwarzes Alibi als ⁣krimineller und die Person ⁤als weniger gebildet und weniger vertrauenswürdig, wenn sie afroamerikanisches Englisch verwendeten.

Darüber hinaus weisen große Sprachmodelle afroamerikanischen Englischsprechern im Vergleich zu Standardamerikanischsprechern weniger prestigeträchtige Jobs zu.

Dies soll nichts unterstellen, aber nehmen‍ wir an, dass⁤ von unseren ⁢11 Sprachen in Südafrika ⁢eine als⁣ überlegen angesehen⁢ wird. In‌ diesem Fall ist offensichtlich, dass nur diejenigen, die ‌diese „überlegene“ Sprache sprechen, wertvoll sind, wenn es darum geht, große Sprachmodelle zu verwenden, um Entscheidungen zu treffen, ‌die Südafrikaner betreffen.

Es ist ⁤offensichtlich geworden, durch den neuen Rassismus auf unserer Veranda, dass Rassismus nicht so bald enden wird, da er‍ in verschiedenen Formen auf⁢ eine subtilere Weise wieder auftaucht. Angesichts der Rolle Südafrikas bei der Arbeit mit hochmodernen aufstrebenden Technologien, welche Auswirkungen haben rassistische Technologien in ​einem Land wie Südafrika, ​das bereits eine Geschichte ‌von Rassismus und Unterdrückung hat?

Es ist unerlässlich, dass wir als Gesellschaft‌ über⁣ die Rolle dieser Technologien bei der Förderung​ von Rassismus und Sexismus in unserer zeitgenössischen Epoche⁤ nachdenken und darauf hinwirken, dass diese Technologien ‌nicht zu den neuen rassistischen und sexistischen⁤ werden. Wir müssen sicherstellen, dass wir kritisch sind gegenüber den Informationen, die uns diese Werkzeuge ‍liefern,‌ und darauf achten, dass dieses Orakel uns nicht ⁤gleichermaßen liebt. Es‌ scheint, dass es eine bestimmte Rasse mehr liebt als andere und einem bestimmten Geschlecht gegenüber anderen bevorzugt.

Bis wir diese in den Technologien eingebetteten sozialen Probleme durch den Einsatz ethischer Programmierung ​beheben, müssen wir vorsichtig sein, wie wir​ sie heranziehen, um schnelle Lösungen in unseren Gesellschaften zu bieten.

https://perspektiven-global.de/wp-content/uploads/2024/12/audio_1733573356.mp3?_=1
Die mobile Version verlassen