Diskussionen über Fortschritte in der künstlichen Intelligenz (KI) werden romantisiert und als allwissendes Orakel und Retter dargestellt. Dies scheint eine Marketingstrategie der großen Technologieunternehmen zu sein, aber wir sind besorgt darüber, wie unkritisch diese Technologien eingesetzt werden.
Es gibt zahlreiche Geschichten von Privatpersonen, Regierungsbehörden und privaten Bereichen, die die großen Sprachmodelle der KI nutzen, um aufkommende und langjährige Probleme zu lösen. Diese Technologien werden als allwissend angesehen, was ihnen ermöglicht, alles zu „wissen“, was bekannt ist – und darüber hinaus.
Ein Beispiel für diese Technologien ist der Promi ChatGPT. Viele Universitätsstudenten rufen ChatGPT an, um ihnen bei der Bewältigung ihrer Aufgaben und anderer Forschungsaufgaben zu helfen. Tatsächlich hat einer der Autoren dieses Artikels diese Tendenz bei seiner Arbeit mit Studenten an der Universität Johannesburg erlebt.
In den meisten Fällen zeigen die Arbeiten der Studenten eine unkritische Nutzung dieser Technologie, die wie Menschen schreibt. Aber diese Einmischung geht über den akademischen Raum hinaus und wird täglich von Personen in verschiedenen Bereichen genutzt.
Die Benutzer dieser Technologie verstehen nicht, dass hinter der Unkenntnis von ChatGPT Gefahren lauern, von denen sie nichts wissen. Oftmals sind die von ihm produzierten Informationen inkorrekt und von Ungenauigkeiten durchzogen – ein Problem, das der Allwissenheit widerspricht, die die Technologie haben soll.
Aber es gibt noch eine ernstere Gefahr, die in der Technologie steckt und eine Herausforderung für die ehrfürchtige Verehrung dieser Technologie darstellt. Das Werkzeug ist von Natur aus voreingenommen und diskriminierend.
Eine häufige Art, wie es Menschen diskriminiert, besteht darin, bestimmte gesellschaftliche Probleme bestimmten Personen zuzuschreiben, aufgrund historischer Übel wie Rassismus und Sexismus. Zum Beispiel wurde festgestellt, dass der Einsatz von KI-Technologie im Justizsystem der Vereinigten Staaten schwarze Amerikaner diskriminierte. Es wurde vorhergesagt, dass sie eher dazu neigen, Verbrechen zu begehen oder erneut straffällig zu werden als ihre weißen Kollegen. Nach gründlicher Forschung stellte sich jedoch heraus, dass dies nicht der Fall war.
Ein weiterer Vorfall, der die eingebettete Voreingenommenheit in KI-Systemen aufdeckte, ereignete sich, als entdeckt wurde, dass das Einstellungssystem von Amazon Frauen bei Bewerbungen diskriminierte. Die Systeme lehnten automatisch Bewerbungen ab, die darauf hinwiesen, dass die Bewerberinnen Frauen waren.
KI-Technologien, die Sätze schreiben und menschliche Sprachen lesen können – sogenannte große Sprachmodelle - haben sich als perpetuierende Formen von Rassismus erwiesen. Während wir schnell einwenden können, dass diese Fälle auf die US-amerikanische Gesellschaft und Gesellschaften im Globalen Norden zutreffen, müssen wir auch verstehen, dass Südafrika eine multirassische Gesellschaft ist und wir Fälle von rassischer Segregation, Voreingenommenheit und Diskriminierung erlebt haben.
Der Globale Norden steht für die meisten Technologien, die wir in Südafrika nutzen. Wenn diese Werkzeuge in diesem Bereich problematisch sind, dann folgt daraus, dass unabhängig von der Gesellschaft, in der sie verwendet werden, diese Techniken ihre problematische Natur zeigen werden – und in diesem Fall entlang rassischer oder geschlechtsspezifischer Linien.
Für diejenigen von uns, die mit diesen neuartigen und hochmodernen Werkzeugen arbeiten, werden Fragen der algorithmischen Diskriminierung angesichts der weit verbreiteten Verwendung von KI in nahezu jedem Bereich unserer Gesellschaft sehr besorgniserregend.
Vielleicht ist es angebracht darauf hinzuweisen, dass Diskriminierung kein neues gesellschaftliches Problem ist – insbesondere im Kontext Südafrikas sind wir mit diesem sozialen Übel vertraut. Diskriminierung, die offene und versteckte Formen von Rassismus, Voreingenommenheit und Unterdrückung einbezieht, ist eines der sozialen Ungerechtigkeitsprobleme, die historisch und zeitgenössisch die Gesellschaft durchdrungen haben.
Diskriminierende Handlungen in Form von Rassismus wurden in der akademischen Literatur, im sozialen Aktivismus und in formellen und informellen Erzählungen diskutiert. Darüber hinaus haben öffentliche Richtlinien und andere nationale und internationale Dokumente von den Vereinten Nationen, der Europäischen Union, der Afrikanischen Union und anderen versucht, diskriminierende und rassistische Ideologien und Handlungen zu mildern.
Wir würden vermuten, dass mit dem Ende der Apartheid oder des Kolonialismus im Allgemeinen sowie der Bürgerrechtsbewegung in den USA soziale Ungerechtigkeiten in Form von Diskriminierung und Rassismus beendet worden wären.
Aber diese sozialen Übel bestehen weiterhin und widerstehen ihrer Milderung – vielleicht können diese Probleme mit dem Mythos von neun Leben einer Katze verglichen werden.
Es hat sich gezeigt, dass diese Probleme wahrscheinlich noch lange bestehen werden. Dies liegt daran, dass eine neue Form von Rassendiskriminierung aufgetaucht ist, die das Problem kompliziert. Der Rassist auf unserer Veranda ist nicht mehr nur ein Mensch, der aktiv rassistische Handlungen offen ausführt, sondern KI - insbesondere die KI, die wie Menschen schreibt und spricht.
Die großen Sprachmodelle, die verdeckte Formen von Rassismus perpetuieren, umfassen die vielgepriesenen ChatGPT 2.0, 3.5 und 4.0. Diese werden von den Studenten eines der Autoren verwendet, um ihre Aufgaben zu erledigen.
Verstehen Sie uns nicht falsch, große Sprachmodelle sind relevante soziale Technologien. Sie sind darauf trainiert, Texte in verschiedenen Anwendungen zu verarbeiten und zu generieren, um in Bereichen wie Gesundheitswesen, Justiz und Bildung zu helfen.
Sie konstruieren Texte, fassen Dokumente zusammen, filtern Bewerbungen und Vorschläge, fällen Urteile im Justizsystem und entscheiden, wer Gesundheitsgüter erhält.
Aber lassen Sie uns nicht von der vermeintlichen orakelhaften oder heiligen Natur großer Sprachmodelle täuschen – sie haben auch besorgniserregende Aspekte.
Eine kürzlich durchgeführte Studie mit dem Titel Dialect Prejudice Predicts AI Decisions About People’s Character, Employability and Criminality von Valentine Hofmann, Pratyusha Ria Kalluri, Dan Jurafsky und Sharese King unterstreicht, dass KI große Sprachmodelle schuldig sind, verdeckte Diskriminierung und Rassismus gegenüber Schwarzen, insbesondere Afroamerikanern und Frauen, basierend auf Sprache zu perpetuieren.
Diese großen Sprachmodelle verbinden Beschreibungen wie schmutzig, hässlich, Koch, Sicherheit und Hauspersonal mit afroamerikanischen Englischsprechern und Frauen. Diejenigen, die Standardamerikanisch sprechen, werden mit “professionelleren“ Jobs in Verbindung gebracht.
Noch schlimmer ist, dass große Sprachmodelle afroamerikanischen Englischsprechern in einem größeren Maßstab die Todesstrafe verhängen als Standardamerikanischsprechern für dasselbe Verbrechen.
Warum sind diese Fragen der algorithmischen Diskriminierung, Voreingenommenheit und des Rassismus wichtig, und warum sollten wir uns darum kümmern?
Als Südafrikaner, angesichts unserer rassischen, kulturellen und sprachlichen Vielfalt, sollten wir uns über diese Technologien Sorgen machen. Es besteht ein dringender Bedarf, KI-Systeme in nahezu jedem Bereich unserer Gesellschaft einzusetzen, von Gesundheitswesen bis Bildung und Justizsystemen.
KI-Technologien, insbesondere große Sprachmodelle, sind besonders relevant in Bereichen der Gesellschaft wie Beschäftigung und dem Justizsystem.
Allerdings sind große Sprachmodelle nicht harmlos; wie andere maschinelle Lernsysteme tragen sie menschliche Voreingenommenheit, Stereotypen und Vorurteile in den Trainingsdatensätzen. Dies führt zu Diskriminierung und Voreingenommenheit dieser Modelle entlang rassischer und geschlechtsspezifischer Linien gegenüber Minderheiten.
Der in großen Sprachmodellen eingebettete Rassismus und die Diskriminierung sind nicht so offensichtlich wie in den meisten früheren Formen von Rassismus; sie sind auf eine farbenblinde Weise verdeckt.
In einem Experiment interpretierte ein großes Sprachmodell ein schwarzes Alibi als krimineller und die Person als weniger gebildet und weniger vertrauenswürdig, wenn sie afroamerikanisches Englisch verwendeten.
Darüber hinaus weisen große Sprachmodelle afroamerikanischen Englischsprechern im Vergleich zu Standardamerikanischsprechern weniger prestigeträchtige Jobs zu.
Dies soll nichts unterstellen, aber nehmen wir an, dass von unseren 11 Sprachen in Südafrika eine als überlegen angesehen wird. In diesem Fall ist offensichtlich, dass nur diejenigen, die diese „überlegene“ Sprache sprechen, wertvoll sind, wenn es darum geht, große Sprachmodelle zu verwenden, um Entscheidungen zu treffen, die Südafrikaner betreffen.
Es ist offensichtlich geworden, durch den neuen Rassismus auf unserer Veranda, dass Rassismus nicht so bald enden wird, da er in verschiedenen Formen auf eine subtilere Weise wieder auftaucht. Angesichts der Rolle Südafrikas bei der Arbeit mit hochmodernen aufstrebenden Technologien, welche Auswirkungen haben rassistische Technologien in einem Land wie Südafrika, das bereits eine Geschichte von Rassismus und Unterdrückung hat?
Es ist unerlässlich, dass wir als Gesellschaft über die Rolle dieser Technologien bei der Förderung von Rassismus und Sexismus in unserer zeitgenössischen Epoche nachdenken und darauf hinwirken, dass diese Technologien nicht zu den neuen rassistischen und sexistischen werden. Wir müssen sicherstellen, dass wir kritisch sind gegenüber den Informationen, die uns diese Werkzeuge liefern, und darauf achten, dass dieses Orakel uns nicht gleichermaßen liebt. Es scheint, dass es eine bestimmte Rasse mehr liebt als andere und einem bestimmten Geschlecht gegenüber anderen bevorzugt.
Bis wir diese in den Technologien eingebetteten sozialen Probleme durch den Einsatz ethischer Programmierung beheben, müssen wir vorsichtig sein, wie wir sie heranziehen, um schnelle Lösungen in unseren Gesellschaften zu bieten.