Die KI-Revolution: Warum wir umdenken müssen beim Abrüsten
Die Einbindung der Tech-Community ist für Verteidigungspolitiker nicht nur „nice to have“, sondern „absolut unverzichtbar, um diese Community von Anfang an in die Gestaltung, Entwicklung und Nutzung der Rahmenbedingungen einzubeziehen, die die Sicherheit und den Schutz von KI-Systemen und -Fähigkeiten leiten werden“, sagte Gosia Loy, stellvertretende Leiterin des UN-Instituts für Abrüstungsforschung (UNIDIR).
Bei der kürzlich in Genf von UNIDIR veranstalteten Globalen Konferenz über KI-Sicherheit und Ethik betonte sie die Bedeutung der Errichtung effektiver Leitplanken, während die Welt sich durch das häufig als KI-„Oppenheimer-Moment“ bezeichnete Navigiert, in Anlehnung an Robert Oppenheimer, den US-amerikanischen Kernphysiker, der am bekanntesten für seine entscheidende Rolle bei der Entwicklung der Atombombe ist.
Eine Aufsicht ist erforderlich, damit KI-Entwicklungen die Menschenrechte, das Völkerrecht und die Ethik respektieren – insbesondere im Bereich der KI-gesteuerten Waffen – um sicherzustellen, dass diese leistungsstarken Technologien kontrolliert und verantwortungsbewusst entwickelt werden, betonte die UNIDIR-Beamtin.
KI hat bereits ein Sicherheitsdilemma für Regierungen und Militärs auf der ganzen Welt geschaffen.
Die Dual-Use-Natur von KI-Technologien – wo sie sowohl in zivilen als auch in militärischen Umgebungen eingesetzt werden können - bedeutet, dass Entwickler den Bezug zur Realität der Schlachtfeldbedingungen verlieren könnten, wo ihre Programmierung Leben kosten könnte, warnte Arnaud Valli, Leiter der Öffentlichkeitsarbeit bei Comand AI.
Die Werkzeuge befinden sich noch in den Kinderschuhen, haben aber lange Ängste genährt, dass sie verwendet werden könnten, um lebensentscheidende Entscheidungen in einem Kriegsszenario zu treffen, was die Notwendigkeit menschlicher Entscheidungsfindung und Verantwortung beseitigen würde. Daher die zunehmenden Forderungen nach Regulierung, um sicherzustellen, dass Fehler vermieden werden, die zu katastrophalen Folgen führen könnten.
„Wir sehen, dass diese Systeme die ganze Zeit versagen“, sagte David Sully, CEO des in London ansässigen Unternehmens Advai, und fügte hinzu, dass die Technologien immer noch „sehr unrobust“ seien.
„Es ist also nicht so schwierig, sie scheitern zu lassen, wie manchmal gedacht wird“, bemerkte er.
Bei Microsoft konzentrieren sich Teams auf die Kernprinzipien Sicherheit, Schutz, Inklusivität, Fairness und Rechenschaftspflicht, sagte Michael Karimian, Direktor für digitale Diplomatie.
Der von Bill Gates gegründete US-Technologieriese setzt Einschränkungen für Echtzeit-Gesichtserkennungstechnologien ein, die von Strafverfolgungsbehörden eingesetzt werden und zu geistigen oder körperlichen Schäden führen könnten, erklärte Herr Karimian.
Es müssen klare Schutzmaßnahmen getroffen und Unternehmen müssen zusammenarbeiten, um Silos abzubauen, sagte er auf der Veranstaltung in der UN in Genf.
„Innovation geschieht nicht nur innerhalb einer Organisation. Es besteht eine Verantwortung, zu teilen“, sagte Herr Karimian, dessen Unternehmen mit UNIDIR zusammenarbeitet, um sicherzustellen, dass KI mit den internationalen Menschenrechten in Einklang steht.
Ein Teil der Gleichung ist, dass die Technologien sich so schnell entwickeln, dass Länder Schwierigkeiten haben, Schritt zu halten.
„Die KI-Entwicklung übertrifft unsere Fähigkeit, ihre vielen Risiken zu managen“, sagte Sulyna Nur Abdullah, die strategische Planungschefin und Sonderberaterin des Generalsekretärs bei der Internationalen Fernmeldeunion (ITU).
„Wir müssen das Paradoxon der KI-Governance angehen und erkennen, dass die Regulierung manchmal hinter der Technologie zurückbleibt, was einen fortlaufenden Dialog zwischen politischen und technischen Experten erforderlich macht, um Werkzeuge für eine effektive Governance zu entwickeln“, sagte Frau Abdullah und fügte hinzu, dass auch Entwicklungsländer einen Platz am Tisch bekommen müssen.
Vor mehr als einem Jahrzehnt warnte der renommierte Menschenrechtsexperte Christof Heyns in einem Bericht über Lethal Autonomous Robotics (LARs) im Jahr 2013 davor, dass „die Entfernung von Menschen aus dem Prozess auch das Risiko birgt, die Menschlichkeit aus dem Prozess zu nehmen“.
Heute ist es immer noch nicht weniger schwierig, kontextabhängige rechtliche Urteile in ein Softwareprogramm zu übersetzen, und es ist immer noch entscheidend, dass „Lebens- und Todesentscheidungen von Menschen und nicht von Robotern getroffen werden“, betonte Peggy Hicks, Direktorin der Abteilung für das Recht auf Entwicklung des UN-Menschenrechtsbüros (OHCHR).
Während große Technologie- und Governance-Führer die Leitprinzipien von KI-Verteidigungssystemen weitgehend teilen, können die Ideale im Widerspruch zum Unternehmensgewinn stehen.
„Wir sind ein privates Unternehmen – wir suchen auch nach Profitabilität“, sagte Comand AI’s Herr Valli.
„Die Zuverlässigkeit des Systems ist manchmal sehr schwer zu finden“, fügte er hinzu. „Aber wenn man in diesem Sektor arbeitet, könnte die Verantwortung enorm sein, absolut enorm.“
Während viele Entwickler sich verpflichtet haben, Algorithmen zu entwerfen, die „fair, sicher, robust“ sind, gibt es keinen Fahrplan für die Umsetzung dieser Standards – und Unternehmen wissen möglicherweise nicht einmal genau, was sie erreichen wollen.
Diese Prinzipien „geben alle vor, wie die Übernahme erfolgen sollte, erklären aber nicht wirklich, wie das geschehen soll“, sagte Herr Sully und erinnerte die Politiker daran, dass „KI sich noch in den Anfängen befindet“.
Große Technologieunternehmen und Politiker müssen herauszoomen und das größere Bild betrachten.
„Was Robustheit für ein System bedeutet, ist ein unglaublich technisches, wirklich herausforderndes Ziel zu bestimmen, und es ist derzeit unbeantwortet“, fuhr er fort.
Herr Sully, der sich selbst als „großer Befürworter der Regulierung“ von KI-Systemen bezeichnete, arbeitete früher für die von den Vereinten Nationen mandatierte Organisation für das umfassende Verbot von Nuklearversuchen in Wien, die überwacht, ob Nukleartests stattfinden.
Aber die Identifizierung von KI-gesteuerten Waffen, sagt er, stellt eine ganz neue Herausforderung dar, die nukleare Waffen – mit forensischen Signaturen – nicht haben.
„Es gibt ein praktisches Problem, wie man jede Art von Regulierung auf internationaler Ebene überwacht“, sagte der CEO. „Es ist der Teil, den niemand ansprechen möchte. Aber bis das angesprochen wird… denke ich, dass das ein riesiges, riesiges Hindernis sein wird.“
Die Delegierten der UNIDIR-Konferenz bestanden auf der Notwendigkeit strategischer Voraussicht, um die Risiken der neu entstehenden Spitzentechnologien zu verstehen.
Für Mozilla, das die neue Generation von Technologen ausbildet, sollten zukünftige Entwickler “sich darüber im Klaren sein, was sie mit dieser leistungsstarken Technologie tun und was sie bauen“, betonte Herr Elias des Unternehmens.
Akademiker wie Moses B. Khanyile von der Universität Stellenbosch in Südafrika glauben, dass Universitäten auch eine „höchste Verantwortung“ haben, die Kernethikwerte zu schützen.
Die Interessen des Militärs - der beabsichtigten Nutzer dieser Technologien - und der Regierungen als Regulierungsbehörden müssen „harmonisiert“ werden, sagte Dr. Khanyile, Direktor der Forschungseinheit für Verteidigungs-Künstliche Intelligenz an der Universität Stellenbosch.
„Sie müssen die KI-Technologie als Werkzeug für das Gute betrachten und daher zu einer Kraft für das Gute werden.“
Gefragt, welche einzelne Maßnahme sie ergreifen würden, um das Vertrauen zwischen Ländern aufzubauen, äußerten sich Diplomaten aus China, den Niederlanden, Pakistan, Frankreich, Italien und Südkorea ebenfalls.
„Wir müssen eine Linie der nationalen Sicherheit in Bezug auf die Exportkontrolle von High-Tech-Technologien definieren“, sagte Shen Jian, außerordentlicher und bevollmächtigter Botschafter (Abrüstung) und stellvertretender Ständiger Vertreter der Volksrepublik China.
Zukünftige Forschungs- und Entwicklungswege für KI müssen auch andere aufkommende Bereiche wie Physik und Neurowissenschaften einschließen.
„KI ist kompliziert, aber die reale Welt ist noch komplizierter“, sagte Robert in den Bosch, Abrüstungsbotschafter und Ständiger Vertreter der Niederlande bei der Konferenz über Abrüstung. „Aus diesem Grund würde ich sagen, dass es auch wichtig ist, KI in Konvergenz mit anderen Technologien und insbesondere Cyber-, Quanten- und Weltraumtechnologien zu betrachten.“
Team
Rike – Diplom-Volkswirtin mit einem ausgeprägten Interesse an internationalen Wirtschaftsbeziehungen und gesellschaftlichen Entwicklungen.
Christian – Diplom-Finanzwirt (FH) mit fundierter Erfahrung im öffentlichen Sektor und einem Fokus auf finanzpolitische Analysen.
Obwohl wir in vielen Fragen unterschiedliche Perspektiven einnehmen, teilen wir die Überzeugung, dass ein umfassendes Verständnis globaler Ereignisse nur durch die Betrachtung vielfältiger Standpunkte möglich ist.