Perspektiven Global

Nachrichten aus aller Welt

UN

Die KI-Revolution: Warum wir umdenken müssen beim Abrüsten

Die Einbindung der Tech-Community ist für Verteidigungspolitiker nicht nur „nice to have“, sondern „absolut unverzichtbar, um diese Community ⁢von Anfang ⁤an in ⁣die ⁢Gestaltung, Entwicklung und Nutzung der Rahmenbedingungen einzubeziehen,‍ die die Sicherheit und⁢ den Schutz von KI-Systemen und -Fähigkeiten leiten werden“, sagte Gosia Loy, stellvertretende Leiterin des UN-Instituts für⁢ Abrüstungsforschung (UNIDIR).

Bei der kürzlich in Genf von UNIDIR veranstalteten ​Globalen ⁤Konferenz über ​KI-Sicherheit und Ethik⁣ betonte sie die ⁢Bedeutung der Errichtung effektiver Leitplanken,‍ während die Welt ⁣sich durch das häufig ⁤als KI-„Oppenheimer-Moment“ bezeichnete Navigiert, in Anlehnung an Robert Oppenheimer, den US-amerikanischen Kernphysiker, der am bekanntesten ⁣für seine entscheidende Rolle bei der Entwicklung der Atombombe ist.

Eine Aufsicht ‍ist erforderlich, damit KI-Entwicklungen die Menschenrechte, das Völkerrecht und die Ethik respektieren – ‌insbesondere im Bereich der KI-gesteuerten Waffen – um sicherzustellen, dass diese ⁤leistungsstarken Technologien kontrolliert und verantwortungsbewusst entwickelt werden, betonte ​die UNIDIR-Beamtin.

KI hat⁤ bereits ein Sicherheitsdilemma für Regierungen und​ Militärs auf der ​ganzen Welt geschaffen.

Die Dual-Use-Natur von​ KI-Technologien – wo sie sowohl in ⁤zivilen als auch in⁣ militärischen Umgebungen eingesetzt werden⁢ können ‍- bedeutet, dass Entwickler den Bezug zur Realität der ‌Schlachtfeldbedingungen verlieren könnten, wo‌ ihre Programmierung⁣ Leben kosten könnte, warnte Arnaud Valli, Leiter der Öffentlichkeitsarbeit bei Comand⁢ AI.

Die Werkzeuge befinden sich noch in den Kinderschuhen, haben aber lange Ängste genährt, dass sie verwendet werden könnten, um lebensentscheidende ⁤Entscheidungen in einem Kriegsszenario⁣ zu treffen, was ⁤die​ Notwendigkeit menschlicher‌ Entscheidungsfindung⁢ und Verantwortung⁢ beseitigen ⁤würde. Daher die ​zunehmenden Forderungen nach‌ Regulierung, um sicherzustellen, dass‌ Fehler vermieden werden, die zu ⁢katastrophalen Folgen führen könnten.

„Wir sehen, dass⁢ diese Systeme die ganze Zeit versagen“, sagte David Sully, CEO des in⁣ London​ ansässigen Unternehmens Advai, und fügte hinzu, dass die Technologien immer‌ noch „sehr unrobust“ seien.

„Es ist also ⁢nicht so⁢ schwierig, sie scheitern zu lassen, wie manchmal gedacht​ wird“, bemerkte er.

Bei Microsoft konzentrieren sich Teams auf die Kernprinzipien Sicherheit, Schutz, Inklusivität, Fairness und Rechenschaftspflicht, sagte ⁢Michael Karimian,‍ Direktor ⁢für digitale Diplomatie.

Der‍ von Bill Gates gegründete US-Technologieriese setzt Einschränkungen​ für Echtzeit-Gesichtserkennungstechnologien ein, ‍die ⁤von Strafverfolgungsbehörden eingesetzt werden und ⁢zu geistigen oder körperlichen Schäden führen könnten, ⁢erklärte Herr Karimian.

Es⁣ müssen klare Schutzmaßnahmen getroffen und Unternehmen müssen ​zusammenarbeiten, um Silos abzubauen, sagte ⁣er auf der Veranstaltung in der ⁢UN in Genf.

„Innovation geschieht nicht⁤ nur innerhalb einer Organisation. Es besteht eine‍ Verantwortung, zu teilen“, sagte ​Herr ⁣Karimian, dessen Unternehmen mit UNIDIR zusammenarbeitet, um sicherzustellen, dass KI mit ​den internationalen Menschenrechten in Einklang⁢ steht.

Ein Teil der Gleichung ist, ⁤dass die Technologien ‍sich so schnell entwickeln, dass Länder ​Schwierigkeiten haben, Schritt zu halten.

„Die KI-Entwicklung übertrifft unsere Fähigkeit,​ ihre vielen⁣ Risiken ⁣zu managen“, sagte⁢ Sulyna Nur⁤ Abdullah, die strategische Planungschefin und Sonderberaterin des Generalsekretärs bei der⁢ Internationalen‍ Fernmeldeunion ⁤(ITU).

„Wir ⁣müssen⁢ das Paradoxon der KI-Governance angehen und erkennen, ⁢dass die ⁢Regulierung manchmal hinter der Technologie zurückbleibt, was einen fortlaufenden Dialog zwischen politischen und technischen Experten erforderlich macht, um Werkzeuge ‍für eine effektive Governance zu entwickeln“, sagte Frau⁤ Abdullah und fügte hinzu, dass ⁢auch Entwicklungsländer einen Platz am Tisch bekommen⁤ müssen.

Vor mehr als ⁢einem Jahrzehnt warnte der renommierte Menschenrechtsexperte Christof Heyns‍ in ⁤einem ⁣Bericht über ‌Lethal Autonomous Robotics⁢ (LARs) im Jahr 2013⁢ davor, dass „die Entfernung von Menschen aus⁣ dem ⁢Prozess auch das Risiko birgt, die Menschlichkeit aus dem Prozess ​zu ‌nehmen“.

Heute ist es immer noch ‌nicht⁢ weniger schwierig, ‍kontextabhängige rechtliche Urteile in ein Softwareprogramm zu⁢ übersetzen, und es ⁢ist immer noch ⁤entscheidend, dass⁤ „Lebens- und‌ Todesentscheidungen ‍von Menschen und nicht von ‌Robotern getroffen werden“, betonte Peggy Hicks,⁣ Direktorin der Abteilung für das Recht auf Entwicklung des UN-Menschenrechtsbüros (OHCHR).

Während große Technologie- und Governance-Führer die Leitprinzipien von KI-Verteidigungssystemen ‌weitgehend teilen, können⁢ die Ideale im⁣ Widerspruch zum​ Unternehmensgewinn‍ stehen.

„Wir sind ein‌ privates Unternehmen – ‍wir⁣ suchen auch nach Profitabilität“, sagte Comand AI’s Herr ⁣Valli.

„Die Zuverlässigkeit des Systems ist manchmal sehr schwer zu ⁣finden“,⁣ fügte er hinzu. „Aber wenn man in ⁣diesem⁢ Sektor arbeitet, könnte die⁢ Verantwortung enorm sein, absolut enorm.“

lies auch:  WHO schickt eine Million Polio-Impfstoffe nach Gaza, um Kinder zu schützen

Während viele Entwickler sich verpflichtet haben, Algorithmen zu entwerfen, die „fair, sicher, robust“ sind, gibt ⁤es keinen Fahrplan für die Umsetzung dieser Standards – und‍ Unternehmen wissen möglicherweise nicht einmal genau, was sie erreichen‌ wollen.

Diese Prinzipien „geben alle vor,⁢ wie die ⁣Übernahme erfolgen sollte,​ erklären aber nicht wirklich, wie‌ das geschehen soll“, sagte Herr Sully ⁣und erinnerte ⁢die ​Politiker daran, dass „KI sich noch in den Anfängen​ befindet“.

Große Technologieunternehmen und Politiker müssen herauszoomen und das größere Bild betrachten.

„Was Robustheit für ein System bedeutet, ist ein unglaublich technisches, wirklich herausforderndes Ziel zu ‍bestimmen, und es ist derzeit unbeantwortet“, fuhr‌ er fort.

Herr Sully, der sich⁣ selbst als „großer Befürworter der Regulierung“ von KI-Systemen bezeichnete, arbeitete früher für die von den ​Vereinten Nationen mandatierte Organisation für das umfassende Verbot​ von Nuklearversuchen in Wien, die überwacht, ob ‌Nukleartests stattfinden.

Aber die Identifizierung von‌ KI-gesteuerten Waffen, ​sagt er, stellt eine ganz neue Herausforderung dar, die nukleare Waffen – mit ‌forensischen Signaturen – ​nicht haben.

„Es⁢ gibt ein praktisches Problem, wie man jede Art von Regulierung auf internationaler Ebene überwacht“, ⁣sagte ‍der⁤ CEO. „Es ist der Teil, den niemand ansprechen möchte. Aber⁤ bis das angesprochen wird…‍ denke⁢ ich, dass das ein riesiges,‌ riesiges Hindernis ⁣sein wird.“

Die Delegierten der ‍UNIDIR-Konferenz bestanden⁢ auf der Notwendigkeit strategischer Voraussicht,‍ um die ⁢Risiken der neu entstehenden Spitzentechnologien zu verstehen.

Für Mozilla,‌ das die neue Generation von Technologen ausbildet, sollten⁢ zukünftige Entwickler ‍“sich darüber im Klaren sein, ‍was sie mit ‌dieser leistungsstarken Technologie tun und was sie bauen“, betonte Herr Elias des Unternehmens.

Akademiker wie ‌Moses B. Khanyile von ⁣der Universität Stellenbosch​ in Südafrika glauben, dass Universitäten auch eine „höchste Verantwortung“⁢ haben, die Kernethikwerte zu schützen.

Die⁢ Interessen ‌des Militärs ​- der beabsichtigten Nutzer dieser Technologien ⁤- und​ der Regierungen als Regulierungsbehörden müssen „harmonisiert“ werden,​ sagte Dr. Khanyile, Direktor‍ der Forschungseinheit ‌für Verteidigungs-Künstliche⁢ Intelligenz an der Universität ⁤Stellenbosch.

„Sie müssen die ⁣KI-Technologie als Werkzeug für das Gute betrachten und‌ daher zu einer Kraft‍ für das Gute werden.“

Gefragt,‍ welche einzelne Maßnahme sie ergreifen würden,⁤ um ​das Vertrauen zwischen ‌Ländern aufzubauen,‍ äußerten ​sich Diplomaten ⁤aus China, den Niederlanden, Pakistan, Frankreich, Italien und Südkorea ebenfalls.

„Wir müssen eine Linie der nationalen Sicherheit in Bezug ‌auf die Exportkontrolle von High-Tech-Technologien definieren“, sagte Shen Jian, außerordentlicher und⁤ bevollmächtigter Botschafter (Abrüstung) und stellvertretender‌ Ständiger Vertreter der‍ Volksrepublik China.

Zukünftige Forschungs- und ⁣Entwicklungswege für KI müssen auch andere aufkommende Bereiche wie⁤ Physik und Neurowissenschaften einschließen.

„KI ist kompliziert, aber die reale Welt ist noch komplizierter“, sagte Robert in ​den Bosch, Abrüstungsbotschafter und Ständiger Vertreter der Niederlande bei der Konferenz über Abrüstung. „Aus‍ diesem Grund würde ich sagen, dass es auch wichtig ist, KI in Konvergenz mit‌ anderen Technologien und insbesondere Cyber-, ⁣Quanten- und‍ Weltraumtechnologien zu betrachten.“

Team

Rike – Diplom-Volkswirtin mit einem ausgeprägten Interesse an internationalen Wirtschaftsbeziehungen und gesellschaftlichen Entwicklungen.
Christian – Diplom-Finanzwirt (FH) mit fundierter Erfahrung im öffentlichen Sektor und einem Fokus auf finanzpolitische Analysen.

Obwohl wir in vielen Fragen unterschiedliche Perspektiven einnehmen, teilen wir die Überzeugung, dass ein umfassendes Verständnis globaler Ereignisse nur durch die Betrachtung vielfältiger Standpunkte möglich ist.

Team

Rike – Diplom-Volkswirtin mit einem ausgeprägten Interesse an internationalen Wirtschaftsbeziehungen und gesellschaftlichen Entwicklungen. Christian – Diplom-Finanzwirt (FH) mit fundierter Erfahrung im öffentlichen Sektor und einem Fokus auf finanzpolitische Analysen. Obwohl wir in vielen Fragen unterschiedliche Perspektiven einnehmen, teilen wir die Überzeugung, dass ein umfassendes Verständnis globaler Ereignisse nur durch die Betrachtung vielfältiger Standpunkte möglich ist.