Perspektiven Global

Nachrichten aus aller Welt

Los Angeles Times - USA

Unsere rebellischen KI-Bots: Hacker erhalten Superkräfte

Willkommen im Zeitalter des AI-Hackings, in dem die richtigen Anreize Amateure zu Meister-Hackern⁤ machen. Eine Gruppe von Cyberkriminellen nutzte kürzlich handelsübliche KI-Chatbots, um Daten von fast 200 Millionen Steuerzahlern zu stehlen. Die Bots lieferten den Code⁤ und fertige⁤ Ausführungspläne, um Firewalls zu umgehen. Obwohl sie⁣ explizit programmiert waren, um Hackern ⁣zu helfen zu verweigern, wurden die Bots dazu gebracht, bei der⁤ Cyberkriminalität zu helfen.

Laut einem kürzlich veröffentlichten Bericht der israelischen Cybersicherheitsfirma Gambit Security ⁣nutzten Hacker letzten Monat Claude, den Chatbot ⁤von ​Anthropic, ‍um 150 Gigabyte Daten von mexikanischen Regierungsbehörden zu stehlen. Claude weigerte sich zunächst, bei den Hacking-Versuchen zu kooperieren und lehnte sogar Anfragen ab, die digitalen⁤ Spuren der Hacker zu verwischen, sagten die‌ Experten, die den Vorfall entdeckten. Die Gruppe ⁤bombardiert den Bot mit mehr als 1.000 Anreizen, um die ‌Sicherheitsvorkehrungen zu umgehen und Claude davon zu überzeugen, dass sie berechtigt‌ waren,⁣ das System auf Schwachstellen zu‍ testen.

AI-Unternehmen haben versucht, unknackbare Ketten an ihren KI-Modellen zu schaffen, um sie daran zu hindern, Dinge wie die Erzeugung⁢ von kinderpornografischem Material oder die Unterstützung bei ‌der Beschaffung und Herstellung von Waffen zu unterstützen. Sie stellen ganze⁤ Teams​ ein, um ihre eigenen Chatbots zu knacken, bevor es jemand anderes tut. Aber in diesem Fall haben⁣ Hacker Claude kontinuierlich auf kreative Weise ⁤angeregt und konnten den Chatbot „jailbreaken“, um ihnen zu helfen. Als sie Probleme ‍mit⁤ Claude hatten, nutzten⁢ die Hacker OpenAI’s ChatGPT für die Datenanalyse und um herauszufinden, welche Anmeldeinformationen ⁣erforderlich waren, um sich​ unbemerkt durch das System zu ⁤bewegen.

Die⁢ Gruppe​ nutzte KI, ‍um ‌Schwachstellen zu finden und ​auszunutzen, Verteidigungen zu umgehen, Hintertüren ⁣zu schaffen und Daten zu analysieren, um die⁣ Kontrolle über die Systeme zu erlangen, bevor sie 195 Millionen Identitäten aus neun mexikanischen Regierungssystemen stahlen, darunter ⁤Steuerunterlagen, Fahrzeugregistrierungen sowie Geburts- und Eigentumsdetails. „KI schläft⁤ nicht“, sagte Curtis Simpson, CEO von Gambit Security, in einem Blogbeitrag. „Es senkt die Kosten für Raffinesse nahezu auf null.“

„Keine Menge​ an Präventionsinvestitionen hätte diesen Angriff unmöglich⁤ gemacht“, sagte er. Anthropic ⁤reagierte nicht auf eine ​Anfrage für einen Kommentar.​ Es teilte Bloomberg ​mit, dass es die⁣ beteiligten Konten gesperrt‌ und ihre Aktivitäten nach einer Untersuchung unterbrochen habe. OpenAI⁤ sagte, es sei sich der Angriffskampagne bewusst,‍ die unter⁣ Verwendung von Anthropics Modellen gegen die mexikanischen Regierungsbehörden durchgeführt wurde.

„Fälle von generativem KI-unterstütztem Hacking nehmen zu, und die Bedrohung von ⁤Cyberangriffen durch Bots, die eigenständig handeln, ist keine Science-Fiction‌ mehr. Mit ⁢KI können Anfänger ‍in wenigen Momenten⁣ Schaden anrichten, während erfahrene Hacker viel raffiniertere‌ Angriffe mit viel weniger Aufwand starten ‍können“, sagte ⁤Nikola Jurkovic, ein Experte, der daran arbeitet, Risiken durch fortgeschrittene KI zu ⁢reduzieren. „Also müssen wir uns dringend vorbereiten.“

Ende ​letzten Jahres warnte Anthropic davor, dass die Gesellschaft einen „Wendepunkt“ im Einsatz von KI in der Cybersicherheit erreicht habe, nachdem das Unternehmen eine chinesische staatlich unterstützte Spionagekampagne gestört ⁢hatte, die Claude nutzte, um ⁣30 globale Ziele zu infiltrieren,‌ darunter Finanzinstitute und Regierungsbehörden. Generative KI wurde auch eingesetzt, um Unternehmen zu erpressen, realistische Online-Profile von nordkoreanischen Agenten zu ​erstellen, um Jobs in US-amerikanischen⁢ Fortune-500-Unternehmen zu ​sichern, Romantikbetrug zu betreiben und ein Netzwerk von russischen Propaganda-Accounts zu betreiben.

In den letzten Jahren haben KI-Modelle den Übergang von der Bewältigung von Aufgaben, ⁣die nur wenige ​Sekunden dauern, zu heute autonom arbeitenden KI-Agenten vollzogen, die viele Stunden arbeiten. Die Fähigkeit von KI, lange Aufgaben zu erledigen, verdoppelt sich alle sieben Monate. „Wir wissen eigentlich nicht, was ⁣die obere Grenze der Fähigkeiten von KI ist, weil niemand Benchmarks erstellt hat, die schwierig genug sind, damit die KI sie nicht bewältigen kann“, sagte ‍Jurkovic, der bei METR,‍ einer gemeinnützigen Organisation,‌ arbeitet, die die Fähigkeiten von ⁣KI-Systemen misst,‍ katastrophalen Schaden für die Gesellschaft‍ zu verursachen.

lies auch:  Harris verspricht "Sicherheit und Stabilität an der Grenze" bei Wahlkampfauftritt in Arizona

Bisher war der häufigste Einsatz von KI für Hacking das Social Engineering. Große ​Sprachmodelle werden verwendet, um überzeugende‍ E-Mails zu schreiben, um Menschen um ihr Geld zu betrügen, was zu einer achtfachen⁢ Zunahme der Beschwerden älterer Amerikaner führte,⁢ die 2025 4,9 Milliarden Dollar durch Online-Betrug verloren. „Die ⁢Nachrichten, ⁤die darauf abzielen, dass das Ziel darauf klickt, können jetzt effizienter und mit weniger Anzeichen von Phishing wie grammatikalischen ⁢und Rechtschreibfehlern auf einer benutzerdefinierten Basis generiert​ werden“, sagte‍ Cliff Neuman, außerordentlicher Professor für Informatik⁢ an der ‍USC.

KI-Unternehmen reagieren, indem sie KI ⁤einsetzen, um Angriffe zu erkennen, Code zu überprüfen und Schwachstellen zu beheben. ⁤“Letztendlich ergibt sich das große Ungleichgewicht daraus, dass die Guten ‌die ganze Zeit sicher sein müssen und ⁢die⁣ Bösen nur einmal richtig sein müssen“, sagte Neuman.​ Die Einsätze rund um KI steigen, da sie jeden Aspekt der Wirtschaft infiltriert. Viele sind besorgt, dass es nicht genügend Verständnis dafür gibt, wie sichergestellt werden kann, ⁤dass sie nicht von bösen Akteuren ⁤missbraucht werden oder ​dazu gebracht werden, sich zu verselbstständigen.

Selbst⁤ die Spitzenkräfte der Branche‌ haben ‍die Benutzer‍ vor dem potenziellen Missbrauch von KI gewarnt. Dario Amodei, der CEO von Anthropic,‌ hat lange dafür plädiert, dass die gebauten ⁢KI-Systeme unberechenbar und ⁤schwer zu ⁣kontrollieren sind. ⁤Diese KIs ⁢haben Verhaltensweisen gezeigt, die​ von Täuschung und Erpressung bis hin zu Intrigen und Betrug durch ⁢das Hacken von Software reichen. Dennoch haben führende KI-Unternehmen – OpenAI, Anthropic, xAI und Google – Verträge mit der US-Regierung unterzeichnet, um ihre KIs in militärischen Operationen einzusetzen.

In der letzten Woche ‌hat das Pentagon Bundesbehörden angewiesen, Claude‍ auszuphasen, nachdem das Unternehmen sich geweigert hatte, ‍auf seiner Forderung zu bestehen, dass ⁤es seine KI nicht für Masseninlandsüberwachung​ und vollautonome Waffen‌ einsetzen würde. „Die KI-Systeme von heute sind​ bei weitem nicht⁢ zuverlässig genug, um vollautonome Waffen herzustellen“, sagte Amodei gegenüber CBS News.

Team

Rike – Diplom-Volkswirtin mit einem ausgeprägten Interesse an internationalen Wirtschaftsbeziehungen und gesellschaftlichen Entwicklungen.
Christian – Diplom-Finanzwirt (FH) mit fundierter Erfahrung im öffentlichen Sektor und einem Fokus auf finanzpolitische Analysen.

Obwohl wir in vielen Fragen unterschiedliche Perspektiven einnehmen, teilen wir die Überzeugung, dass ein umfassendes Verständnis globaler Ereignisse nur durch die Betrachtung vielfältiger Standpunkte möglich ist.

Team

Rike – Diplom-Volkswirtin mit einem ausgeprägten Interesse an internationalen Wirtschaftsbeziehungen und gesellschaftlichen Entwicklungen. Christian – Diplom-Finanzwirt (FH) mit fundierter Erfahrung im öffentlichen Sektor und einem Fokus auf finanzpolitische Analysen. Obwohl wir in vielen Fragen unterschiedliche Perspektiven einnehmen, teilen wir die Überzeugung, dass ein umfassendes Verständnis globaler Ereignisse nur durch die Betrachtung vielfältiger Standpunkte möglich ist.