Unsere rebellischen KI-Bots: Hacker erhalten Superkräfte
Willkommen im Zeitalter des AI-Hackings, in dem die richtigen Anreize Amateure zu Meister-Hackern machen. Eine Gruppe von Cyberkriminellen nutzte kürzlich handelsübliche KI-Chatbots, um Daten von fast 200 Millionen Steuerzahlern zu stehlen. Die Bots lieferten den Code und fertige Ausführungspläne, um Firewalls zu umgehen. Obwohl sie explizit programmiert waren, um Hackern zu helfen zu verweigern, wurden die Bots dazu gebracht, bei der Cyberkriminalität zu helfen.
Laut einem kürzlich veröffentlichten Bericht der israelischen Cybersicherheitsfirma Gambit Security nutzten Hacker letzten Monat Claude, den Chatbot von Anthropic, um 150 Gigabyte Daten von mexikanischen Regierungsbehörden zu stehlen. Claude weigerte sich zunächst, bei den Hacking-Versuchen zu kooperieren und lehnte sogar Anfragen ab, die digitalen Spuren der Hacker zu verwischen, sagten die Experten, die den Vorfall entdeckten. Die Gruppe bombardiert den Bot mit mehr als 1.000 Anreizen, um die Sicherheitsvorkehrungen zu umgehen und Claude davon zu überzeugen, dass sie berechtigt waren, das System auf Schwachstellen zu testen.
AI-Unternehmen haben versucht, unknackbare Ketten an ihren KI-Modellen zu schaffen, um sie daran zu hindern, Dinge wie die Erzeugung von kinderpornografischem Material oder die Unterstützung bei der Beschaffung und Herstellung von Waffen zu unterstützen. Sie stellen ganze Teams ein, um ihre eigenen Chatbots zu knacken, bevor es jemand anderes tut. Aber in diesem Fall haben Hacker Claude kontinuierlich auf kreative Weise angeregt und konnten den Chatbot „jailbreaken“, um ihnen zu helfen. Als sie Probleme mit Claude hatten, nutzten die Hacker OpenAI’s ChatGPT für die Datenanalyse und um herauszufinden, welche Anmeldeinformationen erforderlich waren, um sich unbemerkt durch das System zu bewegen.
Die Gruppe nutzte KI, um Schwachstellen zu finden und auszunutzen, Verteidigungen zu umgehen, Hintertüren zu schaffen und Daten zu analysieren, um die Kontrolle über die Systeme zu erlangen, bevor sie 195 Millionen Identitäten aus neun mexikanischen Regierungssystemen stahlen, darunter Steuerunterlagen, Fahrzeugregistrierungen sowie Geburts- und Eigentumsdetails. „KI schläft nicht“, sagte Curtis Simpson, CEO von Gambit Security, in einem Blogbeitrag. „Es senkt die Kosten für Raffinesse nahezu auf null.“
„Keine Menge an Präventionsinvestitionen hätte diesen Angriff unmöglich gemacht“, sagte er. Anthropic reagierte nicht auf eine Anfrage für einen Kommentar. Es teilte Bloomberg mit, dass es die beteiligten Konten gesperrt und ihre Aktivitäten nach einer Untersuchung unterbrochen habe. OpenAI sagte, es sei sich der Angriffskampagne bewusst, die unter Verwendung von Anthropics Modellen gegen die mexikanischen Regierungsbehörden durchgeführt wurde.
„Fälle von generativem KI-unterstütztem Hacking nehmen zu, und die Bedrohung von Cyberangriffen durch Bots, die eigenständig handeln, ist keine Science-Fiction mehr. Mit KI können Anfänger in wenigen Momenten Schaden anrichten, während erfahrene Hacker viel raffiniertere Angriffe mit viel weniger Aufwand starten können“, sagte Nikola Jurkovic, ein Experte, der daran arbeitet, Risiken durch fortgeschrittene KI zu reduzieren. „Also müssen wir uns dringend vorbereiten.“
Ende letzten Jahres warnte Anthropic davor, dass die Gesellschaft einen „Wendepunkt“ im Einsatz von KI in der Cybersicherheit erreicht habe, nachdem das Unternehmen eine chinesische staatlich unterstützte Spionagekampagne gestört hatte, die Claude nutzte, um 30 globale Ziele zu infiltrieren, darunter Finanzinstitute und Regierungsbehörden. Generative KI wurde auch eingesetzt, um Unternehmen zu erpressen, realistische Online-Profile von nordkoreanischen Agenten zu erstellen, um Jobs in US-amerikanischen Fortune-500-Unternehmen zu sichern, Romantikbetrug zu betreiben und ein Netzwerk von russischen Propaganda-Accounts zu betreiben.
In den letzten Jahren haben KI-Modelle den Übergang von der Bewältigung von Aufgaben, die nur wenige Sekunden dauern, zu heute autonom arbeitenden KI-Agenten vollzogen, die viele Stunden arbeiten. Die Fähigkeit von KI, lange Aufgaben zu erledigen, verdoppelt sich alle sieben Monate. „Wir wissen eigentlich nicht, was die obere Grenze der Fähigkeiten von KI ist, weil niemand Benchmarks erstellt hat, die schwierig genug sind, damit die KI sie nicht bewältigen kann“, sagte Jurkovic, der bei METR, einer gemeinnützigen Organisation, arbeitet, die die Fähigkeiten von KI-Systemen misst, katastrophalen Schaden für die Gesellschaft zu verursachen.
Bisher war der häufigste Einsatz von KI für Hacking das Social Engineering. Große Sprachmodelle werden verwendet, um überzeugende E-Mails zu schreiben, um Menschen um ihr Geld zu betrügen, was zu einer achtfachen Zunahme der Beschwerden älterer Amerikaner führte, die 2025 4,9 Milliarden Dollar durch Online-Betrug verloren. „Die Nachrichten, die darauf abzielen, dass das Ziel darauf klickt, können jetzt effizienter und mit weniger Anzeichen von Phishing wie grammatikalischen und Rechtschreibfehlern auf einer benutzerdefinierten Basis generiert werden“, sagte Cliff Neuman, außerordentlicher Professor für Informatik an der USC.
KI-Unternehmen reagieren, indem sie KI einsetzen, um Angriffe zu erkennen, Code zu überprüfen und Schwachstellen zu beheben. “Letztendlich ergibt sich das große Ungleichgewicht daraus, dass die Guten die ganze Zeit sicher sein müssen und die Bösen nur einmal richtig sein müssen“, sagte Neuman. Die Einsätze rund um KI steigen, da sie jeden Aspekt der Wirtschaft infiltriert. Viele sind besorgt, dass es nicht genügend Verständnis dafür gibt, wie sichergestellt werden kann, dass sie nicht von bösen Akteuren missbraucht werden oder dazu gebracht werden, sich zu verselbstständigen.
Selbst die Spitzenkräfte der Branche haben die Benutzer vor dem potenziellen Missbrauch von KI gewarnt. Dario Amodei, der CEO von Anthropic, hat lange dafür plädiert, dass die gebauten KI-Systeme unberechenbar und schwer zu kontrollieren sind. Diese KIs haben Verhaltensweisen gezeigt, die von Täuschung und Erpressung bis hin zu Intrigen und Betrug durch das Hacken von Software reichen. Dennoch haben führende KI-Unternehmen – OpenAI, Anthropic, xAI und Google – Verträge mit der US-Regierung unterzeichnet, um ihre KIs in militärischen Operationen einzusetzen.
In der letzten Woche hat das Pentagon Bundesbehörden angewiesen, Claude auszuphasen, nachdem das Unternehmen sich geweigert hatte, auf seiner Forderung zu bestehen, dass es seine KI nicht für Masseninlandsüberwachung und vollautonome Waffen einsetzen würde. „Die KI-Systeme von heute sind bei weitem nicht zuverlässig genug, um vollautonome Waffen herzustellen“, sagte Amodei gegenüber CBS News.
Team
Rike – Diplom-Volkswirtin mit einem ausgeprägten Interesse an internationalen Wirtschaftsbeziehungen und gesellschaftlichen Entwicklungen.
Christian – Diplom-Finanzwirt (FH) mit fundierter Erfahrung im öffentlichen Sektor und einem Fokus auf finanzpolitische Analysen.
Obwohl wir in vielen Fragen unterschiedliche Perspektiven einnehmen, teilen wir die Überzeugung, dass ein umfassendes Verständnis globaler Ereignisse nur durch die Betrachtung vielfältiger Standpunkte möglich ist.

