KI-Firma packt aus: Dafür wird ihre Software wirklich benutzt

1 Min

Experten warnen schon seit Jahren, dass Künstliche Intelligenz einen Schub bei Cyberangriffen bringen kann. Eine KI-Firma legt nun offen, wie ihr Chatbot ausgiebig dafür missbraucht wurde.

Online-Kriminelle haben durch Künstliche Intelligenz ein mächtiges neues Werkzeug erhalten. So wurde der KI-Chatbot Claude der Entwicklerfirma Anthropic bereits eingesetzt, um in Netzwerke einzudringen, Daten zu stehlen und sie zu analysieren. Zudem hätten die Angreifer die Software genutzt, um "psychologisch zielgerichtete" Erpressungsnachrichten an die Opfer zu verfassen, berichtete Anthropic. Der Angreifer habe damit gedroht, gestohlene Informationen zu veröffentlichen, und teilweise mehr als 500.000 Dollar von den Betroffenen gefordert.

Ziel der automatisierten Angriffe seien allein im vergangenen Monat 17 Unternehmen und Organisationen aus Bereichen wie Gesundheitswesen, Regierung und Religion gewesen, hieß es. Claude habe dabei beispielsweise nach Schwachstellen gesucht sowie bei der Entscheidung geholfen, wie ein Netzwerk am effektivsten angegriffen werden kann und welche Daten entwendet werden sollten.

Nordkoreaner machten Homeoffice für US-Firmen

Normalerweise hätte man für eine solche Aktion ein Team aus Spezialisten benötigt, sagte der zuständige Anthropic-Manager Jacob Klein dem Tech-Blog The Verge. Nun könne das eine Person mithilfe Künstlicher Intelligenz bewerkstelligen. Neuere KI-Systeme können auch als "Agenten" im Auftrag von Nutzern agieren und weitgehend eigenständig Aufgaben für diese erledigen.

Immer aktuell: Die Amazon-Bestseller im Bereich Laptops & Notebooks*

Anthropic listete in einem ausführlichen Bericht auch weitere Fälle auf, in denen Claude für Online-Kriminalität missbraucht wurde. So sei der Chatbot zum Einsatz gekommen, als sich Nordkoreaner Homeoffice-Jobs als Programmierer in US-Unternehmen erschlichen, um Geld für die Regierung zu beschaffen.

Sie hätten sich dabei auf die KI-Software verlassen, um mit ihren Arbeitgebern zu kommunizieren - und auch um ihre Aufgaben zu erledigen. Dabei hätten sie offenbar nicht genug Ahnung von Software-Entwicklung gehabt, um den Job ohne Hilfe von Claude auszuüben, stellte Anthropic fest. Früher habe Nordkorea dafür jahrelang Fachleute ausgebildet. "Aber durch KI fiel diese Einschränkung weg."

Betrug aus dem Chatbot

Außerdem entwickelten Cyberkriminelle mit Hilfe von Claude Betrugsmaschen, die sie im Netz zum Kauf anboten. Dazu gehörte laut Anthropic ein Bot für die Plattform Telegram zum Beziehungsbetrug - wobei den Opfern etwa eine romantische Verbindung vorgegaukelt wird, um Geld von ihnen zu ergaunern. Damit könne man Chats "mit hoher emotionaler Intelligenz" in verschiedenen Sprachen führen, hieß es.

Man habe zwar ausgeklügelte Maßnahmen gegen einen Missbrauch der KI-Software im Einsatz, betonte Anthropic. Online-Angreifer versuchten aber immer wieder, sie zu umgehen. Mit der Erfahrung aus den analysierten Fällen solle der Schutz verbessert werden.

Dieser Artikel enthält Angebote und wie wir künstliche Intelligenz einsetzen 
Vorschaubild: © Nicolas Armer/dpa