Mit künstlicher Intelligenz können Stimmen inzwischen ganz leicht imitiert werden. Eine altbekannte Betrugsmasche wird dadurch noch gefährlicher.
Betrüger finden immer wieder neue Wege, um an persönliche Daten und das Geld ihrer Opfer zu gelangen. Seit wenigen Jahren kommt dabei auch künstliche Intelligenz (KI) zum Einsatz. Verbraucherschützer warnen besonders vor einer alten Masche, die mit KI-Technik noch gefährlicher geworden ist: der Enkeltrick.
Betrüger nutzen die Masche schon lange. Sie geben sich als Familienmitglieder unter einer neuen Nummer aus, die in einer misslichen Lage sind und dringend Geld brauchen. Meist läuft das Ganze über SMS oder WhatsApp ab, doch auch mit Schockanrufen versuchen Kriminelle ihr Glück, vor allem bei älteren Menschen. Und genau das wird zunehmend zum Problem, denn mithilfe von KI kann die Stimme einer Person einfach imitiert werden. Der Betrug lässt sich dadurch noch schwerer durchschauen.
Enkeltrick wird noch fieser: Wie erkenne ich, ob eine Stimme "geklont" wurde?
"Wahrscheinlich hat jeder schon mal von dem Enkeltrick gehört, aber wenn nun wirklich die 'echte Stimme' des Enkels anruft, kann das deutlich überzeugender sein", sagte Kriminalanalyst Mark Thorben Hofmann im Gespräch mit dem Magazin "Stern". Für das sogenannte "voice cloning", zu Deutsch "Stimmen-Klonen", benötigen die Betrüger nur wenige Sekunden Audio-Material. Jeder, der schon mal ein Video auf Facebook, Instagram oder TikTok gepostet hat, wird damit zum potenziellen Opfer eines solchen Deepfakes.
"Die Qualität ist so gut, dass selbst Ehepartner oder Familienmitglieder es nicht erkennen würden", warnt Hofmann. Selbst Sicherheitsexperten haben Schwierigkeiten, die KI-Stimmen zu durchschauen, wie der Fall eines Microsoft-Beraters zeigte. Es gibt aber einige Anzeichen und Tricks, die KI zu entlarven:
Nummer prüfen: Eine bekannte Person ruft unter neuer Nummer an? Die Verbraucherzentrale Bremen empfiehlt im Zweifel aufzulegen und den vermeintlichen Anrufer unter der altbekannten Nummer zurückzurufen.
Genau hinhören: Kommt es zu Pausen oder anderen unnatürlichen Sprechmustern? Die KI ist nicht perfekt, so die Verbraucherzentrale, es kann also zu Lücken im Gespräch kommen.
Fragen stellen: "Ihre Stimme kann gestohlen werden, ihr Wissen nicht", sagt Kriminalanalyst Hofmann. Wenn du wissen willst, wer dich wirklich anruft, stelle Fragen, die nur diese Person beantworten kann.
Codewort festlegen: Spreche mit Familie und Freunden über die potenzielle Gefahr. Experten wie Hofmann und Michael Zerna raten sogar dazu, ein Codewort festzulegen. Klingt ein Anruf verdächtig, kannst du dies abfragen, sozusagen als Verifzierungsverfahren.
Misstrauisch bleiben: Die Betrüger setzen auf Emotion und Zeitdruck, um dich zum Handeln zu zwingen. Sobald es darum geht, Geld zu überweisen oder persönliche Daten wie Passwörter herauszugeben, sollten bei dir die Alarmglocken klingeln. Bewahre Ruhe und lege im Zweifelsfall auf.
Gefälschte Stimmen nur der Anfang: Betrug mit KI nimmt weltweit zu
Insgesamt würde die Zahl der Betrugsversuche mittels KI zunehmen, bestätigt auch Michael Zerna, Software-Ingenieur und KI-Berater, dem Portal "CHIP". "Laut FBI und verschiedenen Verbraucherschutzorganisationen werden KI-Technologien wie Deepfakes und Voice Cloning immer häufiger für Erpressung, den "Großeltern-Betrug" und für hochentwickelte Social-Engineering-Angriffe gegen Unternehmen verwendet."
Weltweit haben bereits 25 Prozent der Menschen einen Betrugsanruf mit geklonten KI-Stimmen selbst erlebt oder kennen ein Opfer. Das geht aus einer Umfrage des Software-Unternehmens McAfee hervor. Eine weitere erschreckende Erkenntnis: 35 Prozent der Befragten könnten nicht erkennen, ob die Stimme echt sei oder nicht. Weitere 35 Prozent hatten keine Ahnung, ob sie das überhaupt beurteilen könnten.