Enkeltrick und Schockanrufe: Mit einer Frage entlarvst du KI-Stimmen
Autor: Lea Mitulla
Deutschland, Donnerstag, 30. Oktober 2025
Mit künstlicher Intelligenz können Stimmen inzwischen ganz leicht imitiert werden. Eine altbekannte Betrugsmasche wird dadurch noch gefährlicher.
           
Betrüger finden immer wieder neue Wege, um an persönliche Daten und das Geld ihrer Opfer zu gelangen. Seit wenigen Jahren kommt dabei auch künstliche Intelligenz (KI) zum Einsatz. Verbraucherschützer warnen besonders vor einer alten Masche, die mit KI-Technik noch gefährlicher geworden ist: der Enkeltrick.
Betrüger nutzen die Masche schon lange. Sie geben sich als Familienmitglieder unter einer neuen Nummer aus, die in einer misslichen Lage sind und dringend Geld brauchen. Meist läuft das Ganze über SMS oder WhatsApp ab, doch auch mit Schockanrufen versuchen Kriminelle ihr Glück, vor allem bei älteren Menschen. Und genau das wird zunehmend zum Problem, denn mithilfe von KI kann die Stimme einer Person einfach imitiert werden. Der Betrug lässt sich dadurch noch schwerer durchschauen.
Enkeltrick wird noch fieser: Wie erkenne ich, ob eine Stimme "geklont" wurde?
"Wahrscheinlich hat jeder schon mal von dem Enkeltrick gehört, aber wenn nun wirklich die 'echte Stimme' des Enkels anruft, kann das deutlich überzeugender sein", sagte Kriminalanalyst Mark Thorben Hofmann im Gespräch mit dem Magazin "Stern". Für das sogenannte "voice cloning", zu Deutsch "Stimmen-Klonen", benötigen die Betrüger nur wenige Sekunden Audio-Material. Jeder, der schon mal ein Video auf Facebook, Instagram oder TikTok gepostet hat, wird damit zum potenziellen Opfer eines solchen Deepfakes.
"Die Qualität ist so gut, dass selbst Ehepartner oder Familienmitglieder es nicht erkennen würden", warnt Hofmann. Selbst Sicherheitsexperten haben Schwierigkeiten, die KI-Stimmen zu durchschauen, wie der Fall eines Microsoft-Beraters zeigte. Es gibt aber einige Anzeichen und Tricks, die KI zu entlarven:
- Nummer prüfen: Eine bekannte Person ruft unter neuer Nummer an? Die Verbraucherzentrale Bremen empfiehlt im Zweifel aufzulegen und den vermeintlichen Anrufer unter der altbekannten Nummer zurückzurufen.
- Genau hinhören: Kommt es zu Pausen oder anderen unnatürlichen Sprechmustern? Die KI ist nicht perfekt, so die Verbraucherzentrale, es kann also zu Lücken im Gespräch kommen.
- Fragen stellen: "Ihre Stimme kann gestohlen werden, ihr Wissen nicht", sagt Kriminalanalyst Hofmann. Wenn du wissen willst, wer dich wirklich anruft, stelle Fragen, die nur diese Person beantworten kann.
- Codewort festlegen: Spreche mit Familie und Freunden über die potenzielle Gefahr. Experten wie Hofmann und Michael Zerna raten sogar dazu, ein Codewort festzulegen. Klingt ein Anruf verdächtig, kannst du dies abfragen, sozusagen als Verifzierungsverfahren.
- Misstrauisch bleiben: Die Betrüger setzen auf Emotion und Zeitdruck, um dich zum Handeln zu zwingen. Sobald es darum geht, Geld zu überweisen oder persönliche Daten wie Passwörter herauszugeben, sollten bei dir die Alarmglocken klingeln. Bewahre Ruhe und lege im Zweifelsfall auf.
Enkeltrick in Deutschland weiter großes Gefahr
Insgesamt würde die Zahl der Betrugsversuche mittels KI zunehmen, bestätigt auch Michael Zerna, Software-Ingenieur und KI-Berater, dem Portal "CHIP". "Laut FBI und verschiedenen Verbraucherschutzorganisationen werden KI-Technologien wie Deepfakes und Voice Cloning immer häufiger für Erpressung, den 'Großeltern-Betrug' und für hochentwickelte Social-Engineering-Angriffe gegen Unternehmen verwendet."
In Deutschland gibt es keine konkreten Zahlen, wie verbreitet der Betrug mittels KI tatsächlich ist. Der Cybersicherheitsmonitor, eine Umfrage des Bundesamts für Sicherheit in der Informationstechnik (BSI), weist auf einen noch relativ geringen Anteil hin. Zwei Prozent der Befragten gaben an, 2024 Opfer eines Betrugs geworden zu sein, bei dem KI eingesetzt wurde. Die Technik hinter Dingen wie Voice Cloning haben seitdem aber einen großen Sprung gemacht und sind leichter zugänglich. Es ist somit denkbar, dass diese Anzahl steigen wird.