Der klassische Enkeltrick funktioniert immer noch: Ein älterer Mensch wird von einer Person angerufen, die sich als Polizist ausgibt. Es wird vorgegaukelt, dass ein Verwandter – es muss nicht immer der Enkel sein – einen Unfall verursacht habe und nun eine Kaution fällig sei. Solche Maschen gibt es in vielen Varianten. Leider wurden auf diese Weise schon viele Ältere um Vermögen und Wertsachen gebracht.
Es geht ab jetzt noch mieser. Verbrecher nutzen Künstliche Intelligenz (KI), um den Enkeltrick gewissermaßen zu modernisieren. Das Vorgehen verblüfft und täuscht: Am Telefon meldet sich der angebliche Polizist nicht nur mit der unheilvollen Unfallnachricht, sondern er scheint den Hörer weiterzugeben. Der Angehörige oder geliebte Mensch, der angeblich den Unfall verursachte und nun in Untersuchungshaft sitzt, bittet höchstselbst mit angstvoller Stimme den überrumpelten Angerufenen um Hilfe.
Spätestens jetzt sind Zweifel und Vorsicht dahin. Der Angerufene wird bis zur Geldübergabe an die angebliche Polizei gnadenlos manipulativ begleitet. Freilich muss alles sehr schnell gehen. Denn der „Unfallverursacher“ könnte inzwischen aus reinem Zufall den Betrogenen kontaktieren.
Der angeblich Inhaftierte hat nämlich weder einen Unfall verursacht noch ins Telefon gesprochen. Mithilfe künstlicher Intelligenz ist es möglich, geklaute Stimmen einen erfundenen Text sprechen zu lassen:
„Hilfe Mami, ich hab Mist gebaut. Ich habe eine Frau überfahren. Ich halte das hier nicht aus. Bitte hol mich aus dem Gefängnis, bitte, bitte.“
Meine Stimme, deine Stimme
Das sogenannte Voice Cloning wird technisch immer besser und damit überzeugender. Wie kommen Verbrecher an die Stimme? Es kann sein, dass der künftige „Unfallverusacher“ einem anonymen Anrufer arglos in einem kurzen Gespräch die Original-Stimmvorlage liefert. Oder die Täter schauen sich in den sozialen Medien um, wo Menschen ihre Identität preisgeben, indem sie nicht nur ihre Bilder, sondern auch Videos mit reichlich stimmlichem Trainingsmaterial in die Öffentlichkeit stellen. Instagram, Facebook, YouTube, TikTok etc. sind voll davon.
Man mag sich gar nicht vorstellen, dass die KI sogar einen Videoanruf vortäuschen könnte. Schließlich haben schon Prominente wie Tom Hanks in viral gegangenen Videos Werbung gemacht. Nur waren sie es gar nicht, sondern ihr KI-Klon.
Mittels KI besitzt der Enkeltrick eine ungleich höhere emotionale Wirkung als die konventionelle Masche. Selbst abstruse Stories können so verkauft werden.
Was tun?
(Nicht nur) ältere Menschen sollten diese Tricks sofort durchschauen können. Wir können nicht oft genug darüber reden. Jeder sollte wissen, was ein Schockanruf ist und was ein sogenannter Deepfake alles kann. Nur so kann das Opfer ruhig Blut bewahren. Wer den Trick mit der manipulierten Stimme kennt, kann entweder gleich auflegen oder nach einem Codewort fragen, das nur der Angerufene und der Verwandte kennen können. Oder man ruft den angeblich Inhaftierten einfach mal an.
Traurig ist, dass dennoch eine Wunde bleiben kann. Meine fast neunzigjährige Bekannte hat den Trick durchschaut und den betrügerischen Anrufer abgewehrt. Trotzdem war sie wegen des verbrecherischen Eindringens in ihr Leben tagelang durch den Wind.
2 Kommentare
Danke für die Warnung und die Verhaltens-Tipps – gut, darauf explizit aufmerksam gemacht zu werden!
Perfider geht es nicht! Ich hoffe, dass dieser Artikel von vielen gelesen wird und hilft, auf diese Masche nicht reinzufallen.