Enkeltrickbetrug durch KI-Sprachimitation

Roboter mit Telefon
Mit der Unterstützung von KI erreicht der Enkeltrickbetrug eine ganz neue Dimension.

Der berüchtigte Enkeltrick hat eine neue Dimension erreicht. Cyberkriminelle nutzen zunehmend hoch entwickelte künstliche Intelligenz (KI), um die Stimmen vermeintlich hilfsbedürftiger Verwandter täuschend echt zu imitieren, was zu noch überzeugenderen Betrugsversuchen führt.

Mit nur 30 Minuten Audiomaterial kann eine KI ein komplettes Stimmprofil einer Person erstellen. Je mehr Audiomaterial zur Verfügung steht, desto genauer wird die Imitation und desto schwieriger wird es für potenzielle Opfer, Unstimmigkeiten in der imitierten Stimme zu erkennen.

Dank sozialer Medien ist es für Cyberkriminelle einfach, an das benötigte Audiomaterial zu gelangen. Die verwendeten KI-Modelle können nicht nur Stimmhöhe, Tonfall und regionale Dialekte imitieren, sondern auch individuelle Phrasen und Sprachmuster.

Der amerikanische Netzwerksicherheitsspezialist McAfee hat einen alarmierenden Bericht mit dem Titel „Beware the Artificial Impostor“ veröffentlicht. Demnach gaben 25 Prozent der Befragten an, bereits mit einem solchen KI-basierten Stimmbetrug konfrontiert worden zu sein.

Fast die Hälfte der Befragten gab an, bei verschiedenen Notfällen wie Autounfällen, Diebstahl oder verlorenem Portemonnaie helfen zu würden, wenn sie einen Anruf bekämen.

Und diese Betrugsmasche ist nicht nur auf Privatpersonen beschränkt, auch Unternehmen sind potenzielle Ziele. Viele Geschäftstransaktionen werden per Telefon oder Voicemail abgewickelt und stellen somit ein Einfallstor für Kriminelle dar.

Viele betrogene Opfer berichten, dass sie an der Stimme nicht erkennen konnten, ob es sich um einen echten oder gefälschten Anruf handelte. Es wird daher dringend empfohlen, bei Anrufen, in denen um finanzielle Hilfe gebeten wird, stets äußerste Vorsicht walten zu lassen.

In einem schockierenden Fall von KI-gestütztem Betrug verlor ein kanadisches Ehepaar über 14.000 Euro an Betrüger. Die Betrüger hatten sich mit der scheinbar authentischen Stimme ihres Sohnes bei dem Paar gemeldet und behauptet, er habe einen US-Diplomaten bei einem Autounfall getötet. Er sei nun in Haft und benötige dringend Geld für einen Anwalt.

Die Zahlung erfolgte in Form von Bitcoins, einer digitalen Währung, die aufgrund ihrer Pseudonymität häufig von Betrügern verwendet wird. In der Überzeugung, ihrem Sohn in einer Notsituation zu helfen, überwies das Paar den geforderten Betrag, nur um später zu erfahren, dass es sich um einen KI-gestützten Betrug handelte. Dieser erschütternde Vorfall unterstreicht die wachsende Gefahr dieser Art von Betrug bzw. der verwendeten Technologie, die es ermöglicht, die Stimmen geliebter Menschen mit erschreckender Genauigkeit zu imitieren.

Experten erwarten, dass diese Art des KI-gestützten Stimmbetrugs eine immer größere Rolle in der Cyberkriminalität spielen wird.

Felix Bauer
Felix Bauer
Felix Bauer ist IT-Security Consultant und IT Fachjournalist (Themen: Tech, IT-Sicherheit und Datenschutz). Felix Bauer ist seit 20 Jahren in der IT-Sicherheitsbranche tätig. Sein Hauptschwerpunkt liegt auf dem Thema „Virenschutz für Endanwender“. Felix Bauer ist OpenSource-Evangelist und besitzt den Master of Science in Security and Forensic Computing. Felix Bauer hat bereits an zahlreichen IT-Sicherheitskonferenzen und sonstigen IT-Sicherheitstagungen teilgenommen und diverse professionelle Qualifikationen im Bereich IT-Sicherheit erworben. Er ist Mitbegründer des Projekts bleib-Virenfrei.

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Aufgrund einer enormen Zunahme von Spam-Kommentaren muss ich alle Kommentare manuell freischalten. Es kann daher zu Verzögerungen bei der Veröffentlichung von Kommentaren kommen.