Audio-Deepfakes: Vorsicht vor KI-Software, die die Stimmen Ihrer Lieben nachahmt

Mithilfe von Software für künstliche Intelligenz sind Kriminelle nun in der Lage, eine Stimme aus einem drei Sekunden langen Tonausschnitt zu klonen. In Großbritannien geben laut einer Umfrage 28 % der Befragten an, Opfer eines Audio-Deepfake geworden zu sein. Wir geben Ihnen einige Ratschläge, wie Sie sich davor schützen können.

Audio-Deepfakes: Vorsicht vor KI-Software, die die Stimmen Ihrer Lieben nachahmt

Es wird immer wieder von künstlicher Intelligenz gesprochen, die sowohl mit wohlwollenden als auch mit böswilligen Absichten genutzt wird. Vor einigen Monaten berichteten wir über Betrügereien mit Gefühlen und insbesondere über den Fall des falschen Brad Pitt

Diesmal gehen wir speziell auf Betrügereien ein, die darauf abzielen, mithilfe von Technologie die Stimme einer nahestehenden Person zu imitieren. Durch das Abrufen von Video- oder Sprachaufnahmen von drei oder mehr Sekunden Länge über soziale Netzwerke sind Betrüger nun in der Lage, eine Stimme mithilfe von Tools der künstlichen Intelligenz zu reproduzieren. So können sie die Stimme einer Person imitieren und Angehörige um Geld bitten, indem sie durch eine Mitteilung oder eine Sprachnachricht vorgeben, dass die Person in Gefahr ist.

Die Starling Bank veröffentlichte im vergangenen Jahr die Ergebnisse einer Umfrage: 28 % der 3010 befragten Briten gaben an, im vergangenen Jahr mindestens einmal auf einen Betrug mit geklonter Stimme hereingefallen zu sein. Auf der anderen Seite hatten 46 % der Menschen noch nie davon gehört ... Noch beunruhigender: 8 % der Befragten gaben an, dass sie, auch wenn sie Zweifel an der Herkunft des Anrufs hätten, in einer solchen Situation trotzdem Geld überweisen würden.

Als Reaktion auf Fälle von Audio-Deepfake hat die Starling Bank die Kampagne Safe Phrases (Sicherheitsphrasen) gestartet, in der die Nutzer aufgefordert werden, eine „Sicherheitsphrase“ zu vereinbaren, damit die Opfer überprüfen können, ob die Person wirklich diejenige ist, die sie vorgibt zu sein.

Tricks, um ein Audio-Deepfake zu erkennen 

Es gibt jedoch einige für künstliche Intelligenz typische Stimmmerkmale, an denen man Betrug erkennen kann, wie z. B. eine wenig variierte und ruckartige Intonation, abrupte Pausen mitten im Satz oder unregelmäßige Atemgeräusche. Also spitzen Sie die Ohren! 

Wenn der Ton mit einem Bild verknüpft ist, untersuchen Sie die Kohärenz zwischen beiden, insbesondere die Lippenbewegungen. Denken Sie auch an Details wie die Finger der Person (oft vergisst die KI welche oder fügt welche hinzu...) oder an die manchmal seltsamen Elemente der Umgebung...

Wenn Sie einen dringenden Anruf erhalten, in dem Sie um Geld gebeten werden, legen Sie auf und wählen Sie die übliche Nummer der Person, um sie direkt zu fragen, ob es sich um sie handelt. 

Und wie immer gilt: handeln Sie nicht zu schnell! Angst, Stress und Wut führen dazu, dass man zu schnell und ohne nachzudenken handelt, und Betrüger wissen das... 

Logo #SCAM

Entdecken Sie die #SCAM-Kampagne  

Hier finden Sie unsere Empfehlungen, um nicht auf Internetbetrüger hereinzufallen, sowie unsere Tipps, um einen Vorfall online zu melden. Sie sind Opfer? Erfahren Sie, wie Sie Anzeige wegen Internetbetrugs erstatten können!  

Weitere Informationen : https://www.polizei.be/5998/de/uber-uns/kommunikationskampagnen/scam-kampagne