Sicherheit

Binance Chief Security Officer: KI-Deepfakes können die KYC-Überprüfung immer besser fälschen

Laut Jimmy Su, dem Chief Security Officer von Binance, schreitet die Deepfake-Technologie so schnell voran, dass sie für menschliche Prüfer bald nicht mehr erkennbar sein könnte. Deepfakes, die künstliche Intelligenz und maschinelles Lernen nutzen, um überzeugende Audio-, Bild- oder Videoaufnahmen mit dem Abbild einer Person zu erstellen, werden von Krypto-Betrügern verwendet, um die Know-Your-Customer-Verifizierung (KYC) auf Plattformen wie Binance zu umgehen. Obwohl es legitime Anwendungen für die Deepfake-Technologie gibt, stellt sie auch eine erhebliche Bedrohung dar, wenn sie für Betrug und Falschmeldungen eingesetzt wird.

Su äußerte sich besorgt über die steigende Zahl von Betrügern, die Deepfakes nutzen, um Kundenverifizierungsprozesse auf Binance zu umgehen. Er erklärte, dass Hacker online nach regelmäßigen Bildern ihrer Opfer suchen und dann Deepfake-Tools verwenden, um Videos zu erstellen, mit denen Verifizierungsverfahren umgangen werden können. Diese Tools sind so ausgereift, dass sie sogar angemessen auf Audioanweisungen reagieren können, die die Echtheit des Antragstellers in Echtzeit authentifizieren sollen.

Laut Su erfordern einige Verifizierungsprozesse, dass Benutzer bestimmte Aktionen ausführen, beispielsweise mit dem linken Auge blinzeln oder in bestimmte Richtungen schauen. Deepfakes sind so weit fortgeschritten, dass sie diese Befehle überzeugend ausführen können. Su glaubt jedoch, dass aktuelle Deepfake-Videos immer noch bestimmte für menschliche Bediener erkennbare Elemente enthalten. Wenn ein Benutzer beispielsweise angewiesen wird, den Kopf zur Seite zu drehen, kann ein menschlicher Beobachter Anomalien erkennen. Dennoch räumt Su ein, dass künstliche Intelligenz diese Einschränkungen im Laufe der Zeit wahrscheinlich überwinden wird, wodurch das Vertrauen auf die menschliche Erkennung weniger zuverlässig wird.

Der Chief Communications Officer von Binance, Patrick Hillmann, hatte zuvor davor gewarnt, dass ein raffiniertes Hackerteam Deepfake-Versionen von ihm erstellt, um betrügerische Zoom-Meetings mit Krypto-Projektteams durchzuführen. Diese Deepfake-Imitationen zielten darauf ab, ahnungslose Projekte dazu zu verleiten, für die Möglichkeit zu bezahlen, ihre Vermögenswerte auf Binance zu listen.

Su geht auf die Herausforderung der Bekämpfung von Deepfake-Angriffen ein und gibt zu, dass es sich um ein schwierig zu lösendes Problem handelt. Auch wenn Binance seine eigenen Videos kontrollieren kann, gibt es zahlreiche verfügbare Videos, die der Plattform nicht gehören. Die Aufklärung der Benutzer ist von entscheidender Bedeutung, um die mit Deepfakes verbundenen Risiken zu mindern. Binance plant die Veröffentlichung einer Reihe von Blogbeiträgen, die sich auf die Aufklärung der Benutzer über Risikomanagement konzentrieren.

Binance nutzt künstliche Intelligenz und maschinelle Lernalgorithmen für verschiedene Zwecke, einschließlich der Erkennung ungewöhnlicher Anmeldemuster, Transaktionsmuster und abnormaler Aktivitäten auf der Plattform. Während Technologie dabei helfen kann, verdächtiges Verhalten zu erkennen, unterstreicht die zunehmende Raffinesse von Deepfakes die Notwendigkeit kontinuierlicher Wachsamkeit und proaktiver Maßnahmen, um solchen betrügerischen Praktiken entgegenzuwirken.

   

Quelle

Click to rate this post!
[Total: 0 Average: 0]
Show More

Leave a Reply

Your email address will not be published.