21.06.2025
Mirjan Hipolito
Expertin für Kryptowährung und Aktien
21.06.2025

Wenn ein Videoanruf kein Beweis mehr ist: Wie Deepfakes die Krypto-Branche bedrohen

Wenn ein Videoanruf kein Beweis mehr ist: Wie Deepfakes die Krypto-Branche bedrohen Wie KI-gesteuerte Angriffe die Krypto-Sicherheit neu gestalten

Es gab eine Zeit, in der Videoanrufe einen zusätzlichen Schutz vor Betrügern boten. Wenn man jemanden live auf dem Bildschirm sah, konnte man davon ausgehen, dass man mit der echten Person sprach. Aber die Technologie hat sich weiterentwickelt - und was vor kurzem noch als sicher galt, garantiert heute keine Sicherheit mehr.

Der ehemalige Binance-CEO Changpeng Zhao hat auf eine neue Betrugswelle aufmerksam gemacht, die immer mehr an Fahrt gewinnt: die Verwendung von Deepfake-Videos in Echtzeit, um Mitglieder der Krypto-Community anzugreifen und zu kompromittieren. Laut Zhao könnte sogar die Videoverifizierung bald bedeutungslos werden. Wenn ein Gesicht und eine Stimme überzeugend gefälscht werden können, wie kann man dann sicher sein, mit wem man wirklich spricht?

Echte Angriffe sind keine Seltenheit mehr

Dies ist nicht nur eine hypothetische Bedrohung. Die japanische Krypto-Influencerin Mai Fujimoto verlor den Zugang zu ihrer Telegram- und Metamask-Brieftasche, nachdem sie an einem Zoom-Anruf mit einer gefälschten Version einer Person ihres Vertrauens teilgenommen hatte. Sie wurde dazu verleitet, auf einen "Update"-Link zu klicken, nachdem sie Mühe hatte, den Ton zu hören. Bevor sie dem Anruf beitrat, hatte Fujimoto nicht bemerkt, dass das Telegram-Konto ihrer Bekannten bereits gehackt worden war.

"Sie schickte mir den Link und wies mich an, einige Schritte zu befolgen, um die Audioeinstellungen anzupassen, und ich glaube, das war der Zeitpunkt, an dem der Angriff meinen Computer kompromittierte."

Deepfake-Angriffe zielen zunehmend auf Mitarbeiter von Kryptounternehmen, -fonds und -börsen ab. In einem aktuellen Fall gaben sich böswillige Akteure in mehreren Zoom-Anrufen als Führungskräfte eines Kryptofonds aus und überzeugten einen Mitarbeiter, die benötigte Software zu installieren. Das Ergebnis: ein Keylogger, ein Bildschirmschreiber und der Diebstahl von privaten Schlüsseln.

Fast alles kann gefälscht werden

Das Problem ist, dass das traditionelle Modell des digitalen Vertrauens nicht mehr funktioniert. Ein Gesicht, ein Benutzername, eine Stimme - all das kann heute überzeugend gefälscht werden. Moderne Deepfake-Algorithmen können nicht nur den Tonfall und die Mimik einer Person nachahmen, sondern sich auch in Echtzeit an die Reaktionen einer Person anpassen. Das bedeutet, dass visueller und akustischer Kontakt kein zuverlässiger Indikator für Authentizität mehr ist.

Während in Unternehmensumgebungen immer noch eine mehrstufige Verifizierung möglich ist - über interne Plattformen, Zugangstoken oder Backup-Bestätigungskanäle - beruhen informelle Gespräche und persönliche Kommunikation oft allein auf Vertrauen. Genau das macht die Benutzer angreifbar: Die Vertrautheit mit der "Stimme" oder dem "Gesicht" einer Person vermittelte früher ein Gefühl der Sicherheit, doch jetzt kann sie zu einer Schwachstelle werden.

Die Technologie ist sogar noch weiter fortgeschritten. Einige Plugins können jetzt hyperrealistische Gesichter bei Videoanrufen erzeugen, Augenbewegungen, Blinzeln und sogar Audioverzögerungen simulieren - alles, um die Illusion eines Live-Gesprächs zu erzeugen. Und diese Illusion kann ausreichen, um jemanden davon zu überzeugen, Zugang zu gewähren oder eine gefährliche Aktion auszuführen, ohne etwas zu ahnen.

Cyber-Hygiene ist nicht mehr optional

Zhaos Aufruf, niemals Software aus inoffiziellen Quellen zu installieren, ist nicht mehr nur eine allgemeine Mahnung, sondern eine Grundvoraussetzung für Cyberhygiene. In einer Welt, in der sogar Videoanrufe kompromittiert werden können, sind kritisches Denken und klare digitale Verhaltensprotokolle der einzige wirksame Schutz.

Das bedeutet, dass man es komplett vermeiden sollte:

- die Installation von Software über Links, die man in privaten Nachrichten erhalten hat;

- die Eingabe von Passwörtern oder Codes während eines Videoanrufs;

- das Überspringen eines zweiten Bestätigungskanals (z. B. eine separate Nachricht oder ein Anruf über eine andere Plattform).

In der Zwischenzeit müssen Unternehmen interne Richtlinien zur Identitätsüberprüfung einführen, selbst wenn die Stimme vertraut klingt, Tools zur Verhaltensüberwachung einsetzen und ihre Teams darin schulen, Anzeichen für eine Nachahmung zu erkennen.

Es gibt noch kein Gesetz, das dies vorschreibt. Aber die Realität sieht so aus - und die Kosten eines Fehlers werden nicht nur in verlorenen Geldern gemessen, sondern auch im Ruf und in der Geschäftskontinuität.

Dieses Material kann Meinungen Dritter enthalten, stellt keine Finanzberatung dar und kann gesponserte Inhalte enthalten.