21.06.2025
Mirjan Hipolito
Crypto en Forex expert
21.06.2025

Wanneer een videogesprek geen bewijs meer is: Hoe deepfakes de cryptosector bedreigen

Wanneer een videogesprek geen bewijs meer is: Hoe deepfakes de cryptosector bedreigen Hoe AI-aanvallen de beveiliging van cryptografie een nieuwe vorm geven

Er was een tijd dat videogesprekken dienden als extra beveiliging tegen oplichters. Als je iemand live op het scherm zag, ging je ervan uit dat je met de echte persoon sprak. Maar de technologie is geëvolueerd - en wat onlangs als veilig werd beschouwd, garandeert niet langer veiligheid.

Voormalig Binance CEO Changpeng Zhao heeft de aandacht gevestigd op een nieuwe golf van fraude die in opmars is: het gebruik van real-time deepfake video om leden van de cryptogemeenschap aan te vallen en te compromitteren. Volgens Zhao kan zelfs videoverificatie binnenkort zinloos worden. Als een gezicht en stem overtuigend kunnen worden vervalst, hoe kan iemand er dan zeker van zijn met wie ze echt praten?

Echte aanvallen zijn niet langer zeldzaam

Dit is niet alleen een hypothetische dreiging. De Japanse crypto influencer Mai Fujimoto verloor toegang tot zowel haar Telegram als Metamask portemonnee nadat ze deelnam aan een Zoom gesprek met een deepfake versie van iemand die ze vertrouwde. Ze werd misleid om op een "update" link te klikken nadat ze moeite had om de audio te horen. Voordat ze deelnam aan het gesprek had Fujimoto zich niet gerealiseerd dat het Telegram account van haar kennis al was gehackt.

"Ze stuurde me de link en instrueerde me om wat stappen te volgen om de audio-instellingen aan te passen, en ik geloof dat de aanval toen mijn computer in gevaar bracht."

Deepfake aanvallen richten zich steeds vaker op medewerkers van cryptobedrijven, fondsen en exchanges. In een recent geval deden kwaadwillende acteurs zich voor als directieleden van een cryptofonds via meerdere Zoom-gesprekken en overtuigden ze een medewerker om de software te installeren die ze nodig hadden. Het resultaat: een keylogger, schermrecorder en diefstal van privésleutels.

Bijna alles kan worden vervalst

Het probleem is dat het traditionele model van digitaal vertrouwen niet meer werkt. Een gezicht, een gebruikersnaam, een stem - het kan nu allemaal overtuigend vervalst worden. Moderne deepfake algoritmes kunnen niet alleen iemands toon en gezichtsuitdrukkingen nabootsen, maar zich ook in realtime aanpassen aan iemands reacties. Dit betekent dat visueel en auditief contact niet langer een betrouwbare indicator van authenticiteit is.

Hoewel bedrijfsomgevingen nog steeds verificatie op meerdere niveaus kunnen implementeren - met behulp van interne platforms, toegangstokens of back-up bevestigingskanalen - vertrouwen informele gesprekken en persoonlijke communicatie vaak alleen op vertrouwen. Dat is precies wat gebruikers kwetsbaar maakt: vertrouwdheid met iemands "stem" of "gezicht" gaf ooit een gevoel van veiligheid, maar kan nu een zwak punt worden.

De technologie gaat zelfs nog verder. Sommige plugins kunnen nu hyperrealistische gezichten genereren tijdens videogesprekken, oogbewegingen, knipperen en zelfs geluidsvertragingen simuleren - allemaal om de illusie van een live gesprek te creëren. En die illusie kan genoeg zijn om iemand ervan te overtuigen toegang te verlenen of een gevaarlijke actie uit te voeren zonder iets te vermoeden.

Cyberhygiëne is niet langer optioneel

Zhao's oproep om nooit software van onofficiële bronnen te installeren is niet langer slechts een algemene herinnering - het is een basisvereiste voor cyberhygiëne. In een wereld waarin zelfs videogesprekken gecompromitteerd kunnen worden, is kritisch denken en duidelijke protocollen voor digitaal gedrag de enige effectieve bescherming.

Dat betekent het volledig vermijden van

- het installeren van software van links ontvangen in privéberichten;

- het invoeren van wachtwoorden of codes tijdens een videogesprek;

- het overslaan van een secundair bevestigingskanaal (zoals een apart bericht of gesprek via een ander platform).

Ondertussen moeten bedrijven een intern identiteitsverificatiebeleid invoeren, zelfs als de stem bekend klinkt, tools voor het monitoren van gedrag gebruiken en teams trainen om tekenen van imitatie te herkennen.

Er is nog geen wet die dit voorschrijft. Maar de werkelijkheid wel - en de kosten van een fout worden niet alleen gemeten in verloren geld, maar ook in reputatie en bedrijfscontinuïteit.

Dit materiaal kan meningen van derden bevatten, vormt geen financieel advies en kan gesponsorde inhoud bevatten.