De snelle ontwikkeling van kunstmatige intelligentie stelt cybercriminelen in staat om realistische vervalsingen van stemmen, gezichten en teksten te creëren. Deze zogenaamde deepfakes kunnen digitale beelden, audio, video of tekst zijn die wordt gegenereerd met behulp van kunstmatige intelligentie. Fraudepogingen met behulp van deepfakes komen steeds vaker voor - zowel in professionele als in particuliere context. Daarom is bijzondere voorzichtigheid geboden.
Belangrijke punten:

Deepfakes bedriegen doelwitten met realistische stemmen, gezichten en tekst die door AI wordt gegenereerd - en worden gebruikt door cybercriminelen in zowel professionele als privéomgevingen.

Mogelijke tekenen van deepfakes zijn onnatuurlijke bewegingen, vervormingen of taalaanwijzingen zoals herhalingen van woorden en patronen of een inconsistente stemstijl - let op waarschuwingssignalen en vertrouw op je onderbuikgevoel.

Bescherm jezelf door identiteiten te verifiëren en verdacht te zijn van ongebruikelijke verzoeken of inhoud. Verscherp uw digitale mediageletterdheid en gebruik indien nodig de beschikbare digitale tools.
Deepfakes detecteren: waar moet je op letten
Kunstmatig gegenereerde stemmen, gezichten en teksten worden steeds realistischer - en kunnen op het eerste gezicht moeilijk te herkennen zijn. Daarom is het cruciaal om de tekenen te kennen om uit te kijken en op je instincten te vertrouwen.
Belangrijkste punten om te overwegen:
Vertrouw op je instincten
Als je iets vreemd vindt, stel dan specifieke vragen - ofwel direct in gesprek of via een andere bekende contactmethode. Vraag bijvoorbeeld naar details via een telefoonnummer dat alleen de echte persoon zou kennen, of neem contact op met de persoon via een bekend nummer, e-mailadres of berichtenapp voor verificatie.
Inconsistenties in gezichtsbewegingen
Let in video's op schokkerige bewegingen, ongepaste gezichtsuitdrukkingen, vreemde proporties of niet-gesynchroniseerde lipbewegingen. AI-gegenereerde gezichten hebben vaak problemen met natuurlijke bewegingen zoals knipperen, fronsen of kleine spiertrekkingen.
Inconsistenties in de stem
Vervormingen, pauzes, echo's of een monotone spraakmelodie in oproepen of spraakberichten kunnen tekenen zijn van een nep, AI-gegenereerde stem.
Vreemde taal
AI-gegenereerde teksten zijn meestal foutloos, maar kunnen onpersoonlijk lijken, herhalingen, vlakke zinnen of ongepaste termen bevatten.
Visuele inconsistenties
controleer of licht, schaduwen of reflecties in afbeeldingen realistisch lijken. Als u niet zeker bent over afbeeldingen, gebruikt u een omgekeerde zoekopdracht om de afbeeldingen elders op het internet te vinden.
Onverwachte berichten
Als een gesprek, bericht of video verdacht lijkt voor u, ondervraag het. Is het aannemelijk? Had ik het verwacht? Stel ook de bronnen in vraag. Waar komt de video of afbeelding vandaan? Is de bron betrouwbaar? Is de identiteit van de persoon duidelijk bevestigd?
Gebruik goede beeldkwaliteit
bekijk video's op een groter scherm, in plaats van op je telefoon. Hoge resolutie en correcte kleurinstellingen helpen details en mogelijke inconsistenties te markeren - bijvoorbeeld in de huid of gezichtsuitdrukkingen.
De gevaren van deepfakes
Deepfakes zijn meer dan alleen technische trucs - ze vormen een ernstige bedreiging.
- Gerichte fraude: Cybercriminelen gebruiken deepfakes om identiteiten te vervalsen en vertrouwen te winnen. Een nepgesprek of een realistisch ogende videoboodschap van de "baas" of uw bank kan genoeg zijn om mensen gevoelige gegevens te laten onthullen of grote sommen geld over te maken.
- Verspreiding van desinformatie: Deepfakes kunnen meningen manipuleren door politici, beroemdheden of journalisten specifieke uitspraken te laten doen. Dit kan politieke debatten beïnvloeden en het vertrouwen in betrouwbare informatiebronnen ondermijnen.
- Reputatieschade en afpersing: gemanipuleerde video's of afbeeldingen kunnen worden gebruikt om mensen bloot te leggen, te chanteren of in diskrediet te brengen - bijvoorbeeld door vermeende compromitterende inhoud.
- Sociale impact: Hoe realistischer deepfakes worden, hoe moeilijker het is om onderscheid te maken tussen echt en nep. Dit bevordert het wantrouwen ten aanzien van de echte inhoud - een ontwikkeling die democratische processen in gevaar kan brengen.
Gemeenschappelijke fraudevarianten met behulp van deepfakes
Of het nu gaat om nepaudio, video of foto's - deepfakes worden steeds geavanceerder. Cybercriminelen gebruiken ze specifiek om vertrouwen te winnen en schade te veroorzaken. Laten we eens kijken naar enkele van de meest voorkomende fraudesystemen die momenteel in omloop zijn - en hoe ze te herkennen.
Valse spraakberichten
Aanvallers kunnen spraakberichten maken die afkomstig lijken te zijn van iemand die je kent. Mogelijk wordt u gevraagd gevoelige informatie openbaar te maken of een document te openen dat malware bevat.
Gemanipuleerde telefoongesprekken of videogesprekken
Dankzij geavanceerde technologieën is het mogelijk om tijdens een telefoongesprek in real-time stemmen te vervalsen. Een bekend voorbeeld is het geval van een Brits energiebedrijf waarvan de CEO meende dat hij met de directeur van het moederbedrijf sprak en vervolgens 220.000 euro op een frauduleuze rekening stortte.
Deepfakes in videoconferenties
In Hong Kong werd een financiële medewerker van een bedrijf bedrogen toen fraudeurs deepfake-technologie gebruikten in een videoconferentie om zich voor te doen als de CFO en andere werknemers. De medewerker kreeg de opdracht om transacties te initiëren, wat resulteerde in een verlies van ongeveer 23,5 miljoen euro.
Schoktelefoontjes met nepstemmen
Fraudeurs gebruiken deepfake-technologieën om zich voor te doen als familieleden of vrienden en om geld te vragen in nep-noodsituaties. Een voorbeeld is de zogenaamde grootouderzwendel, waarbij ouderen worden gebeld door veronderstelde kleinkinderen en om financiële steun worden gevraagd.
Nepnieuws rapporten
Criminelen maken deepfake-video's in de stijl van bekende nieuwsformats, waarin beroemde mensen naar verluidt lucratieve investeringen bevorderen. Een van de doelen zou kunnen zijn om kijkers frauduleuze websites te laten bezoeken om geld te investeren.
Gemanipuleerde foto's
Deepfake foto's gemaakt met beeldgeneratoren kunnen mensen laten zien in situaties die nooit hebben plaatsgevonden. Voorbeelden hiervan zijn beelden van beroemdheden in gênante of verzonnen situaties, die worden gebruikt om valse informatie te verspreiden of hun reputatie te schaden.
Beschermende maatregelen tegen deepfake-fraude
- Identiteitsverificatie: Verifieer de identiteit van de afzender via vragen of alternatieve communicatiekanalen.
- Bewustzijn: Leer jezelf en de mensen om je heen over digitale media en vergroot het bewustzijn van de gevaren van deepfakes.
- Technische oplossingen: gebruik software en tools die helpen bij het detecteren van deepfakes.
- Blijf waakzaam en ondervraag ongebruikelijke communicatie kritisch om jezelf te beschermen tegen de toenemende gevaren van deepfakes.
Vragen en antwoorden over deepfakes
Show content of Wat zijn deepfakes precies en hoe worden ze gemaakt?
Deepfakes zijn bedrieglijk realistische media-inhoud - meestal video's, audio of afbeeldingen - gemaakt of gewijzigd met behulp van kunstmatige intelligentie. Criminelen gebruiken AI-modellen die zijn getraind met het opnemen van iemands stem, foto's, video's of schrijfstijl. "Trainingsdata" voor deepfakes kan ook worden gegenereerd door mensen te bellen wiens stem onder een voorwendsel moet worden gekloond, gewoon om hun stem op te nemen.
Show content of Hoe verschillen deepfakes van andere vormen van digitale manipulatie?
In tegenstelling tot eenvoudige afbeeldingsbewerkingen of valse profielen, creëren deepfakes realistische en dynamische inhoud - zoals mensen die praten in video's of geloofwaardige telefoongesprekken. De vervalsing is vaak moeilijk te detecteren.
Show content of Waarom zijn deepfakes een groeiende dreiging?
Deepfake-technologie wordt steeds beter en toegankelijker, waarbij veel basissoftwareoplossingen zelfs gratis beschikbaar zijn. Daarnaast worden opnames voor trainingstoepassingen op basis van AI steeds gemakkelijker te vinden - vooral op sociale media. Deepfakes kunnen vertrouwen uitbuiten - bijvoorbeeld door mensen ervan te overtuigen geld over te maken of door valse informatie geloofwaardig te laten lijken.
Show content of Waar worden deepfakes al gebruikt?
Deepfakes komen voor in de amusementswereld (zoals films, memes), maar ook in de politiek, voor het verspreiden van desinformatie en in de journalistiek, waar gemanipuleerde inhoud echt nieuws kan vervormen.
Show content of Welke risico's brengen deepfakes met zich mee voor individuen, bedrijven en de samenleving?
Individuen kunnen emotioneel of financieel worden geschaad door de impact van deepfakes, terwijl bedrijven financiële of reputatieschade kunnen lijden. In sociaal opzicht bevorderen deepfakes wantrouwen, desinformatie en manipulatie in het publieke discours.
Show content of Hoe moet ik me gedragen tijdens een verdacht gesprek of videogesprek?
Beëindig het gesprek als je iets vreemds vindt. Stel specifieke vragen die alleen de echte persoon zou kennen. Terugbellen - maar alleen via een bekend, veilig nummer.
Show content of Kan een frauduleus gesprek via e-mail of messenger AI-gegenereerd worden?
Ja. Er bestaan AI-modellen die speciaal zijn getraind voor frauduleuze doeleinden. Ze genereren bedrieglijk echte, gepersonaliseerde antwoorden en vragen die zijn ontworpen om vertrouwen op te bouwen en snel actie te ondernemen.
Show content of Kan het handschrift van een persoon worden vervalst met behulp van kunstmatige intelligentie?
Ja, het is technisch mogelijk. Slechts een paar regels echt handschrift zijn genoeg om een bedrieglijk echte vervalsing te creëren - bijvoorbeeld voor handtekeningen of notities. Het gebruik kan legitiem zijn, bijvoorbeeld voor ontwerp, animatie of toegankelijkheid, maar kan ook worden misbruikt voor fraude en identiteitsdiefstal.