Eric Lopes Cardozo
Een voorbeeld van de sterk verbeterde kwaliteit van deepfakes bleek uit een opiniestuk in The Guardian van begin januari jl. over de opkomst en de gevolgen van deepfakes. De auteur van het stuk is Yanis Varoufakis, minister van Financiën van Griekenland ten tijde van de Griekse schuldencrisis in 2015 en een van de oprichters van DiEM25, een politieke beweging die op basis van links-progressief gedachtengoed streeft naar democratisering en transparantie binnen de EU. Varoufakis beschrijft dat hij zichzelf op YouTube uitspraken hoorde doen die hem totaal vreemd waren. Een van de video’s was daarbij zo realistisch, dat hij aan het twijfelen was gebracht of hij die uitspraken wellicht dan toch had gedaan. Uiteindelijk gaf zijn kleding de doorslag. In de video, opgenomen in zijn kantoor in Athene, had hij een overhemd aan dat nooit zijn huis op een van de Griekse eilanden had verlaten. Zijn pogingen om dergelijke video’s te rapporteren bij Google, Meta en andere socialemediabedrijven bleken vruchteloos. Verwijderde video’s doken vrijwel direct weer op onder een andere titel. Inmiddels zijn er op het internet honderden Varoufakis-deepfakes te vinden.
Wat Varoufakis overkomt, geldt voor vele beroemheden en politieke figuren. Het gaat van Warren Buffets beleggingsadvies tot een oproep van Zelenski tot het neerleggen van de wapens. Het raakt ook bedrijven en organisaties. Zo rapporteerde cybersecuritybedrijf DeepStrike al in september 2025 ronduit schokkende cijfers. Volgens hun analyse steeg het aantal deepfake-bestanden met een exponentiële groei van 500.000 in 2023 naar 8 miljoen in 2025. Ook het aantal fraudepogingen is fors toegenomen. Het aantal fraudegevallen in de eerste drie maanden van 2025 overtrof in zijn geheel het aantal fraudegevallen van het jaar daarvoor. Het gaat hierbij niet alleen om video’s. Het nabootsen van stemmen zonder beeld heeft een groter aandeel bij identiteitsfraude, omdat dit goedkoper is en sneller kan worden geproduceerd, en afdoende overtuigend werkt. Een stem kan al met grote nauwkeurigheid worden gekloond op basis van een audiofragment van slechts enkele seconden. Voorts kost het plegen van een deepfake-telefoontje slechts ongeveer een euro.
DeepStrike stelt verder dat deepfakes in slechts een kwart van de gevallen worden herkend, zelfs waar het gaat om hoge-resolutievideo’s. Men schat de gemiddelde schade op $ 500.000 per deepfake-gerelateerd incident. Voor grote ondernemingen schat men dit met ca. 35% nog hoger in. Rapporten erover schetsen een somber toekomstbeeld. Een prognose van het Deloitte Center for Financial Services voorspelt dat de verliezen ten gevolge van met AI veroorzaakte fraude alleen al in de VS zullen stijgen van $ 12,3 miljard in 2023 naar $ 40 miljard in 2027. In DeepStrikes analyse wordt ook gesteld dat de snelle groei van de creatie van schadelijke deepfakes niet valt af te remmen, ook niet met op AI gebaseerde detectiehulpmiddelen. Sterker nog, men stelt dat beveiligingsstrategieën die uitsluitend zijn gebaseerd op geautomatiseerde detectie tot mislukken zijn gedoemd en dat de focus moet verschuiven van meer technologie naar weer meer ‘ouderwetse’ procedures en verificatieprocessen. DeepStrike heeft als cybersecurity-dienstverlener een belang bij het overdrijven van de ernst van de problematiek. Maar de door hen geschetste trend wordt door andere bronnen bevestigd.
Inmiddels wordt er wereldwijd gewerkt aan wetgeving die misbruik van AI moet tegengaan. De Amerikaanse staat Tennessee was met de ‘ELVIS Act’ uit 2025 pionier op dit gebied. Deze wet biedt rechtsbescherming via schadeclaims en exploitatieverbod tegen deepfakes op het gebied van creatieve content. In de hoofdstad van Tennessee, Nashville, draait alles om muziek. Een Europees voorbeeld van iets soortgelijks is het Deense wetsvoorstel waarmee de persoonlijke identiteit tot intellectueel eigendom wordt bestempeld. Het zonder toestemming vervaardigen van deepfakes leidt dan tot inbreuk op het auteursrecht. Binnen dit wetsvoorstel wordt vooralsnog een uitzondering gemaakt voor satire. In de VS is op federaal niveau inmiddels de TAKE IT DOWN Act van kracht. Deze wet richt zich vooral op het beschermen van slachtoffers van seksuele deepfakes. Dit dwingt platforms onder meer tot het binnen 48 uur verwijderen van schadelijke content, en het legt de verantwoordelijkheid niet bij de makers van dit soort deepfakes, maar bij de bedrijven die het exporteren. Hierbij moet worden gedacht aan platforms van de sociale media, pornografische websites, hosting- en contentplatforms en producenten van AI-image/videotools met realistische output.
Binnen de EU worden deepfakes geclassificeerd als ‘beperkt risico’, maar er bestaat wel een EU AI Act, of AI-verordening. Een concreet voorbeeld van deze wetgeving is het verplicht plaatsen van een icoon en/of melding dat de content middels AI is gegenereerd. Ook bij deze in 2025 in werking getreden wetgeving wordt de verantwoordelijkheid bij bedrijven gelegd. De reikwijdte van deze wetgeving gaat zelfs nog verder dan die in de VS. Zo raakt dit nagenoeg alle bedrijven die diensten leveren waarbij gebruik wordt gemaakt van AI, inclusief bedrijven die AI inzetten voor marketing, personeelszaken en/of media. Overtredingen kunnen leiden tot forse boetes – € 35 miljoen, of 7% van de wereldwijde omzet, of uitsluiting van toegang tot de Europese markt.
Waar de wetgeving in de VS is geënt op het kunnen aanpakken van misbruik en het indienen van eventuele schadeclaims, wordt in de EU uitgegaan van preventie door middel van regulering. Dit gaat dus eigenlijk veel verder dan het tegengaan van de verspreiding van deepfakes. Zo worden bedrijven en organisaties verplicht tot het opzetten van gedragscodes en het opleiden van medewerkers op het gebied van AI, teneinde de zogenaamde AI-ongeletterdheid aan te pakken. Verder worden de EU-lidstaten verplicht tot het oprichten en benoemen van nationale toezichthouders. Op overkoepelend niveau is binnen de Europese Commissie hiertoe reeds het AI-bureau opgericht.
Het AI-bureau dient binnen de EU te fungeren als een expertisecentrum op het gebied van AI, met als doel de ontwikkeling en toepassing van AI-oplossingen die de samenleving en de economie ten goede komen, te bevorderen. De EU-AI-verordening bevat ook extra regels voor overheden en uitvoerders van publieke taken. Zij moeten bij systemen met een hoog risico altijd een zogenoemde grondrechten-effectbeoordeling uitvoeren. Gezien de honger naar data en zucht naar controle is het zeer twijfelachtig hoe dit zijn beslag gaat krijgen. Om maar niet te spreken over het gemak waarmee overheden de afgelopen jaren – tot op de dag van vandaag – onze grondrechten hebben ingeperkt of ontnomen. Een recent voorbeeld hiervan is het op een EU-sanctielijst plaatsen van personen met een ‘onwelgevallige’ mening, met als gevolg dat een betrokken deelname aan de maatschappij hen zo’n beetje onmogelijk wordt gemaakt.
Op cultureel-maatschappelijk gebied is er al jaren een trend gaande van terugkeer naar het gebruik van analoge technologie, bijvoorbeeld hifi-grammofoonplaten en analoge fotografie. De opkomst van AI speelt hierin een grote rol. Vooral in de fotografie is de terugkeer naar analoog opvallend. Ooit voor een paar tientjes afgedankte camera’s van vóór het digitale tijdperk zijn inmiddels gewilde objecten waar goed voor betaald wordt. Gemiddeld zijn de nieuwe analoge camera’s zo’n 30 tot 50% duurder geworden, terwijl tweedehands modellen vaak in prijs zijn verdubbeld, afhankelijk van het merk en de zeldzaamheid. Op het gebied van hifi is een soortgelijke trend waarneembaar, al is die minder sterk dan bij de fotografie. De gemeenschappelijke trend is een toenemende behoefte aan authenticiteit en ambachtelijkheid in plaats van digitale perfectie, terwijl analoge fotografie beeldmateriaal van juridische waarde produceert, omdat het geen vervalsing van beeldmateriaal toestaat.
– einde artikel –
Je las een Premium artikel uit Gezond Verstand
Volg ons op social media
Kijk en beluister Gezond Verstand via