Wat denk jij als je een video van een bekend persoon ziet die een bizarre uitspraak doet? Geloof je wat je ziet? Er is steeds meer mogelijk op het gebied van videomanipulatie. Niets is wat het lijkt nu de scheidslijn tussen nep en echt vervaagt. Daarom moeten we het hebben over deepfakes. Dus: wat is een deepfake? Een deepfake bestaat uit audio, video of fotomateriaal gemaakt door middel van kunstmatige intelligentie. Met deepfake kun je mensen dingen laten zeggen die ze nooit hebben gezegd, videomateriaal maken van stilstaand beeld, en zelfs heel overtuigende beelden genereren van mensen die in het echt niet bestaan. Toen de president van Gabon vorig jaar voor het eerst in tijden op televisie verscheen, gebeurde er iets raars. Mensen twijfelden al langer over zijn gezondheid. Was hij soms dood? Deze video zorgde alleen maar voor meer speculatie. Hij gaf een nieuwjaarsspeech maar sprak vreemd en zijn blik was doods. Genoeg reden voor zijn politieke rivaal om zijn video als een deepfake te bestempelen. Vervolgens pleegde het leger een mislukte staatsgreep. Of de video nou echt was of niet, dit voorval laat zien wat de mogelijkheid van een deepfake kan doen in een politiek instabiele situatie. In de discussie over deepfakes hebben we het al gauw over verkiezingen, bijvoorbeeld in de VS. Maar juist in landen waar omgang met technologie nog in de kinderschoenen staat, kan het gebruik of de suggestie van deepfakevideo's direct grote gevolgen hebben. Moeten we iets doen om onszelf te beschermen tegen bedrieglijke video's? Kunnen we geen software gebruiken om deepfakes te herkennen? Verschillende instituten werken aan systemen om deepfakes te ontmaskeren. Een jaar geleden ontdekte een Amerikaanse AI-expert dat veel van de opgevoerde personen in deepfakes niet of nauwelijks met hun ogen knipperen. Dat is omdat bronfoto's die worden gebruikt om video's te genereren, meestal mensen met open ogen laten zien. Een goede tip voor hackers met slechte intenties, die ook algoritmes voor deepfakes ontwikkelen. En dat is ook het probleem met verkenningssoftware als oplossing. Het is een kat- en muisspelletje tussen de deepfakemakers en wetenschappers die neovideo's willen ontmaskeren. Alle research helpt hackers op weg, en de ontwikkelingen aan intussen steeds sneller. Overheden maken zich dan ook zorgen. In Amerika ligt een wetsvoorstel klaar. De deep fake accountability act. Het pleit onder andere voor een digitaal watermerk in gemanipuleerde content, zowel in video als geluid. Laat je het watermerk weg, dan kun je een gevangenisstraf of boete krijgen. Heeft dit voorstel enige kans van slagen? Waarschijnlijk niet. ALs je beeld kunt manipuleren op deepfakeniveau, zal een watermerk verwijderen geen grote uitdaging voor je zijn. Nederlandse wetgeving komt er waarschijnlijk niet. Deepfakes vallen nu onder vrijheid van meningsuiting en laster en worden dus hetzelfde behandeld als artikelen en foto's in de krant. Ga je te ver? Dan kun je worden vervolgd. Maar kwaadwillende makers van deepfakes zijn moeilijk op te sporen. Dus wiens verantwoordelijkheid is het? Die van onderzoekers die de software bouwen, de gebruikers ervan? Moeten grote bedrijven zoals Google en Facebook deepfakes uit onze tijdlijn filteren? We zijn gewend film en video als echt bewijs te zien van iets dat is gebeurd. Dat maakt deepfakes zo eng. Maar dat vertrouwen is nooit helemaal terecht geweest. Met een goede edit kun je iemands verhaal overtuigend verdraaien, daar komt geen AI aan te passen. Eerst zien, dan geloven is geen goede vuistregel. Eerst zien, dan nadenken, dan meerdere bronnen raadplegen en dan misschien geloven werkt veel beter.