De deepfake rukt op in porno en politiek

Nepvideo’s Een nepvideo maken is kinderspel. Het web telt 14.000 deepfakes, vooral porno, stelt een startup uit Amsterdam. Het trekt ten strijde met slimme software.

De historische aanname dat video- en audio-opnamen een betrouwbare weergave geven van de werkelijkheid kan overboord. Door deepfake-technologie – waarmee je mensen in een video alles kunt laten zeggen wat je wilt – wordt het maken van een nepvideo even gemakkelijk als liegen. En het is niet meer de vraag wanneer deze techniek op ons afkomt, het tijdperk van de deepfakes is aangebroken.

Die verontrustende conclusies trekt de Amsterdamse startup Deeptrace in een deze maandag gepubliceerd rapport. Het bedrijf onderzoekt de door kunstmatige intelligentie mogelijk gemaakte nepvideo’s sinds de opkomst van het fenomeen in 2017 en werkt aan software om echte video’s van deepfakes te onderscheiden.

Er staan ruim 14.000 deepfakes online, stelt het bedrijf. En het worden er rap meer. De startup zag een verdubbeling sinds december 2018. Een bekend voorbeeld is een video waarin Barack Obama waarschuwt voor het ‘post-truth tijdperk’. Alleen heeft hij de toespraak nooit gehouden: regisseur Jordan Peele spreekt, terwijl Obama’s lippen bewegen.

Iedereen kan het

Er zijn nauwelijks obstakels meer voor het maken van een deepfake. De gratis software om de video’s te produceren vereist slechts een snelle videokaart en enige kennis van programmeren. Of nog simpeler: er zijn onlinediensten waar je voor een paar dollar een deepfake kan bestellen. De klant levert het beeld en binnen een paar minuten valt de deepfake in je mailbox. Ook worden apps gebouwd die het maken van deepfakes vereenvoudigen. Zo werken omstreden ‘uitkleed-apps’ met deepfake-technologie: de gebruiker levert een foto, waarna de software de vrouw op de foto – de apps werken alleen bij vrouwen – zonder kleren toont.

De wereld van online pornografie heeft de techniek als eerste omarmd. Liefst 96 procent van de door Deeptrace gevonden deepfakes zijn porno – vooral video’s waarin het gezicht van een bekende actrice op het lichaam van een pornoactrice wordt geplakt. Presentator Dionne Stax werd bijvoorbeeld slachtoffer van zo’n nepseksvideo. Maar ook onbekende vrouwen hebben er steeds meer mee te maken.

Pornografische deepfakes zijn „angstaanjagend, beschamend, vernederend en leggen vrouwen het zwijgen op”, zegt de Amerikaanse cybercrime-hoogleraar Danielle Citron (Boston University) in het rapport. „Ze geven slachtoffers de boodschap dat hun lichaam niet van henzelf is.” Zij kunnen er blijvend last van houden, bijvoorbeeld bij het vinden of behouden van een baan, zegt de hoogleraar.

Deeptrace-oprichter Giorgio Patrini twijfelt er niet aan dat de techniek ook steeds vaker een rol gaat spelen in de politiek. Al is het maar omdat louter het bestaan ervan de mogelijkheid geeft de echtheid van een video in twijfel te trekken.

Hij noemt het voorbeeld van de Gabonese president Ali Bongo, die eind 2018 enkele maanden niet in het openbaar was verschenen. De regering probeerde speculaties over zijn gezondheid te ontzenuwen met een video waarin hij een nieuwjaarstoespraak gaf. Maar zijn politieke tegenstanders lanceerden de theorie, ingegeven door zijn ongewone motoriek in de video, dat het om een deepfake moest gaan. De regering zou het ziektebed of de dood van de president willen verdoezelen. De theorie had concrete gevolgen: toen een week later een couppoging werd gedaan, werd expliciet verwezen naar de vermeende videomanipulatie. Met de komst van deepfakes is ook de strijd ertegen losgebarsten. Terwijl factcheckers nepvideo’s proberen te ontmaskeren met slim speurwerk, ontwikkelen bedrijven als Deeptrace technologische detectiemethoden. Patrini vergelijkt wat zijn bedrijf doet met het maken van anti-virussoftware – alleen beschermt zijn technologie niet tegen aanvallen op computers, maar tegen aanvallen op de waarheid.

Software tegen deepfake

De software van Deeptrace speurt in video’s en foto’s naar aanwijzingen van manipulatie. Het gebruikt daarvoor dezelfde kunstmatige intelligentie die het maken van deepfakes mogelijk maak. „We trainen netwerken met grote hoeveelheden deepfakes, zodat zij gaan begrijpen welke aanwijzingen in de pixelinformatie verraden dat het om een nepvideo gaat.”

Elke camera laat een unieke vingerafdruk achter in de video, zegt Patrini, „net als de sporen op een kogel zijn te herleiden tot een specifiek wapen. „Als we die afdruk kunnen vinden en kunnen aantonen dat hij afwezig is in een gedeelte van een video, hebben we het bewijs geleverd dat hij is bewerkt.”

Patrini, eerder werkzaam bij de deep learning onderzoeksgroep van de Universiteit van Amsterdam, denkt begin volgend jaar zijn product te kunnen lanceren: een clouddienst waarop klanten een video uploaden en Deeptrace zoveel mogelijk informatie over de video terugstuurt. Hij geeft een demonstratie: het programma analyseert een video waarin het gezicht van Mr. Bean op dat van Donald Trump is geplakt. Rond het gezicht knippert al snel een rood vierkant met de tekst: ‘99% fake’. Potentiële klanten zijn nieuwsorganisaties, sociale media, internetbeveiligers en organisaties of mensen die hun onlinereputatie willen beschermen.

Patrini verwacht een wapenwedloop tussen ontwikkelaars van deepfaketechnologie en de beveiligingsbedrijven die proberen de nepvideo’s te ontmaskeren. „Deepfakes worden nu al gebouwd met het idee dat ze detectie door neurale netwerken moeten doorstaan. Het is onze taak de makers steeds een stap voor te blijven.”

Bron: Nrc.nl