Bij deepfakes denk je al gauw aan filmpjes van Obama of Trump. Maar bijna alle deepfakes zijn pornovideo’s. Wetten die -voornamelijk- vrouwen hiertegen moeten beschermen, zitten boordevol gaten en vooroordelen. Tijd voor een herziening?

Lang voordat deepfakes een rechtsstaat zullen ontwrichten, schaden ze nu al de privacy, reputatie, en seksuele autonomie van duizenden vrouwen. 96 procent van de toepassingen van dit soort AI-videomanipulatie, vindt namelijk plaats in de internetpornografie, blijkt uit een rapport van Sensity. De gezichten van pornoactrices worden vervangen door de gezichten van andere vrouwen zonder dat zij daarvoor toestemming hebben gegeven. Het zijn lang niet altijd beroemdheden, maar ook vrouwen in hoge ambtsfuncties, of doodgewone vrouwen.

Een nieuwe vorm van seksueel misbruik, die met de democratisering van deepfake-software steeds vaker voor komt. En de wet is er amper op voorbereid.

Wraakporno is niet de juiste term

Marthe Goudsmit doet aan de Universiteit van Oxford promotieonderzoek naar image-based sexual abuse: seksueel misbruik middels beeldmateriaal. Die term gebruikt ze voor iets dat vaak ‘wraakpornografie’ wordt genoemd.’ Dat is bijvoorbeeld het lekken van naaktfoto’s die mensen in vertrouwen met elkaar uitwisselen. Met de term 'wraakporno' zijn veel dingen mis, vindt Goudsmit. ‘Volgens mij is ‘pornografie’ altijd bedoeld voor publicatie, omdat het zich richt op een publiek. Terwijl zulke beelden juist niet bedoeld zijn voor publicatie.’ Ook suggereert de term dat de dader uit wraak handelt, terwijl dat in veel gevallen niet aan de orde is.

De term image-based sexual abuse dekt bovendien meer lading. Het gaat in definitie over het opnemen en/of publiceren van seksueel beeldmateriaal zonder toestemming van degene die daarop staat. Daaronder vallen dus ook voyeuristische filmpjes (iemand die bijvoorbeeld stiekem in een sauna filmt) en deepfake pornografie.

Vooroordelen: victim blaming en slut shaming

Maar de strafbaarstelling van image-based sexual abuse blijft vaak na, vertelt Goudsmit. Voyeurisme is doorgaans goed strafbaar gesteld, omdat die foto’s en filmpjes zonder toestemming zijn gemaakt. Bij andere naaktfoto’s en -filmpjes heeft het slachtoffer wel toestemming gegeven voor het maken ervan. ‘De wetgever wekt nog te vaak de indruk dat in dat geval het verspreiden van het beeldmateriaal ook je eigen schuld is.’

Dat wijt Goudsmit aan hardnekkige vooroordelen die zowel binnen als buiten de rechtszaal bestaan. Voordat er een specifieke strafbaarstelling was voor wraakporno, werd dit in Nederland soms vervolgd onder ‘smaad en laster’. Maar Goudsmit vindt dit zeer storend. ‘Bij smaad en laster moet de dader iemand beschuldigd hebben van iets dat de eer en goede naam van het slachtoffer aantast. Maar dat mensen naaktfoto’s van zichzelf uitwisselen of überhaupt hebben, is niet ‘smadelijk’.’ 

Volgens Goudsmit hebben wetgevers te lang gewacht met erkennen dat je seksueel uiten via nieuwe technologieën geen exhibitionisme is, maar juist een vorm van intimiteit. ‘Met zo’n aanklacht is de houding naar het slachtoffer alsof diegene iets heeft gedaan dat niet hoort. Ik denk dat dat een combinatie is van victim blaming en slut shaming.’

Misogyne technologie

Het wordt steeds meer erkend dat image-based sexual abuse, in de breedste zin, een vorm van geweld tegen vrouwen is, stelt Goudsmit. Dat betekent niet dat het mannen niet overkomt, maar wel dat genderstereotypen een grote rol spelen.

Afgelopen zomer ontdekte Sensity dat via Telegram een bot werd verspreid die foto’s ‘uitkleedt’. Het werkt zo: je stuurt de bot een foto van iemand, en binnen minuten ontvang je een naaktfoto van diezelfde persoon. De bot was tegen die tijd al op 100,000 vrouwen toegepast, waarvan het grootste deel uit de directe omgeving van de gebruiker.

Goudsmit noemt het ‘misogyne technologie’. Want: ‘het grootste deel van die software is alleen geschikt om vrouwen uit te kleden. Niet omdat het niet kan met mannen. Die algoritmes worden simpelweg niet getraind op naakte mannen. Ze hebben te weinig informatie om een man te ontkleden. Maar genoeg voor een vrouw.’

'Die algoritmes worden simpelweg niet getraind op naakte mannen.'

Deepfakeporno als zedendelict

Überhaupt zijn er wereldwijd minder dan twintig landen die image-based sexual abuse strafbaar hebben gesteld. De Nederlandse wet die slachtoffers van dit soort misdrijven moet bijstaan, is er pas sinds januari vorig jaar. Artikel 139h in het Wetboek van Strafrecht legt een maximale gevangenisstraf van een jaar op aan ‘hij die opzettelijk en wederrechtelijk van een persoon een afbeelding van seksuele aard vervaardigt’ of deze in bezit heeft. Daar kan twee jaar bij komen als hij die openbaar maakt terwijl hij weet dat die onrechtmatig verkregen is of dat ‘die openbaarmaking nadelig voor die persoon kan zijn.’ Goudsmit denkt dat deze wet wel wat ruimte biedt voor het omvatten van deepfakes, ‘maar het is nog de vraag of ze daar inderdaad onder vallen.’ 

In het wetboek valt artikel 139h in de categorie ‘misdrijf tegen de openbare orde.’ ‘Dat is echt heel fout,’ zegt Goudsmit. ‘Image-based sexual abuse is een inbreuk op de seksuele autonomie van het slachtoffer en zou dus als seksueel misdrijf moeten gelden. Die wet moet verplaatst worden naar de goede plek, zodat hij in de wet onder zedenmisdrijven valt.’ Daardoor wordt de ernst van het misdrijf beter erkend, en dat is eerlijker voor de samenleving en het slachtoffer.

Dat het niets verandert aan de strafbaarstelling, maakt volgens Goudsmit niet uit. ‘Erkenning dat het gaat om een zedendelict, maakt ook voor een politieagent die voor het eerst zo’n aangifte behandelt duidelijker waar hij mee te maken heeft. En misschien maakt dat wel iets uit voor hoe die dat slachtoffer benadert.’

Reputatie is identiteit

In haar onderzoek kwam Goudsmit erachter dat het bij deepfake pornografie eigenlijk voor het slachtoffer niet uitmaakt dat het nep is. ‘Je wordt gezien op een manier waarop je niet gezien wilt worden, en dat tast aan hoe jij jezelf naar de buitenwereld kunt verhouden. Iets als reputatie lijkt heel oppervlakkig, maar zeker als het gaat om seksualiteit is reputatie nauw verbonden aan je identiteit. Als je daarin wordt aangetast omdat iemand jou op een seksuele manier weergeeft, kan dat heel schadelijk zijn. Ook als jij dat niet bent. Vooral als het niet van echt te onderscheiden valt.’ 

‘Als iedereen denkt dat jij dat bent, dan is het net alsof jij dat bent.’ Het enige verschil met voyeurisme, is dat er voor deepfake pornografie geen inbreuk in de privésfeer nodig is. ‘Maar dat betekent niet dat er geen schending is van de seksuele autonomie,’ zegt Goudsmit. ‘Ik zou het een fout vinden om op basis van dat verschil een groot onderscheid te maken tussen seksuele deepfakes en echte foto’s of beeldmateriaal. Of de rechter dat met mij eens gaat zijn is nog onduidelijk. Er is namelijk nog geen rechtszaak geweest die dit behandelt, en het staat niet in de toelichting op de wet.’

'Het maakt niet uit of het echt of nep is. Als iedereen denkt dat jij dat bent, dan is het net alsof jij dat bent.’

De rol van platforms

Uit het onderzoek van Sensity eind 2019 bleek dat toen al 8 op de 10 grootste pornowebsites deepfake video’s online hadden staan. Hoewel grote platforms zoals Pornhub, Reddit, Twitter en Discord al in 2018 hebben gezegd zulke video’s niet toe te staan, zijn er ontelbare andere mogelijkheden om het beeldmateriaal te verspreiden. 94 procent van alle deepfakepornografie werd in 2019 verspreid via websites die speciaal zijn toegewijd aan dit soort inhoud. Al deze websites staan boordevol advertenties, wat betekent dat het een lucratief businessmodel is.

De platforms waarop zulke onvrijwillige beelden -echt of nep- worden verspreid, moeten van Goudsmit verantwoordelijk gehouden kunnen worden. Evenals de mensen die het beeldmateriaal onderling verspreiden kan hen ‘tweedegraads daderschap’ aangerekend worden. ‘Ze faciliteren seksueel misbruik en halen daar winst uit. Dat is human trafficking. Daar zitten we al bovenop als het gaat om minderjarige slachtoffers. Waarom niet ook met volwassenen?’

Omdat platforms zich kunnen verschuilen achter hun rol als bemiddelaar, is het lastig om ze verantwoordelijk te houden voor image-based sexual abuse. ‘Als je alleen maar de eerste dader strafbaar stelt, maar vervolgens kan die foto wel overal voortbestaan, word je als slachtoffer gewoon de rest van je leven opnieuw slachtoffer. Dan hoeft het allang niet meer die eerste dader te zijn die het verspreidt. In Nederland zou een individu die het verder verspreidt wel onder de strafwet 139h kunnen vallen. Maar een platform dat alleen faciliteert misschien niet.’

De rol van ons

Dat slachtoffers lang achterna gezeten worden met beeldmateriaal is inherent te wijten aan de onuitwisbaarheid van alles op het internet. In 2014 gebeurde er iets wat inmiddels bekendstaat als ‘The Fappening’. Door een cyberaanval op iCloud kwamen hackers in het bezit van een enorme collectie privéfoto's van 137 mensen, waaronder beroemdheden als Jennifer Lawrence en Kate Upton. Deze foto’s, waarop sommigen naakt stonden afgebeeld, verspreidden de hackers via allerlei sociale media. Tot op de dag van vandaag zwerven de foto’s rond op het web.

Het was deze gebeurtenis die het onderzoek van Goudsmit in gang zette. ‘Voor mijn gevoel had iedereen in mijn omgeving die foto’s gezien. Ik kon niet goed uitleggen waarom ik vond dat je er niet naar mocht kijken. Wat ik veel hoorde was dat iemand het toch niet merkt dat je ernaar gekeken hebt. Maar de schade ontstaat juist doordat iedereen kijkt, terwijl niemand zich persoonlijk verantwoordelijk voelt.’

Wetten en platforms kunnen image-based sexual abuse niet honderd procent aanpakken. Een culturele omschakeling in de houding naar zulk beeldmateriaal kan slachtoffers ook helpen. ‘Als we met zijn allen niet kijken, dan blijft de schade voor het slachtoffer veel beperkter. Misschien is dat niet helemaal realistisch. Maar je moet als publiek niet je eigen verantwoordelijkheid ontkennen.’

'Iedereen kijkt, terwijl niemand zich verantwoordelijk voelt'

Het wordt erger voordat het beter wordt

Is er een lichtpuntje? ‘Wat we nu nog wraakpornografie noemen wordt als probleem steeds serieuzer genomen. Dat hebben we onder andere - helaas - te danken aan het incident uit 2014. Omdat het toen zo uit de hand liep. Ik vrees dat voor deepfakes iets soortgelijks nodig is. Het moet eerst heel erg uit de hand lopen, om te signaleren naar de wetgever dat we hier iets aan moeten doen.’

Bij de iCloud-hack kwamen er ook foto’s vrij van zangeres Ariana Grande. Zij ontkende dat die foto’s echt waren. Een mogelijk toekomstscenario is dat op een gegeven moment deepfakes zo alomtegenwoordig zijn, dat we ze niet meer zo serieus nemen. ‘Misschien wordt het dan ook niet meer zinvol om dit aan te pakken. Toch denk ik niet dat het een goed idee is om dan maar heel veel deepfakes te gaan maken.’