Poetin die zich overgeeft of Zelensky die oproept de wapens neer te leggen. Deepfakes, meestal video’s met nepbeelden, zijn een vast onderdeel van de informatieoorlog die Rusland voert. Maar in hoeverre vormen ze ook een bedreiging voor onze samenleving? Kan je met deze nepbeelden de publieke opinie sturen? En worden deepfakes ingezet als ‘oorlogswapen’?

Een opmerkelijke video van Volodymyr Zelensky circuleert de afgelopen weken op sociale media. De Oekraïense president roept de Oekraïense soldaten op om hun wapens neer te leggen en zich over te geven aan Rusland. Op het eerste oog lijkt er niks mis met de beelden: we zien de bekende achtergrond, Zelensky’s groene trui en serieuze blik. Maar wanneer je de video kritisch bekijkt, vallen een aantal dingen op. Zijn hoofd staat in een ongemakkelijke positie en zijn stem is lager dan normaal. Het gaat hier om een deepfake video.

Deze deepfake lijkt niet veel te zijn geloofd in Oekraïne, waar het volk is gewaarschuwd voor mogelijke nepberichten van Russische kant. Zelensky heeft de video snel kunnen debunken via sociale media. Ook META en Youtube nemen actie en verwijderen de video van hun platforms.

Waarom we dit soort deepfakes toch serieus moeten nemen, legt privacy- en big data-expert Bart van der Sloot ons uit. Volgens hem zijn deepfakes een standaard onderdeel van de moderne oorlogsvoering.

Volledig gefabriceerde beelden

Het grote publiek kent deepfakes vooral van video’s met gemanipuleerde beelden van beroemdheden, zoals het filmpje met een nagemaakte Tom Cruise dat viral ging. Maar een deepfake heeft vele verschijningsvormen. ‘Deepfakes bestaan niet alleen uit beeld en geluid, maar komen ook voor in de vorm van bijvoorbeeld foto’s of satellietsignalen,’ zegt Van der Sloot. Zo kan een deepfake ook een video zijn van een bombardement dat nooit heeft plaatsgevonden. Bij een deepfake kan het gaan om beeld en geluid dat volledig is gefabriceerd, of beeld en geluid dat al bestaat en met behulp van geavanceerde AI-technieken is gemanipuleerd.

Veel deepfakes zijn lastig van echt te onderscheiden. Toch zijn ook gemakkelijk te herkennen deepfakes, zoals die van Zelensky, niet onschuldig. ‘Slecht’ gemaakte video’s beïnvloeden eveneens de publieke opinie. ‘Mensen nemen de boodschap van de video in eerste instantie aan en dat blijft vaak tóch hangen. Daarbij heeft een nepbericht een groter bereik dan een bericht waarin wordt uitgelegd dat een video nep is,’ aldus Van der Sloot. Als desinformatie in een deepfake-video wordt aangeboden, is de kans groter dat mensen deze informatie geloven en delen, dan wanneer ze dezelfde informatie lezen in een geschreven tekst, blijkt uit onderzoek.

Bart van der Sloot en zijn collega’s van Tilburg University schreven in opdracht van het Wetenschappelijk Onderzoek- en Documentatiecentrum, onderdeel van het Nederlands ministerie van Justitie en Veiligheid, een rapport over deepfakes. Ze waarschuwen daarin voor de opkomst van deepfakes.

Het huidige recht legt niet de ontwikkeling en het aanbieden van deepfakes aan banden, maar alleen het gebruik daarvan voor specifieke doeleinden. De onderzoekers stellen ook vast dat de handhaving van bestaande regels achter blijft. Ze beschrijven een aantal reguleringsopties. Een daarvan is om het produceren, aanbieden, gebruiken en in bezit hebben van deepfake-technologie helemaal te verbieden voor de consumentenmarkt.

Een brede politieke en maatschappelijke discussie omtrent de wenselijkheid van deepfakes is noodzakelijk, volgens het rapport. De media kunnen op termijn in de knel komen omdat dan veel digitaal materiaal gemanipuleerd is. Zij zullen moeten kiezen tussen snel publiceren, met het risico om fakenews te brengen. Of media moeten wachten met publicatie tot het materiaal op waarheidsgetrouwheid is gecontroleerd. De laatste optie zal veel technische expertise en kosten met zich meebrengen. Ook zal het publicatiemoment met dagen worden vertraagd.

Lees het rapport 'Deepfakes kunnen op termijn de samenleving ontwrichten' hier

 

Relatief weinig politieke deepfakes

Op dit moment wordt deepfake-technologie vooral gebruikt in de pornowereld. Meer dan 95% van de deepfakes heeft een pornografische inhoud. Denk aan een beroemdheid wiens gezicht op een porno-actrice is geplakt zonder toestemming. Vooral vrouwen zijn slachtoffer van deze nepvideo’s. Van der Sloot: ‘Het klopt dat slechts een klein deel van de deepfakes politiek van aard is. Maar dan nog kan dat een heel groot aantal zijn en het aantal zal alleen maar groeien de komende jaren. De impact op persoonlijk, politiek en democratisch niveau is enorm.’

Van der Sloot denkt dat deepfakes het vertrouwen in democratische instituties kunnen aantasten of zelfs de uitkomst van verkiezingen kunnen beïnvloeden. Als voorbeeld geeft hij de satirische deepfake video met daarin voormalig Italiaanse minister president Matteo Renzi. Het fragment is oorspronkelijk onderdeel van een tv-show. De video wordt online door veel mensen voor echt aangezien. ‘Wij hebben een aantal mensen gesproken uit Italië. Ze gaven aan dat deze deepfake door velen is geloofd, met als gevolg dat zij anders over Renzi zijn gaan denken,’ vertelt Van der Sloot.

In 2019 zorgt het vermóéden dat een video een deepfake is voor onrust in Gabon. Wanneer de president van het land sinds oktober niet meer in het openbaar is gezien, ontstaat er twijfel over zijn welzijn. Sommigen denken dat hij dood is. Om het volk gerust te stellen, deelt de overheid een video van de president waarin hij oproept niet bezorgd te zijn. Al snel gaat het gerucht rond dat de video een deepfake is, terwijl dat niet het geval is. Daardoor, en door de grote hoeveelheid overige desinformatie, wordt de politieke onrust in het land groter en komt er een poging tot een staatsgreep. Alleen het idéé al dat een video tegenwoordig mogelijk nep kan zijn, heeft hier grote gevolgen.

 

Journalist Rana Ayyub uit India werd slachtoffer van een seksuele lastercampagne. Ayyub kreeg op sociale media al veel haat vanwege haar islamitische achtergrond en onderzoeksjournalistieke werk waarin ze kritisch is op een van de twee belangrijkste hindoenationalistische politieke partijen in India. Op een dag krijgt ze via WhatsApp een bericht doorgestuurd met daarin een pornovideo waarin ze zelf zou zitten, een deepfake. De video wordt razendsnel rondgestuurd en heeft voor haar grote gevolgen.

Naast deepfakes worden er online andere vormen van beeldmanipulatie gebruikt. In deze video zijn beelden van Nancy Pelosi verknipt en vertraagd, waardoor ze verward en dronken lijkt. ‘De video van Pelosi kan misschien geen deepfake genoemd worden, maar is wel een vorm van desinformatie,’ zegt Van der Sloot.

Een feitenvrije wereld

Deepfakes en polarisatie gaan hand in hand, schrijft Europol. Individuele belevingswerelden komen steeds verder van elkaar te staan. Het geloof in een collectieve waarheid neemt steeds verder af. Deepfake desinformatie past naadloos in het post-truth tijdperk, volgens Van der Sloot. ‘Meningen worden belangrijker dan feiten en steeds meer groepen leven in hun eigen bubbel en waarheid.’

In tijden van oorlog, zoals nu in Oekraine, hebben deepfakes nog meer impact. Mensen in stressvolle situaties hebben een korte aandachtsspanne. Wanneer ze een deepfake zien, benaderen ze de beelden minder rationeel, volgens Siwei Lyu van de University at Albany tegen CTV News.

Polarisatie is niet het enige gevolg van deepfakes, zegt Van der Sloot. ‘Sommige mensen die in een deepfake trappen, gaan overal aan twijfelen. Ze hebben het gevoel dat alles een deepfake kan zijn. Ze wantrouwen daardoor bijvoorbeeld ook traditionele media, zoals de NOS. Ik denk dat Rusland daarop uit is. Een feitenvrije wereld waarin we alle media wantrouwen.’

Europol waarschuwt in het eerdergenoemde rapport ook voor afbreuk van vertrouwen in nieuws en informatie, en verwarring over feiten en meningen. Alleen al het bestaan van deepfakes, herkenbaar of onherkenbaar, voedt het wantrouwen in elke vorm van informatie, zoals uit het eerdergenoemde voorbeeld in Gabon blijkt. Ook verschillende onderzoeksrapporten concluderen dat het wantrouwen in media door deepfakes toeneemt, zoals deze en deze.

"Ik denk dat Rusland uit is op een feitenvrije wereld waarin we alle media wantrouwen."

privacy- en big data-expert Bart van der Sloot

Technologie als oorlogswapen

Niet alleen hebben deepfakes meer impact tijdens een oorlog, ze nemen waarschijnlijk ook in aantal toe als onderdeel van de informatieoorlog. De technologie biedt veel mogelijkheden om krijgsmacht en burgers in verwarring te brengen. De mogelijkheden van deze technologie als oorlogswapen zijn eindeloos. Zo kan een deepfake met een leidinggevende officier neporders aan troepen geven, een politiek leider zich zogenaamd overgeven of het idee de wereld in worden gebracht dat een commandant samenzweert met de vijand. ‘Je zaait zo veel verwarring. Als je deze deepfakes overtuigend kan maken, richt je veel schade achter de linies bij vijandelijke troepen aan. Zelfs al gelooft maar 10% de video. Het is naar mijn mening veel effectiever dan terugschieten met raketten,’ zegt Van der Sloot.

Deepfakes zijn nu al onderdeel van het wapenarsenaal van Rusland, denkt Van der Sloot. ‘Rusland is er veel mee bezig maar ook andere overheden kijken ernaar. Je moet daar niet naïef in zijn. Westerse landen zullen moeten investeren om deepfakes te bestrijden.’ Het onderzoeksdepartement van het Amerikaanse leger investeerde al miljoenen in de ontwikkeling van AI-technologie die deepfakes moet herkennen. Toch filtert de beste detectiesoftware op dit moment slechts 65% van de deepfakes eruit.

Sociale media en deepfakes

Video’s verspreiden zich razendsnel op sociale media. Het is daardoor voor factcheckers lastig om deepfakes vlot te debunken. Ze lopen constant achter de feiten aan, blijkt uit een rapport van Europol. Daarbij kunnen deepfakes op sociale media worden gedeeld onder specifieke doelgroepen. Zo sluit de inhoud van de deepfake al aan bij het referentiekader van de kijker, en wordt de video sneller aangenomen als waar, blijkt uit onderzoek.

In de toekomst is 90% gemanipuleerd

In het rapport over deepfakes voorspellen experts dat over zes jaar meer dan 90% van de online content ‘in een of andere vorm’ gemanipuleerd is. Het gaat daarbij niet alleen om deepfakes, maar ook om minder ingrijpende manipulaties zoals videoservices met ingebouwde tools die huidtinten egaliseren en audioservices die hoge tonen automatisch weg filteren.

Échte goede deepfakes, die mogelijk schadelijk zijn, haal je er niet uit en dat is een probleem, zegt Van der Sloot. Daarbij neemt de schaal toe. ‘Je creëert straks in twee uur tijd een complete digitale omgeving rond een nepfilmpje om het geloofwaardiger te maken. Denk aan een nep-NOS Journaal dat verslag doet van de video, blogs waarop de video wordt besproken, tweets, memes, noem maar op.’

De techniek wordt steeds geavanceerder én steeds toegankelijker. Op de consumentenmarkt wordt de techniek al gebruikt, zoals in FaceApp en filters op Instagram. Van der Sloot: ‘Over vier of vijf jaar heeft iedereen een app waarmee je binnen een minuut een deepfake maakt.’ Ingewikkelde software is dan niet meer nodig. ‘Als er straks extreem veel nepmateriaal is, ben je te laat met ingrijpen. Bewust zijn van het bestaan van een deepfake is niet genoeg.’