Manipulatie van video en audio is nu zo geavanceerd dat je Trump of Rutte alles kunt laten zeggen wat je wilt. Zonder systemen voor detectie en ontmaskering vormt zulk deep fake news een enorme bedreiging.

Eindelijk spreekt Barack Obama zich zonder meel in de mond uit over zijn opvolger. Hij kijkt recht in de camera en zegt luid en duidelijk: ‘President Trump is a total and complete dipshit.’ Maar ... zo te zien zegt hij dit vanuit het Oval Office, de werkkamer van de president. Hoe kan Obama dat gezegd hebben terwijl hij zelf nog president was?

Zo valt de uitzending van Tegenlicht over deep fake news met de deur in huis: deze technologie zal weldra binnen bereik zijn van talloze anonieme bloggers en trollen op Facebook. Wat doet dat met de maatschappij en de burger, als je niets en niemand in de media nog kunt vertrouwen?  

Deep fake is het volgende niveau in het manipuleren van video en audio, met dank aan zelflerende netwerken. Als je dertig seconden goede kwaliteit geluidsmateriaal hebt van iemand, kun je die persoon alles laten zeggen wat je wilt. Daarin zitten namelijk alle klanken die iemand gebruikt. Een computer kan daaruit een willekeurige gesproken tekst samenstellen, met de stem van die persoon.

Om in een video het gezicht van persoon A te vervangen door dat van persoon B is meer nodig, onder andere de inzet van neurale deep-learning-netwerken. Een neuraal netwerk is een stuk software waarvan de werking lijkt op hoe onze hersencellen communiceren en nieuwe taken leren.

In de trainingsfase destilleert deze software uit honderden beelden van het gezicht van A, respectievelijk B, ieders gezichtskenmerken. Eerst leert het netwerk alleen maar om, met als input een videobeeld waar A in voorkomt, op basis van de gezichtskenmerken van A een gezicht van A te reconstrueren (en hetzelfde voor B). Dat lijkt een zinloze exercitie: een zeer omslachtige manier om een kopie van een gezicht te maken.  

Maar de truc is, dat je dit netwerk nu ook een gezicht van A kunt laten reconstrueren met als input een videobeeld waar B in voorkomt. Met andere woorden: het gezicht van B in de video wordt vervangen door het gezicht van A.

Detecteren

Het trainen van zo’n deep-learning-netwerk is tegenwoordig op een PC in een paar dagen te doen. Zo kwam het levensechte hoofd van een Hollywoodfilmster terecht op het lichaam van een pornoactrice in actie. Bij Obama werden alleen de mond en het gemanipuleerde stemgeluid in een authentieke opname van een van zijn toespraken geplakt. Het is na de trainingsfase van het deep-learning-netwerk zelfs al mogelijk om dit in realtime te doen: je verandert Obama dan in een buikspreekpop die zegt wat jij op dat moment verzint.

Computerwetenschapper Theo Gevers, die ook in de uitzending van VPRO Tegenlicht zit, werkt aan het vervolmaken van deep-fake-technologie. Maar hij heeft ook als doel het beter te kunnen detecteren. Gevers: ‘Diverse methodes om deep-fake-video’s te maken hebben elk hun eigen zwakheden. Zo is vaak het schaduwpatroon van het gezicht niet consistent met de rest van het beeld. Verder is de dynamiek rond de ogen nog niet realistisch, en is de mond niet echt scherp.’

Ook kloppen de bewegingen van de handen meestal niet met de expressie van het gezicht en met wat er gezegd wordt, omdat alles behalve het gezicht ongewijzigd wordt overgenomen in de deep-fake-video. In principe kunnen al deze aspecten ook meegenomen worden in deep fake, maar dit betekent dat je veel meer videotrainingsmateriaal en computerkracht nodig hebt.

Gevers: ‘In die wedloop zitten we nu. Begin volgend jaar komen we met een plug-in voor webbrowsers, die op deze manieren deep-fake-video’s detecteert.’ Die eerste versie zal gratis te downloaden zijn. ‘De verdere ontwikkeling zal op basis van donaties gaan: mensen kunnen doneren zodat we de module verder kunnen ontwikkelen en vooral, up-to-date houden.’  

(artikel loopt door onder afbeelding)

Blockchain

Detectie van deep-fake-video’s gebeurt aan het eind van de mediapijplijn. Bij filmpjes van anonieme vloggers kan dat niet anders. Maar met professioneel video- en audiomateriaal kun je deep fake al aan het begin van de pijplijn uitsluiten. Als alle opnames van cnn, het Journaal en andere ‘officiële’ nieuwsbronnen van een digitaal watermerk met tijdcode worden voorzien en gekoppeld aan een openbare blockchain, kan niemand er nog mee knoeien zonder dat er overal alarmbellen af gaan.

Een blockchain is een systeem om de integriteit te waarborgen van elk digitaal bestand dat aan die blockchain wordt gekoppeld. Hiervoor is het niet nodig om die bestanden zelf te uploaden naar een database; alleen een kort integriteitskenmerk van elk bestand – de hashcode – zit in de blockchain. Dit wordt een chain (ketting) genoemd, omdat elke nieuwe hashcode in de blockchain ook waarborgt dat met alle eerder toegevoegde hashcodes niet geknoeid is.

Vooruitzichten

Met dergelijke cryptografische slimmig­heden kun je zo in principe een waterdicht systeem opzetten, waarbij achteraf altijd bron, tijdstip en authenticiteit van een opname te controleren zijn. Helaas kan zelfs een vrij klunzige deep-fake-video op sociale media al enorme schade aanrichten voordat deze ontmaskerd wordt. En bovendien: hoeveel mensen zullen geloven in een ontmaskering die gebaseerd is op zoiets technisch als een hash­code in een blokchain?

Voor de meesten komt het toch weer neer op het al of niet vertrouwen van specialisten. En dan zijn de vooruitzichten somber. Brede lagen van de bevolking leven nu al in een schemerzone van de realiteit: alles in de media wat niet overeenkomt met hun vooroordelen wordt gebrandmerkt als msm (mainstream­media), en is daarmee afgedaan als gemanipuleerd of gelogen.

Het gemeengoed worden van deep-fake-technologie is daarom ook voor authentieke video’s funest. De hoofdrolspeler in een incriminerende video kan nu immers altijd beweren dat het deep fake news is, en diens volgelingen zullen dat maar al te graag geloven.

VPRO Tegenlicht Meet Up ’Deep Fake News’, woensdag 21 november om 20.00 uur in Pakhuis de Zwijger, Amsterdam. Met onder anderen regisseur Nordin Lasfar en socioloog en fake news-onderzoeker Jaron Harambam. Toegang gratis, reserveren op dezwijger.nl/tegenlicht