Begin deze maand voelde De Tweede Kamer Big Tech-bedrijven Meta en YouTube stevig aan de tand. Dat verliep zo.

De Tweede Kamer bereidt zich voor op een nieuw digitaal tijdperk. In een reeks gesprekken en hoorzittingen sprak de Kamer begin deze maand met experts uit de tech-wereld.

En belangrijker: ook woordvoerders van Meta en Youtube waren aanwezig om zich te verantwoorden. Eenduidige antwoorden kwamen er niet. Er was vooral tegenspraak. En frustratie.

Frances Haugen

Facebook-klokkenluider

Frances Haugen werkte twee jaar bij Facebook. Hier was ze onderdeel van een team dat zich inzet tegen nepnieuws en andere dreigingen voor de democratie. Ze maakte zich steeds meer zorgen over hoe het bedrijf winst boven publieke veiligheid en welzijn plaatst. Na haar vertrek besloot ze interne documenten te lekken, omdat Facebook volgens haar niet openstond voor verandering.

Edo Haveman

Lobbyist voor Meta Benelux

Van 2016 tot eind 2019 was Edo Haveman hoofd openbaar beleid van Meta in Nederland. Sinds oktober 2019 bekleedt hij deze functie voor de Benelux. Als voormalig fractiemedewerker van D66 is Den Haag geen onbekend terrein voor Haveman. In 2019 was hij ook al eens namens Meta (toen Facebook) te gast in de Tweede Kamer.

Marco Pancini

Lobbyist voor YouTube EU

Marco Pancini is al sinds 2007 werkzaam voor Google. In 2018 start hij met zijn huidige functie bij YouTube. In 2019 moest hij zich namens YouTube komen verantwoorden voor het Britse parlement. Ook toen moest hij uitleg geven over YouTube's rol in radicalisering.

Megafoon of spiegel?

Facebook-klokkenluider Frances Haugen is er tijdens het eerste gesprek op 10 februari duidelijk over. Facebook, omgedoopt tot Meta, verkiest winst boven het welzijn van de gebruikers. Het gaat Facebook niet om het bieden van een kwalitatieve ervaring. Het bedrijf wil gebruikers zo lang mogelijk op het platform te houden. Hoe langer gebruikers blijven hangen, hoe meer winst.

Vandaar dat Facebook rond 2018 het besluit neemt om met het newsfeed-algoritme voorrang te geven aan inhoud waarvan het zeer waarschijnlijk is dat een gebruiker er iets mee doet, zoals erop reageren of het delen. Maar wat blijkt, het soort inhoud dat tot de meeste (re)acties leidt, is overweldigend polariserend en radicaliserend.

Door hun focus op winst zijn platforms zoals Facebook een ‘megafoon’ geworden voor extreme inhoud, stelt Haugen. Ook al worden er veel genuanceerde, lieve, dingen gepost, het algoritme zorgt ervoor dat de meest extreme inhoud voorrang krijgt.

‘Het beeld dat platforms als Meta een versterkend effect op radicalisering hebben, herken ik niet’

Edo Haveman, lobbyist voor Meta in de Benelux, wordt de volgende dag door Danai van Weerdenburg (PVV) geconfronteerd met het beeld van Facebook als megafoon. Haveman reageert ontkennend. ‘Het beeld dat platforms als Meta een versterkend effect op radicalisering hebben, herken ik niet.’ Volgens Haveman is de maatschappij verdeeld en vindt dat logischerwijs zijn weerspiegeling in het online discours. Een spiegel dus, geen megafoon. Het probleem ligt niet bij het algoritme, maar in de maatschappij.

Marco Pancini, lobbyist voor YouTube in de EU, voert die dag dezelfde verdediging. Kamerlid Lisa van Ginneken (D66) vertelt over een experiment dat zij met collega’s uitvoerde naar het zogenaamde ‘rabbit hole’ effect op YouTube. Gebruikers worden via aanbevelingen naar steeds extremere content geloodst. Ook Van Ginneken en haar collega’s ondervonden dit. De reactie van Pancini is kort. ‘Ik laat graag een van onze experts uw ervaring beoordelen.’

Zowel Meta als Youtube stellen dat het vanuit bedrijfsmatig oogpunt helemaal niet in hun belang is om extreme content te gedogen, laat staan voorrang te geven. Veiligheid en welzijn liggen ten grondslag aan hun businessmodel. ‘Als mensen zich niet veilig voelen, zullen ze ons platform niet gebruiken en niet terug komen. En adverteerders willen niet dat hun merken en producten worden weergegeven naast extreme en hatelijke inhoud, daar zijn ze altijd heel duidelijk over geweest,’ vertelt Haveman. Pancini geeft opnieuw een identiek verweer. 

'Maak mensen binnen grote techbedrijven individueel verantwoordelijk. Laat ze diep adem halen voordat ze een beslissing maken'

Wat zijn de oplossingen?

Volgens Haugen moet de interne werking van de platforms anders. Niet achteraf de content monitoren, maar mechanismen inbouwen die ervoor zorgen dat extreme inhoud minder prominent wordt.

De klokkenluider noemt Twitter als voorbeeld. Dat platform voerde al eerder een verandering door die gebruikers dwingt een link eerst aan te klikken voordat ze deze mogen delen. Als ze een bericht willen delen buiten de eigen contacten, moeten gebruikers het zelfs opnieuw schrijven. In plaats van gebruikers aanzetten tot zoveel mogelijk (impulsieve) acties, stimuleert dit reflectie.

Maar waarom zouden techbedrijven reflectie stimuleren als het ingaat tegen maximale winst? Hier kunnen overheden een rol spelen. Haugen vertelt dat er veel ‘gewetensvolle, vriendelijke mensen werken binnen Facebook die met creatieve en interessante oplossingen komen.’

Zij krijgen geen ruimte om te handelen, omdat alleen geldzaken extern worden gerapporteerd. Haugen moedigt verplichte risicobeoordelingen aan die focussen op andere factoren dan winst en verlies. Voer verplichte rapporten in die gaan over welzijn, over ethische kwesties. ‘Dan is het opeens in het belang van Facebook om een klein deel van hun winst te in te leveren als dit ervoor zorgt dat de risico-cijfers er beter uitzien.’

Ook is ze voorstander van individuele verantwoordelijkheid. Techbedrijven moeten een naam doorgeven bij elke grote verandering die wordt doorgevoerd, of bij elke verandering die meer dan honderd miljoen mensen treft. ‘Dit zou ervoor zorgen dat ze nog een keer diep ademhalen voordat ze een beslissing maken.’

'Het voelt voor mij een beetje alsof u zegt ‘hier heb je een doosje pleisters’, terwijl wij denken ‘er is een slagaderlijke bloeding.’'

Slagaderlijke bloeding

Haveman en Pancini ontkennen dat hun platformen een actieve rol spelen in radicalisering en polarisering. Volgens de lobbyisten is er dan ook geen fundamentele verandering nodig. Beide heren komen met verhalen over meer inzet op fact-checking en verdere investeringen in kunstmatige intelligentie voor het opsporen en verwijderen van extreme inhoud. Geen preventie dus, maar achteraf de inhoud monitoren.

De Kamerleden zijn soms zichtbaar verward tijdens de verhalen van de vertegenwoordigers van Meta en Youtube. Frustratie lijkt te overheersen. Van Ginneken (D66) noemt het verhaal van Meta-woordvoerder Haveman schizofreen. ‘In de kern werkt het platform radicalisering in de hand. U noemt tegelijkertijd allemaal maatregelen die dat effect moeten dempen. Dat voelt voor mij een beetje alsof u zegt: ‘hier heb je een doosje pleisters’, terwijl wij denken “er is een slagaderlijke bloeding”.’ 

20 jaar toekomst verkennen met tegenlicht

Dit online archief gebruikt kunstmatige intelligentie om meer dan 500 uitzendingen gemaakt sinds 2002 op nieuwe manieren beschikbaar en doorzoekbaar te maken. Zoek naar specifieke fragmenten, citaten en zelfs losse shots.