Lieve CEO

Harrie van de Vlag & Paulien van Slingerland (TNO) en Linnet Taylor (Stichting Gr1p)

"Een sterkere emotionele verbinding betekent een hogere waarde, zowel voor bedrijven als consumenten." [TNO]

Voor Lieve CEO koppelde Stichting Gr1p op verzoek van het VPRO Medialab enkele van de meest prominente denkers van het moment aan vertegenwoordigers van bedrijven en de overheid om te debatteren over wearables en media. Samen zoeken zij in een briefwisseling de ruwe randen op van wearable technologie en leggen de meest prangende controverses bloot.

Het is aan u, als lezer, om op basis van deze betogen uw positie ten opzichte van wearable technologie in te nemen.

in deze conversatie

Linnet Taylor schrijft voor Stichting Gr1p en is researcher op het gebied van informatierecht, datagedreven ontwikkeling en beleid. Linnet schrijft met Harrie van de Vlag en Paulien van Slingerland, beiden Data Science Consultants bij TNO

Harrie van de Vlag & Paulien van Slingerland

Donderdag 28-09-2017 17:40

Beste Linnet,

We schrijven je om een nieuwe trend in de data-wetenschap te bespreken: "affective computing".

Emoties en relaties zijn al langer belangrijk in onze economie. Mensen kopen geen kaartje voor een concert, maar voor een onvergetelijke avond met vrienden. Mensen zoeken niet naar een nieuwe baan, maar naar een positie in een organisatie met een missie die bij hun wereldbeeld en hun principes past.

Een sterkere emotionele verbinding betekent een hogere waarde, zowel voor bedrijven als consumenten. Daarom onderzoeken we bij TNO hoe affective states — emoties dus — kunnen worden geïnterpreteerd met gebruikmaking van wearables die kenmerken vastleggen als hartritme, hersenactiviteit (EEG), huidgeleiding (zweet), etcetera.

Uitgangspunt voor ons onderzoek was een vraag van Arnon Grunberg, die wel eens wilde weten hoe zijn lezers zich voelen tijdens het lezen van zijn boeken. Voor dat doel hebben we een onderzoek gehouden in een gecontroleerde omgeving met 200 vrijwillige deelnemers. Om deze technolgie het lab uit en het veld in te krijgen, werken TNO, Effenaar Smart Venue en sofware-ontwikkelaar Eagle Science samen aan nieuwe prototypes van toepassingen die zijn gebaseerd op emotiemetingen.

Het eerste prototype wordt gedemonstreerd tijdens de Dutch Design Week 2017 (21 tot 29 oktober). Samen met Studio Nick Verstand presenteren we daar het audiovisuele kunstwerk AURA, een installatie die emoties weergeeft als organische, pulserende lichtcomposities, die veranderen van vorm, kleur en intensiteit.

Uiteindelijk kan deze technologie bijvoorbeeld worden gebruikt voor de ontwikkeling van nieuwe vormen van marktonderzoek, die het bedrijven mogelijk maken om de emotionele ervaring van vrijwlllig deelnemende klanten te meten, zonder de ervaring zelf te verstoren. Dat laat zien welke delen van de klantbeleving als positief worden ervaren, en welke als vervelend. Door te handelen naar deze inzichten kunnen bedrijven een betere ervaring leveren, bijvoorbeeld tijdens het winkelen, bij een bezoek aan een festival of tijdens het volgen van een training in virtual reality.

Bij TNO weten we heel goed dat emoties nauw verbonden zijn aan de privésfeer van individuen. De vraag rijst dan ook of klanten moeten kiezen tussen hun privacy aan de ene kant en het gemak van op de persoon toegesneden diensten aan de andere kant. De komende nieuwe privacywetgeving (GDPR) benadrukt het belang van dit dilemma eveneens. Daarom onderzoekt TNO ook technologieën die het mogelijk maken data-analyses te delen zonder de onderliggende gevoelige gegevens te delen, bijvoorbeeld door die altijd versleuteld te houden. Vanuit een technisch oogpunt is dat dilemma op die manier opgelost, en zou er niet langer hoeven te worden gekozen tussen privacy en gemak.

Tegelijkertijd verwachten we dat dit alleen mogelijk wordt als mensen vinden dat ze zo’n systeem kunnen vertrouwen, en denken we dat er meer nodig is dan alleen een technische oplossing. Daarom zijn we benieuwd naar jouw kijk op de zaak. Wat is er nog meer nodig om dat vertrouwen te vestigen?

Vriendelijke groet,

Paulien van Slingerland and Harrie van de Vlag
TNO
Innovators in Data Science

Bij TNO weten we heel goed dat emoties nauw verbonden zijn aan de privésfeer van individuën. De vraag rijst dan ook of klanten moeten kiezen hun privacy aan de ene kant en het gemak van op de persoon toegesneden diensten aan de andere kant.

Harrie van de Vlag & Paulien van Slingerland

Linnet Taylor

Donderdag 28-09-2017 23:07

Beste Paulien en Harrie,

Ik heb de uitleg over jullie nieuwe project rond het meten van emotionele ervaringen met belangstelling gelezen. Het is spannend om deel te zijn van de geboorte van een nieuwe technologie, en het wonder van innovatie is duidelijk aanwezig in jullie AURA-project, dat gevoelde emoties in licht zal omzetten.

Dit leidt volgens mij tot nieuwe mogelijkheden om het proces van menselijke emoties te onderzoeken, vooral voor de quantified self-gemeenschap, die al druk bezig is zijn eigen beleving van de wereld te meten en te volgen.

Ik betwijfel echter of het volgen van veranderingen in iemands emotionele staat tijdens het consumeren van media, of tijdens wat dan ook, bij ‘klantbeleving’ hoort. Dit gaat niet slechts over voelen, maar over het verkennen van de grens tussen software en "wetware"-technologie die tot doel heeft het menselijk brein te verbinden en te verbeteren.

Het is interessant voor de bedrijven die er geld in steken, omdat het nieuwe ingangen biedt, niet tot ‘de klant’, maar tot mensen an sich, met al onze eigenaardigheden en heel onze lichamelijkheid. Die ingangen zijn niet per se nauwkeuriger dan wanneer je mensen gewoon vraagt wat ze denken, maar ze zullen naadloos en onopgemerkt in ons leven worden opgenomen, en deel gaan uitmaken van wie we zijn, niet van wat we doen.

Jullie vragen je af of klanten moeten kiezen tussen hun privacy aan de ene kant en het gemak van gepersonaliseerde diensten aan de andere kant. Ik denk dat die vraag de aandacht afleidt van een belangrijkere: kunnen we ons bestaan als klant scheiden van ons bestaan als burger, partner, werknemer, ouder? Onze emoties vormen een essentiële verbinding tussen onszelf en anderen, en wat we wel of niet laten zien bepaalt welke verhoudingen we kunnen aangaan, wie we kunnen zijn in verhouding tot onze maatschappelijke omgeving.

Het gekozen taalgebruik klopt hier misschien ook niet: jullie werken bij dit project alleen met vrijwilligers, maar staat het vast of alles wat ze blootgeven ook echt uit vrije wil wordt gedeeld? Jullie technologie heeft volgens proefpersonen een nauwkeurigheidgraad van 70 procent. Maar er is een diepgaand verschil van mening onder hersenspecialisten over wat we nou precies meten als we emoties bestuderen.

William James, een van de grondleggers van de psychologie, betoogde dat onze ervaring van emoties eigenlijk voortkomt uit hun lichamelijke uitdrukkingsvorm: we voelen ons verdrietig omdat we huilen en we zijn blij omdat we glimlachen, en niet andersom. Als dat waar is, zullen de sensors die jullie ontwikkelen meer toegang hebben tot het biologische aandeel in onze emoties dan wijzelf, en dat heeft gevolgen voor — onder meer — onze vrijheid om onze eigen identiteit te scheppen en onszelf te ervaren.

Dat doet me denken aan een project van Facebook waarover onlangs in de media nogat wat te doen was. Onderzoekers van het bedrijf proberen een spraak naar tekst-interface tussen brein en computer te ontwerpen, die het mogelijk moet maken dat mensen berichten op social media plaatsen, direct vanuit het spraakcentrum in hun hersens — wat dat ook moge betekenen, aangezien er geen wetenschappelijke consensus bestaat over de vraag of er wel zoiets bestaat als een ‘spraakcentrum’.

De onderzoeksleider van het bedrijf beweert dat deze techniek de privacy van mensen niet kan schenden, omdat er alleen maar woorden worden ontsleuteld die mensen toch al wilden delen door ze naar dat veronderstelde spraakcentrum te sturen. Interessant genoeg wil het bedrijf niet zeggen dat eenmaal vastgelegde gedachten van mensen niet zullen worden gebruikt voor het genereren van advertentie-inkomsten.

Jullie vragen wat er nodig is om vertrouwen in zo’n systeem te vestigen. Dat is een goede vraag, want als er vertrouwen nodig is, dan is het probleem niet opgelost. Dit is een van de ontelbare initiatieven waarin mensen wordt gevraagd commerciële partijen te vertrouwen, als die zeggen dat ze de macht die we ze over ons geven niet voor commerciële doelen zullen uitbuiten. Maar dat is de bestaansreden van tech- en mediabedrijven. Als het hun opdracht was onze autonomie en individualiteit te voeden, dan waren ze ouders, priesters of onderwijzers geweest.

De basisregel bij nieuwe technologieën is dat ze onderhevig zijn aan "function creep": ze zullen worden gebruikt voor andere doelen dan hun makers voor ogen hadden of zich zelfs maar hadden kunnen voorstellen. Een systeem als dit kan allerlei gevoelige soorten informatie meten, bijvoorbeeld hoe kinderen reageren op advertenties, of hoe volwassenen seksueel opgewonden raken tijdens de consumptie van media.

Deze informatiebronnen zijn in potentie veel beter te vermarkten dan de uitkomsten van de soorten metingen waarvoor de technologie nu wordt ontworpen. Hoe wordt de grens tussen wat mogelijk wel of niet wordt gemeten vastgesteld en nageleefd, als een technologie als deze straks misschien wel standaard in elke entertainment-apparaat zit? En nu we ons niet alleen meer vermaken met tv en bioscoop, maar ook op onze telefoons, tablets en laptops, hoe moeten we dan beslissen wanneer we gevolgd en onderzocht willen worden?

Technologie die dingen in de gaten houdt produceert data, en het hoofdkenmerk van data is dat het met de tijd meer waard wordt. Het heeft de neiging zich te vermenigvuldigen, uit te lekken en bloot te leggen. Ik weet niet zeker of we commerciële partijen moeten vertrouwen als we hun handelingen niet kunnen toetsen, want vertrouwen zonder toetsing, dat is als religieus geloven.

Met vriendelijke groet,

Linnet Taylor
TILT (Tilburg Institute for Law, Technology and Society)

Harrie van de Vlag & Paulien van Slingerland

Donderdag 05-10-2017 14:45

 

Beste Linnet,

Dank je voor het delen van delen van je gedachten. De onderwerpen die je aansnijdt onderstrepen hoe belangrijk het is om te praten over de ethiek en de verwachtingen rond nieuwe technologie in het algemeen, en affective computing in het bijzonder.

Aan het eind van je brief schrijf je: ‘Als er vertrouwen nodig is, dan is het probleem niet opgelost’. Dat is waar in het geval dat het vertrouwen slechts is gebaseerd op een belofte door een bedrijf of een andere partij. Er zijn echter nog twee andere niveaus van vertrouwen die in de afweging mee moeten worden genomen: vertrouwen op grond van de wet en vertrouwen op grond van het technische ontwerp.

Om te beginnen met het vertrouwen op basis van de wet: het feit dat een nieuwe technologie nieuwe mogelijkheden opent, betekent nog niet dat de wet die toelaat. Het feit dat een potlood niet alleen kan worden gebruikt om te schrijven en tekenen, maar ook om iemand te vermoorden, betekent nog niet dat de wet het laatste toestaat.

Hetzelfde geldt voor affective computing. Hoewel de mogelijkheden van affective computing en andere vormen van data-analyse snel groeien — en jouw voorbeelden illustreren dat — worden mogelijke daadwerkelijke toepassingen van deze technologie in toenemende mate ingeperkt door de wet. Zo treedt volgend jaar inderdaad nieuwe privacywetgeving (GDPR) in werking. Europa is hierin aanmerkelijk strenger dan Amerika (waar bedrijven als Facebook zijn gevestigd).

Omdat TNO een Nederlandse partij is, mogen wij bijvoorbeeld tijdens de AURA-demonstraties geen data voor ons onderzoek verzamelen zonder expliciete toesteming van de vrijwillige deelnemers. Zij moeten daar een document voor tekenen. Bovendien moeten wij garanderen dat de dataverwerking afdoende is beveiligd. Voor bepaalde informatie, bijvoorbeeld over ras, gezondheid en religie gelden extra strenge regels.

Verder mogen we deze data voor geen enkel ander doel gebruiken dan het onderzoek in kwestie. De VPRO had bijvoorbeeld interesse in het publiceren van onze data. Echter, los van het feit dat we de privacy van onze deelnemers uitermate serieus nemen, staat de wet ons simpelweg niet toe dat te doen. TNO zal de data dan ook niet delen met de VPRO of welke andere partij dan ook.

Alles bij elkaar gelden er wettelijke beperkingen voor zowel toepassingen van affective computing als voor systemen die analyses delen zonder de data te openbaren. We ontwikkelen die tweede categorie juist om praktische implementatie van de wet mogelijk te maken, omdat deze systemen worden ontworpen om technisch te garanderen dat commerciële bedrijven (of wie dan ook) niets nieuws over individuele deelnemers te weten kunnen komen.

Dat is vertrouwen op grond van het technische ontwerp, een nieuw concept dat geen belofte of wet nodig heeft om te werken. Tegelijkertijd beseffen we dat dit voor veel mensen een nieuwe en onbekende manier van denken is. Daarom willen we graag weten wat er nodig is voor zo’n systeem als een accepabele oplossing wordt aanvaard.

Daarom willen we onze oorspronkelijke vraag graag alsvolgt opnieuw formuleren: onder welke omstandigheden zou jij mensen aanbevelen hun data ter beschikking te stellen aan zo’n systeem, met de technische garantie dat geen enkel bedrijf of andere partij de data daadwerkelijk kan inzien, zelfs als ze dat zouden willen?

Vriendelijke groet,
 

Paulien van Slingerland and Harrie van de Vlag
TNO
Innovators in Data Science

Kunnen we ons bestaan als klant scheiden van ons bestaan als burger, partner, werknemer, ouder? Onze emoties vormen een essentiële verbinding tussen onszelf en anderen. En wat we wel of niet laten zien bepaalt welke verhoudingen we kunnen aangaan, wie we kunnen zijn in verhouding tot onze maatschappelijke omgeving.

Linnet Taylor

Linnet Taylor

Zondag 08-10-2017 21:56

 

Beste Paulien en Harrie,

Dat is een bruikbaar antwoord van jullie. Het heeft me aan het denken gezet over wat we bedoelen als we praten over vertrouwen, en over hoe de betekenis van dat woord wordt opgerekt om te passen in zeer verschillende contexten en processen. Jullie vragen onder welke omstandigheden ik mensen zou aanbevelen hun data ter beschikking te stellen aan een systeem dat hun reactie op media-content aanvoelt, met de technische garantie dat geen enkel bedrijf of partij de data daadwerkelijk kan inzien, ook niet als ze dat zouden willen.

Dat is natuurlijk een lastige vraag. Mensen moeten vrij zijn om elke technologie te omarmen die ze nuttig, noodzakelijk, interessant of stimulerend vinden, en het ligt voor de hand dat ze dat allemaal van toepassing vinden op dit voel-systeem. Maar laten we hier eerlijk zijn — het is geen burgercollectief dat ons heeft gevraagd deze briefwisseling te schrijven.

We wisselen gedachten uit over de toekomstige aciviteiten van mediabedrijven, op verzoek van een mediabedrijf. Als deze technologie uitsluitend zou worden toegepast binnen een sterk begrensde context, waarbij de geproduceerde data op geen enkele manier zou kunnen worden gedeeld, verkocht of hergebruikt, dan weet ik niet of ons verzocht zou zijn deze conversatie te houden.

Ik denk dat ons gevraagd is om van gedachten te wisselen, omdat er enorme implicaties kleven aan een technologie die het bestuderen van emotionele processen bij mensen tot doel heeft. Deze technologie kan mediabedrijven in potentie helpen hun aanbod in persoonlijke 'filterbubbels' te gieten, net als bij onze tijdlijnen op de sociale media.

Die bubbels hebben hun eigen voordelen en problemen. Er zijn recent bijvoorbeeld veel analyses gemaakt van hoe populistische partijen die over de hele wereld macht hebben verworven enorm hebben geprofiteerd van digitale filterbubbels, waarin mensen toegang hebben tot gepersonaliseerde content die sterk in het verlengde van hun eigen opvattingen ligt.

Het is inderdaad belangrijk dat het zo’n systeem in overeenstemming met de wet wordt gebruikt. Maar wetten op gegevensbescherming zijn in dit geval een noodzakelijke, maar onvoldoende garantie tegen misbruik van data. De echte kwestie hier is omvang. De meeste mensen produceren vandaag de dag enorme hoeveelheden digitale data, op elk moment dat zij zich in de wereld begeven.

Deze data worden opgeslagen, bewaard, gebruikt en uiteindelijk geanonimiseerd. En dan is de gegevensbescherming niet langer van toepassing, want hoe kan privacy van toepassing zijn op geanonimiseerde data? Het systeem dat jullie ontwikkelen laat echter precies zien hoe. Het is een van de vele technologieën die profilering potentieel kunnen vergemakkelijken. Het zal aanbieders onze zwakke punten tonen, de kenmerken die het mogelijk maken ons te verkopen - en het kan dat zelfs als we het niet gebruiken.

Een voorbeeld: iemand kiest ervoor om zonder filterbubbel te leven, en weigert elke vorm van personalisatie. Maar alle andere data die ze in de loop van het alledaagse leven achterlaat genereert een zeer gedetailleerd commercieel profiel van haar, dat op de vrije markt verkrijgbaar is. De kenmerken die haar gevoelig maken voor sommige vormen van content en niet voor andere zijn waarneembaar: ze heeft kinderen, ze houdt van aardbeien, ze is slachtoffer van huiselijk geweld, ze wordt blij van kattenfoto’s. Een allegaartje van vele duizenden van zulke datapunten vormt ons digitale profiel.

Maar het gaat niet alleen om onze kenmerken, het gaat om die van de mensen om ons heen of van de mensen die op ons lijken. De kenmerkende eigenschappen van gebruikers van systemen als dat van jullie (waarbij de respons op content direct kan worden gemeten) kunnen worden vergeleken met de kenmerkende eigenschappen van niet-gebruikers. Als dat eenmaal gebeurt, wordt het mogelijk om af te leiden dat mijn hart sneller zal gaan slaan bij die ene film en niet bij een andere, dat ik ervoor zal kiezen om naar de content van die aanbieder te blijven kijken, dat mijn aandacht op die plaats en op dat moment te koop zal zijn.

Zo worden instemming en privacy zinloos als er eenmaal genoeg datapunten over ons allemaal bekend zijn. Nieuwe technologieën die precies de vinger weten te leggen op ons gedrag, onze gevoelens en onze zwakke plekken zijn niet waardevol voor direct gebruik, maar wel voor de langere termijn, als aanvulling op die stapel data over ons allemaal. En ze zijn vooral handig als het gaat om de mensen die niet voor personalisering kiezen, en die dus moeilijker vast te pinnen en te voorspellen zijn.

Daarom ben ik sceptisch over het opvoeren van ‘vertrouwen’ als iets dat kan worden gegenereerd door de verzekering dat individuele toepassingen van een bepaalde technologie voldoen aan de wet op de gegevensbescherming. Gegevensbescherming is directe familie van privacy, maar het is absoluut niet hetzelfde. Gegevens kunnen worden beschermd terwijl de privacy niet is gewaarborgd, en het is zeker mogelijk er op te vertrouwen dat onze data volgens de regels van de wet worden behandeld, maar tegelijkertijd vraagtekens te hebben bij het totale plaatje.

Dingen die volkomen toelaatbaar zijn volgens de wet op de gegevensbescherming, zijn vaak ook oneerlijk. Zoals verschillende mensen online verschillende prijzen laten betalen voor dezelfde goederen. Of het volgen van de activiteit van gebruikers op verschillende apparaten, om zo precies te weten te komen waardoor ze op advertenties reageren. Of het doorgeven van onze persoonlijke data door een bedrijf aan een oneindig aantal docherondernemingen. De wet is geen wondermiddel, en we kunnen er ook niet op rekenen dat de wet voorziet wat hierna komt.

Ik voer deze dingen niet op om te betogen dat jullie moeten stoppen met de ontwikkeling van affective computing voor commercieel gebruik. Ik gebruik ze om twee fundamentele werkelijkheden voor te spiegelen: ten eerste dat we niet meer in staan zijn om te overzien wat er op lange termijn voor ons allemaal gebeurt met de data die we achterlaten, en ten tweede dat in die context instemming geen betekenis meer heeft.

Nu ik deze twee problemen en hun relatie met jullie werk aan de kaak heb gesteld, kan ik een wedervraag stellen: kunnen wij, ontwikkelaars en gebruikers van technologieën voor data-analyse, gezamenlijk verder kijken dan het voldoen aan de wet, de vele mogelijke toekomsten van deze technologieën zien en manieren scheppen om die toekomsten vom te geven?

Vriendelijke groet,

Linnet Taylor
TILT (Tilburg Institute for Law, Technology and Society)

andere conversaties

Benieuwd wat de andere duo's hebben geschreven? Bekijk de vier 'Lieve CEO' conversaties hier.

De schrijvers zetten hun gesprek live voort tijdens de 'We Know How You Feel Tonight' debatavond, die plaatsvindt op woensdag 25 oktober 2017 in De Effenaar in Eindhoven.