(Kunst)matige intelligentie

Bennie Mols ,

De robot van de toekomst is een sociale robot die onder supervisie staat van de mens.

Toen de Tsjechische schrijver Karel ńĆapek in 1921 het woord ‘robot’ introduceerde, liet hij zijn metalen geesteskinderen meteen de wereldheerschappij van de mens overnemen. ‘Robots aller landen, wij bevelen jullie de mensheid uit te roeien’, schreef hij in zijn toneelstuk R.U.R. (Rossum’s Universal Robots). Het beeld van de superintelligente robot, door de mens geschapen naar zijn eigen evenbeeld, maar daarna evolutionair superieur geworden, doortrekt bijna een eeuw van sciencefictionfilms en -literatuur.
Hoe anders is de realiteit. Turing Award-winnaar Edward Feigenbaum, een Amerikaanse pionier op het terrein van de kunstmatige intelligentie, vertelde me twee jaar geleden hoe zeer de Japanners zich schaamden toen ze na de kernramp bij Fukushima geen enkele robot hadden die te hulp kon schieten. Feigenbaum had in een evaluatiecommissie gezeten van Asimo, een humanoïde robot van Honda. ‘Asimo was vooral een brok mechanica. A wonderful stupid robot! Een paar maanden na de Fukushima-ramp lieten de Japanners hulprobots uit de VS over vliegen. De president van Honda was furieus, want het bedrijf had bijna een miljard dollar in Asimo geïnvesteerd. Hij bleek waardeloos toen het erop aan kwam.’

zachte kant

‘De robot als evenbeeld van de mens is een achterhaald idee’, zegt de Nederlandse hoogleraar kunstmatige intelligentie Eric Postma van de Universiteit van Tilburg. Dat komt vooral omdat robots de context van de mensenwereld niet begrijpen. Postma: ‘De computer is het brein van de robot. Hij is ontwikkeld in de traditie van het formele redeneren: de logica. Redeneren kunnen computers dan ook als de beste en daarom zijn schaakcomputers de mens voorbij gestreefd. Maar een intelligente robot moet ook een zachte kant hebben. Hij moet kunnen leren van voorbeelden in een omgeving vol ruis. En hij moet niet alleen rationele maar ook sociale problemen kunnen oplossen. Daarin zijn robots nog steeds veel slechter dan mensen.’
Postma werkt zelf onder andere aan het automatisch herkennen van gezichtsuitdrukkingen en de emotionele lading van stemgeluid. Bij een goede communicatie tussen mens en robot hoort immers ook het begrijpen van niet-verbale communicatie: de blik, de lichaamshouding, de intonatie. Postma: ‘De beroemde Amerikaanse emotie-onderzoeker Paul Ekman heeft zo’n honderd uitdrukkingen die een menselijk gezicht kan maken in kaart gebracht. Inmiddels zijn computers bijna net zo goed in het categoriseren van deze gezichtsuitdrukkingen als mensen.’

asimovs wetten

Is de robot die ons begrijpt daarmee binnen handbereik? Nee, verre van, zegt Postma. ‘Stel dat een robot een groep donkere mannen in het rond ziet springen en met spullen ziet gooien. Dan denkt hij dat er trammelant is. Aan de context zien Nederlanders meteen dat het om een Sinterklaasfeest gaat. Al dat soort contextuele informatie ontgaat de huidige robot.’ 
Hoewel robots veel langzamer slimmer worden dan menigeen denkt, rukken ze wel degelijk op, niet alleen in de industrie maar ook in de persoonlijke en professionele dienstensector, van huishoudrobots tot zorgrobots. Hoe gaan we onze omgang met deze robots reguleren? 
In 1942 stelde de sciencefictionschrijver Isaac Asimov drie wetten op waaraan robots zouden moeten voldoen. Volgens de eerste wet mag een robot mensen geen nadeel, schade of letsel toebrengen, of juist door niet te handelen mensen in gevaar brengen. De tweede wet stelt dat robots opdrachten van mensen moeten gehoorzamen, tenzij die opdrachten in strijd zijn met de eerste wet. De derde wet, tenslotte, zegt dat een robot alles moet doen om zijn eigen voortbestaan veilig te stellen, tenzij deze zelfbescherming strijdig is met de eerste twee wetten.  
In eerste instantie gebruikte Asimov de wetten als literair spel in zijn sciencefiction-verhalen. Decennia later schijnt hij gezegd te hebben dat hij ze wel degelijk ook in de echte wereld wilde toepassen op robots. Volgens Postma is de intelligentie van robots echter ver verwijderd van het niveau waarvan Asimov uitging. “Nadenken over privacy en de autonomie van killer-drones vind ik veel belangrijkere problemen dan nadenken over Asimovs wetten.”

vijf ethische principes

De Britse roboticus Alan Winfield, oprichter van het Bristol Robotics Laboratory, is het met Postma eens. Hij heeft in 2010 samen met collega-robotici een praktisch alternatief ontwikkeld voor Asimovs wetten. Geen wetten voor robots, maar vijf ethische principes voor robotontwerpers. Volgens het eerste principe zijn robots multifunctionele instrumenten. Ze mogen niet zuiver en alleen ontworpen worden om mensen te doden of te beschadigen, behalve in het belang van de nationale veiligheid. ‘Met die laatste zinsnede ben ik persoonlijk niet zo blij’, zegt Winfield, ‘maar dat is het compromis van een lange discussie.’
Ten tweede zijn mensen en niet robots verantwoordelijke agenten. Robots moeten ontworpen en gebruikt worden in overeenstemming met het bestaande recht. Volgens het derde principe moeten we robots zien als producten. Ze moeten zodanig ontworpen worden dat ze veilig opereren en privacyregels niet schenden. Het vierde principe zegt dat mensen robots niet moeten ontwerpen om kwetsbare gebruikers zoals zieken en ouderen alleen maar te doen geloven dat het levende mensen of dieren zijn. Het moet voor mensen duidelijk zijn dat het machines zijn. Ten slotte moet een mens met de wettelijke verantwoordelijkheid aansprakelijk zijn voor het gedrag van de robot. Een robot moet als het ware een kentekenplaat hebben.

superintelligentie

 ‘Robots zullen altijd onder onze controle staan’, zegt Winfield stellig. ‘Ik spreek liever van robots die een bepaalde mate van autonomie hebben onder supervisie van de mens.’ Hij is kritisch op journalisten die telkens maar weer het eenzijdige verhaal oprakelen van robots die de wereld overnemen. En de superintelligentie waaraan filosoof Nick Bostrom een speculatief boek heeft gewijd, noemt Winfield ‘niet onmogelijk, maar zeer, zeer onwaarschijnlijk. Als we er in slagen om mensachtige kunstmatige intelligentie te bouwen, en als die kunstmatige intelligentie begrijpt hoe ze zelf werkt, en als ze erin slaagt zichzelf superintelligent te maken, en als die superintelligentie energetisch zelfvoorzienend wordt, en als de mens de stekker er niet meer uit kan trekken, ja dan hebben we een probleem. Bij elke “als” hoort een hele kleine kans. De totaalkans op superintelligente robots is dus ongelofelijk klein.’