Kunstmatige intelligentie ontwikkelt zich met reuzensprongen. Machines worden steeds slimmer en zijn inmiddels in staat om van hun eigen fouten te leren. Kunnen wij de controle wel behouden op het moment dat onze intelligentie het tegen die van de machines aflegt?

Het is natuurlijk een oude angst. Op de kop af 200 jaar geleden verscheen Mary Shelleys roman Frankenstein, waarin de jonge wetenschapper Victor Frankenstein uit levenloos materiaal een levend wezen schept om daarna tot zijn afgrijzen te ontdekken dat het creatuur zich heel anders gedraagt dan de bedoeling was. Het personage Frankenstein en het monster dat hij tot leven wekte, leven sindsdien voort in boeken en films, maar ook als verzinnebeelding van de wetenschapper die roekeloos experimenterend de controle over zijn vindingen verliest. 

Frankenstein is terug, zo klinkt het steeds vaker. Alleen heeft de wetenschapper ditmaal geen gezicht. Iedereen die zich met de ontwikkeling van kunstmatige intelligentie (AI) bezighoudt, heeft een heel klein beetje Frankenstein in zich, en ook het monster is niet één en ondeelbaar. Ontelbare stukjes computercode, dat is de vorm die het monster heeft aangenomen.

AI neemt ons werk uit handen, en voor zover dat naargeestig werk is of de voedselvoorziening of medische zorg ingrijpend verbetert, is dat prachtig, maar tegelijk doemt een wereld op waarin de mens tot ledigheid is veroordeeld. Als de dominante technologie het monopolie wordt van enkelen, zullen die zich alle macht (en geld) toe-eigenen – ook dat stelt niet iedereen gerust. En is het ondenkbaar dat die geavanceerde technologie in verkeerde handen valt, dat een Lex Luthor opduikt of The Joker ermee aan de haal gaat?

Doolhof

Volgens sommigen bestaat er een veel urgenter probleem. Het begrip waar het allemaal om draait, is algoritme, in essentie een instructieregel die de computer vertelt welke stappen hij in welke volgorde moet uitvoeren. Dergelijke geautomatiseerde processen zijn op velerlei gebieden een zegen, maar anders wordt het wanneer die algoritmes hun werk doen binnen systemen waarin normatief-ethische waarden een rol spelen, zoals overheidsdiensten, de rechtspraak, de zorg; wanneer algoritmes bepalen wie een baan krijgt – de 500 grootste bedrijven in de VS maken inmiddels vrijwel allemaal gebruik van zulke geautomatiseerde selectiemechanismen, zo bleek recent uit onderzoek van de The Wall Street Journal – en wie in aanmerking komt voor een hypotheek of een verzekering.

Als besluiten worden genomen door algoritmes, wie kun je dan ter verantwoording roepen, mocht een besluit je niet bevallen? De interactie van algoritmes binnen dergelijke systemen is vaak zo complex dat het ondoenlijk is vast te stellen hoe een besluit tot stand is gekomen. En dit is helemaal zo wanneer algoritmes zelf nieuwe algoritmes creëren, als er sprake is van zogeheten ‘zelflerende’ algoritmes.

Reinforced learning heeft als doel machines zo te programmeren dat ze hun eigen resultaten analyseren en van eigen fouten leren – met vallen en opstaan als het ware, zoals een kind leert – met als doel dat ze hun weg kunnen vinden in situaties die ze nooit eerder hebben gezien. Letterlijk ook in een doolhof, blijkt uit een voorbeeld van computerwetenschapper Pieter van Abbeel (Berkeley University), die in de uitzending van VPRO Tegenlicht aan het woord komt. ‘Nadat de gesimuleerde robot [een programma, HvW] een eerste keer zijn weg naar buiten heeft gezocht, vindt hij volgende keer meteen de uitgang. Ze hebben iets geïnternaliseerd … we trainen ze zodat ze zich dingen kunnen herinneren. We trainen ze niet om goed te zijn in één bepaald doolhof, maar om hun weg te vinden in om het even welk doolhof waarin ze belanden. De computer leert dus wat een doolhof is en wat nodig is om de uitweg te vinden. Amazing. Bijna scary.

Gezond verstand

Zodra machines zichzelf steeds slimmer maken, weten we niet meer hoe die ‘in het wild losgelaten’ algoritmes na verloop van tijd in elkaar zitten en wat ze beweegt, en, zo menen sommige computerwetenschappers, daarmee neemt de kans toe dat die intelligente systemen onberekenbaar gedrag gaan vertonen; de term Frankenalgos – naar Shelleys creatie – werd al gemunt.

Het probleem schuilt er ook in dat het extreem lastig blijkt om zo’n slimme machine een opdracht te geven die niet door onvolledigheid wordt geplaagd, en dan kan het akelig misgaan. Als een superslimme robot wordt geprogrammeerd met uitsluitend de opdracht om zo veel mogelijk paperclips te maken, zal hij alles doen om dat ook te verwezenlijken, desnoods zal hij alle materie in het universum, inclusief onze lichamen, als grondstof gebruiken om die paperclipproductie op te voeren, ook al is er dan geen levend wezen meer dat nog om paperclips verlegen zit. Zonder zoiets als ‘gezond verstand’ kunnen simpele opdrachten catastrofale gevolgen hebben, daar komt het op neer.

Willen we controle houden over de razendsnelle ontwikkeling van AI en de effecten op onze maatschappij, dan moeten we zorgen dat machines ‘gezond verstand’ krijgen, dat ze, ook al zijn ze vanaf zeker moment slimmer dan mensen, zich blijvend laten leiden door (wenselijke) menselijke normen en waarden.

In VPRO Tegenlicht buigen onder meer Van Abbeel – hoogleraar en werkzaam geweest bij Open AI, een door Elon Musk opgerichte organisatie gericht op mensvriendelijke ontwikkeling van AI – en computerwetenschapper Stuart Russell van het Centre for Human-Compatible AI zich over dit zogenaamde value alignment problem.

We moeten systemen zo programmeren dat ze altruïstisch zijn, onzekerheid kennen en hun doelen achterhalen aan de hand van observatie van mensen, zegt Russel. Regels opstellen nu het nog kan, voordat we als paperclip eindigen, daar komt het op neer. Want in tegenstelling tot Mary Shelleys monster – dat spijt kreeg over wat hij zijn schepper had aangedaan, zwoer zelfmoord te plegen en daarna verdween – zullen de hyperintelligente neurale netwerken die we nu bouwen ons nooit meer alleen laten.