De gevaren van Elon Musk en Stephen Hawking voor kunstmatige intelligentie (en daarmee ons allemaal)

Kunstmatige intelligentie (KI) is op dit moment de grootste bedreiging voor het voortbestaan van het menselijke ras. Althans volgens multi-ondernemer Elon Musk. Natuurkundige Stephen Hawking legt uit waarom. Hij voorspelt dat kunstmatige intelligente computers op een gegeven moment zo slim en krachtig worden dat ze instaat zijn zichzelf te herprogrammeren tot nog slimmere computers. Dit wordt singulariteit genoemd. Die ontwikkeling zou zo ver gaan dat ze slimmer worden dan een mens of zelfs alle mensen bij elkaar. Ray Kurzweil, grootmeester van het inzetten van exponentiële grafieken, schat dat het nog geen 30 jaar gaat duren voordat computers de mensheid voorbij streven. Dit zou wel eens ons einde kunnen betekenen volgens Musk en Hawking. Je hebt niet veel fantasie nodig om bedenken dat een naakte Arnold Schwarzenegger (zie figuur 1) elk moment kan verschijnen of dat je de keuze krijgt uit een blauwe of rode pil.

Naakte Arnold Schwarzenegger

Figuur 1: Een zeer fitte Arnold komt terug om ons te redden van de enge robots.

Het idee dat computers en robots ons willen vernietigen is een zeer geliefd thema binnen het science fiction genre. Sterker nog, het toneelstuk waaruit de naam ‘robot’ is geboren gaat over een robotopstand die uiteindelijk leidt tot de vernietiging van de mensheid. Het is dus helemaal niet zo gek dat de media, en wij allemaal, de uitspraken van Musk en Hawking voor zoete koek slikken. Overal waar Musk, Hawking en kunstmatige intelligentie in één nieuwsbericht worden genoemd gaat het over de gevaren van en mogelijke ondergang door KI. Zo ook bij een genuanceerde brief van wetenschappers uit de kunstmatige intelligentie die oproepen om meer geld en onderzoek te richten op de veilige ontwikkeling van kunstmatige intelligentie. Niets meer en niets minder. Pas wanneer Musk en Hawking de brief ondertekenen word het afgespiegeld als een waarschuwing. Dit keer echter van wetenschappers uit het veld zelf, althans zo lijkt het. Als de wetenschappers het zelf zeggen dan moet het wel waar zijn, nietwaar? Deze slag is gewonnen door Musk en Hawking, maar het is nog niet voorbij!

Elon Musk en Stephen Hawking zijn juist diegene die voor het gevaar zorgen. Hun bangmakerij leidt tot overheersing van ongefundeerde, of nog erger verkeerd gefundeerde, onderbuikgevoelens. Een misplaatste publieke opinie leidt alleen maar af van het werkelijke gevaar: wat als we kunstmatige intelligentie niet slim genoeg maken?

Zoals gebruikelijk bij vooroordelen wordt kunstmatige intelligentie te makkelijk over één kam geschoren. De KI waar Musk en Hawking voor waarschuwen is van een hele andere soort dan waar 99% van het KI onderzoek nu naar gebeurt. Geen van alle huidige applicaties vallen overigens in die singulariteitscategorie. Er zijn een aantal fundamentele problemen die hiervoor eerst opgelost dienen te worden, zoals het vergaren van gezond verstand. Je hoeft echt niet bang te zijn dat je robotstofzuiger of zelfrijdende auto besluit het menselijke ras te willen vernietigen (zie figuur 2). De meesten mensen weten dat wel, maar toch wordt er met dit argument geschermd in discussies over hedendaagse toepassingen.

Schattige zelfrijdende auto van Google

Figuur 2: gaat deze schattige zelfrijdende auto van Google ons allemaal plat rijden?

Om mijn punt te illustreren haal ik graag een recentelijk voorbeeld aan uit mijn omgeving.  Er was ophef ontstaan over een robotstofzuiger die nietsvermoedend zich vastzoog in de haren van de eigenaar. Het werd gebruikt als voorbeeld om te laten zien dat robots niet nadenken en mensen wel. Dit is geen eerlijke vergelijking. De robotstofzuiger is niet gemaakt om onderscheid te maken tussen bijvoorbeeld losliggende hondenharen op de vloer en haren dat nog vastzitten aan een hoofd, laat staan zo te denken als een mens. Meer inzicht in hoe een robotstofzuiger, of kunstmatige intelligentie in het algemeen, werkt zou deze overhaaste generalisatie hebben kunnen voorkomen. De invloed van science fiction, Musk en Hawking blijkt uit hoe de discussie verder verliep. Op de suggestie dat de inschattingsfout van de robotstofzuiger een aanleiding kan zijn om de robotstofzuiger meer te laten nadenken werd namelijk afwijzend gereageerd. Er bestaat een, wellicht onbewuste, neiging om meer nadenkende robots en KI niet te willen, terwijl dit overduidelijk voordelen zou hebben. Als de robotstofzuiger iets slimmer was geweest dan had het zich niet vastgezogen in iemands haren. Het is belangrijk om te realiseren dat een iets slimmere robotstofzuiger niet gelijk veranderd in een Skynet of agent Smith. Daar is veel meer voor nodig, als het al mogelijk is. Zaken die niet relevant zijn voor een robotstofzuiger.

Het gevaar zit hem juist in die te negatieve houding. We zetten al decennia lang verschillende vormen van kunstmatige intelligentie in en de verantwoordelijkheden van die systemen wordt alsmaar groter. Dit is niet erg omdat het de kwaliteit van ons leven vergroot en zelfs mensenlevens red. Maar als de toegestane denkcapaciteiten niet meeschalen met de verantwoordelijkheden dan ontstaan juist de gevaarlijke situaties. De falende robotstofzuiger is hier een relatief onschuldig voorbeeld van. Maar wat zou er kunnen misgaan met een robot die de heg knipt of het eten bereid als het niet genoeg cognitieve capaciteiten toegewezen krijgt? Was die auto maar uit zichzelf gestopt toen de bestuurder zat te telefoneren en het buurmeisje de weg overstak. Het reële gevaar zit hem dus niet in machines die kunnen nadenken, maar in machines die niet genoeg na (mogen) denken.

Dit bericht is geplaatst in Opinie. Bookmark de permalink.

Geef een reactie