Kunstmatige intelligentie is niet het grote gevaar.

De grote verwachtingen waarmee kunstmatige intelligentie sinds begin twintigste eeuw werd onthaald, zijn nog niet waargemaakt. Computers kunnen de beste schakers verslaan en we vertrouwen erop om de snelste route te vinden. Maar een alwetende intelligentie die de mens vooruithelpt of aan zich onderwerpt, is nog lang niet in zicht volgens hoogleraar Computer Science Pieter Spronck

.Geschreven door: Ron Vaessen

Over de gevaren van zo’n algemene intelligentie, de meest vergaande vorm van kunstmatige intelligentie, denkt Spronck wel na. Hij constateert dat de reeds bedachte beveiligingsmechanismen ons geen garanties bieden dat we zo’n intelligentie onder controle houden. Omdat mindere vormen van kunstmatige intelligentie bovendien de nodige gevaren hebben en we er steeds meer op vertrouwen, bepleit Spronck dat we studenten van alle studierichtingen erin opleiden. Dit debat mag niet alleen worden overgelaten aan technologen, ook juristen, sociologen en filosofen moeten hierover nadenken.

De voorspelling dat we over dertig jaar een algemene kunstmatige intelligentie hebben uitgevonden, klopt niet?

”Misschien niet eens binnen twee eeuwen, maar zeker niet voor het einde van de eeuw. Wat wel wordt gezegd is dat we tegen 2040 computers hebben met de kracht en snelheid van een menselijk brein. Heb je dan een computer die functioneert als een menselijk brein? Absoluut niet. Je hebt de hardware, maar het probleem is de software.”

Een ondernemer als Elon Musk ziet kunstmatige intelligentie als de grote bedreiging van de mensheid. Maar we hoeven ons er eigenlijk niet zo druk om te maken?

“Ik denk van wel, maar ik denk ook dat de gevaren in eerste instantie niet verschrikkelijk groot zijn.”

Waarom horen we dat dan zoveel?

“Mensen als Musk en bedrijven als Google, Amazon en Facebook willen volgens mij laten blijken dat ze hun verantwoordelijkheden nemen. Er is een hoop in de wereld dat mensen eng vinden. Voor deze personen en bedrijven is kunstmatige intelligentie hun core business. Als je een machtspositie op dit gebied inneemt, en je zegt: ik voel met jullie mee en ga dit veilig doen, dan zal de politiek het niet zo snel aan banden leggen. Dat is met genetisch onderzoek wel gebeurd.”

Maar ook mindere vormen van kunstmatige intelligentie zijn mogelijk gevaarlijk?

“We geven computers de verantwoordelijkheid autonoom te handelen in de maatschappij. Dat is een gevaar, dat groeit als de opdrachten vager worden. Je vertrouwt op je spamfilter, anders krijg je teveel rommel. Maar wat is spam? Omdat we het aan de spamfilter overlaten om te leren wat spam is, verdwijnt er soms een bericht dat geen spam is. Dat nemen we voor lief, want de service is groot en de schade klein.

Bij zelfrijdende auto’s kan die schade al groter zijn. We zeggen: rijd van A naar B. Nu zit er nog een mens in de auto die kan ingrijpen als er iets mis dreigt te gaan. In de toekomst gooien we iets in de achterbak en vertrouwen erop dat de zelfrijdende auto helemaal zelfstandig omgaat met alle mogelijke problemen die onderweg kunnen optreden. Daar kunnen we de computer regels voor geven. Maar wat heeft prioriteit als het licht op rood staat en de auto ergens binnen twee uur moet zijn? Is het een keiharde regel om niet door rood te rijden? Dat zou ook weer een gevaar kunnen worden, als er bijvoorbeeld een politieauto langs wil. Mensen improviseren, en hoe zelfstandiger een computer wordt, hoe meer hij ook moet improviseren. Hoe zorgen we ervoor dat de improvisaties van de computer niet leiden tot gedrag dat we onacceptabel vinden?”

Voorlopig hebben we andere zorgen, maar een almachtige intelligentie kan in theorie toch wel ontstaan?

“Ik weet niet of dat in theorie kan. Het is een probleem dat zo groot is, dat niemand ermee bezig is. We zitten niet te denken hoe we een almachtige computer bouwen, als we dat al zouden willen. We denken: hoe bouwen we een robot die kan lesgeven? Of: hoe kunnen we een programma maken dat fatsoenlijk kan vertalen? Die problemen zijn voor de komende decennia al lastig genoeg.”

Hoe wordt een computer intelligent?

“Hij moet leren, net zoals mensen leren. Maar hoe je dat doet? Koppel je ‘m aan het internet en zeg je: leer maar? Met de juiste algoritmes zal hij wel iets leren, maar leert hij om intelligent te zijn? Je zet een baby ook niet achter het internet om iets te leren.” 

Hoe doe je het dan?

“We werken met voorbeelden, bijvoorbeeld een miljoen plaatjes van katten en honden. Je zegt: dit is een hond, dat een kat. Zoek maar naar het onderscheid. Vervolgens evalueer je hoe succesvol de computer is, je geeft aan wat niet klopt, en de computer past zich aan. Zo leert de computer door.” 

“Waarom zouden computers, die perfect zijn in kansberekening, de manier waarop wij dingen doen imiteren?”

Er staat een lege doos van een Playstation4 op uw kamer, wat kunnen we leren van computerspellen?

“Neem het spel Grand Theft Auto. In dat spel heb je een stad, gebouwen en verkeer. Die spelomgeving kan je gebruiken om een zelfrijdende auto te trainen. Er doet zich een botsing voor en de computer krijgt de feedback dat het niet mag gebeuren. De computer past zich aan, zodat hij botsingen gaat vermijden, en zich uiteindelijk gaat gedragen als een goede weggebruiker.”

Worden computers zo slim als mensen?

“Ik denk dat de intelligentie van een computer, zelfs als die bewustzijn en emotie zou krijgen, heel anders is dan die van ons. Een computer denktanders, meer in patronen en voorbeelden. Mensen handelen vaak op basis van verkeerde risicoinschattingen. Waarom zouden computers, die perfect zijn in kansberekening, de manier waarop wij dingen doen imiteren? Maar dat betekent dat ze dus ook andere beslissingen gaan nemen dan mensen zouden doen in bepaalde situaties.”

Kunnen computers bewustzijn ontwikkelen?

“Dat is lastig. Hoe weet ik dat jij bewustzijn hebt? Dat kan ik niet objectief weten, dat zie ik aan je gedrag. En ik herken de menselijke vorm. Ik heb bewustzijn dus jij zal het ook wel hebben. Als een computer zich gedraagt alsof hij bewustzijn heeft, kun je zeggen dat die vraag zinloos is geworden. Dan moeten we er maar van uitgaan dat de computer bewustzijn heeft.”

Kunstmatige intelligentie biedt grote kansen, maar ook grote gevaren. Moeten we hier wel mee doorgaan?

“De vraag is of je het überhaupt zou kunnen stoppen. De mogelijkheden en gevaren zijn nog heel onduidelijk. We hebben grip op wat er nu is en het is belangrijk vooruit te denken omdat de ontwikkelingen snel kunnen gaan. Maar uiteindelijk ben ik een optimist: ik denk dat kunstmatige intelligentie de mensheid zal helpen grote problemen op te lossen, en dat we voldoende tijd hebben om ons in te dekken tegen de eventuele risico’s die eraan zitten.”

Bron: Univers

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *