Kunstmatige intelligentie voor beginners
Kunstmatige intelligentie voor beginners
23 juni 2021
Foto: Folkert Rinkema
Algoritmes bepalen welke filmpjes je ziet in de aanbevelingen van YouTube of Netflix. Kunstmatige intelligentie wijst ambtenaren op bijstandsfraude. En machine learning zorgt dat computers van alles kunnen leren. Dit gaat alles veranderen volgens de één, en volgens de ander zal dat wel loslopen. Hoe slim zijn die computers eigenlijk, en waarom zijn sommigen bezorgd over de ontwikkeling terwijl anderen zoveel voordelen zien? Genoeg vragen voor een inleidend artikel in de wereld van kunstmatige intelligentie.
Een inleiding op een complex onderwerp als kunstmatige intelligentie zou idealiter een aantal heldere definities bevatten. Wat is nu precies een algoritme, wat bedoelen we met machine learning en natuurlijk wat is eigenlijk Kunstmatige Intelligentie? Maar jammer genoeg is dat niet echt mogelijk, omdat de definities nogal verschillen en de betekenis van verschillende begrippen vaak overlappend is.
Neem nu de term ‘kunstmatige Intelligentie’. Het kunstmatige deel is eenvoudig genoeg, want kunstmatige intelligentie is een eigenschap van door mensen gebouwde systemen. Maar intelligentie, dat is al lastig. Bij mensen drukken we intelligentie uit als het IQ, maar die waarde omvat al verschillende dimensies zoals aangeleerde kennis, begrip, inzicht en probleemoplossende vaardigheden. Je kunt goed zijn in wiskunde, maar slecht in taal of omgekeerd. Mensen hebben bovendien verschillende vormen van intelligentie: de ‘emotionele intelligentie’ zit doorgaans niet in een IQ-test, net als creativiteit.
Het is goed mogelijk om een computersysteem te leren hoe het plaatjes van honden kan onderscheiden van kattenplaatjes. Maar daarmee weet het systeem nog niet wat een hond of een kat is. Daar is een veel completer wereldbeeld voor nodig. Is het systeem dan intelligent? Al is die vraag wellicht niet zo belangrijk, want het systeem kan wel degelijk bruikbaar zijn.
Neuraal netwerk | Kunstmatige intelligentie begint met algoritmes. Een algoritme is een reeks instructies die gebruikt wordt om data te analyseren. Een algoritme hoeft niet intelligent te zijn: het is een instructie waar je iets in stopt en waar iets uitkomt, te vergelijken met een recept. Met algoritmes kunnen complexere systemen gebouwd worden, die als eigenschap hebben dat ze kunnen leren. Een systeem gebruikt dan bijvoorbeeld data (plaatjes van katten) om die te leren herkennen en te onderscheiden van andere data (plaatjes van honden). Hoe meer kattenplaatjes zo’n systeem ziet, hoe meer typische ‘kattenkenmerken’ het kan leren, en hoe beter het katten van honden kan onderscheiden.
Dit soort systemen is doorgaans een ‘neuraal netwerk’, een programma dat de werking van hersencellen nabootst: de output van een cel beïnvloedt hoe verbonden cellen reageren. Twee vormen van zelflerende systemen staan vaak in de aandacht: machine learning en deep learning. Bij machine learning bestaat het neurale netwerk waarin de analyse plaatsvindt uit een paar lagen. Deep learning is een bijzondere vorm van machine learning die bestaat uit veel meer lagen en daarom complexere informatie kan verwerken, eventueel in verschillende detailniveaus. Maar bij zowel machine learning als deep learning bestaat het ‘intelligente’ deel uit de inzichten die de resultaten van de analyse geven. Tot nu toe geldt voor deze vormen van kunstmatige intelligentie: het zijn hulpmiddelen om grote hoeveelheden data te filteren – niet meer en niet minder.
Deze films vind je misschien ook leuk… | Wat kan kunstmatige intelligentie in al haar verschijningsvormen nu precies? Wel, er gaat geen dag voorbij zonder dat we te maken krijgen met een vorm van kunstmatige slimheid. Toepassingen kunnen vaak meer dan alleen data filteren: ze nemen ook beslissingen. Een slimme (‘adaptive’) cruise control houdt bijvoorbeeld niet zomaar één vaste snelheid aan, maar zal ook de afstand tot de auto vóór je constant houden.
De politie zet ‘slimme flitspalen’ in die getraind zijn om automobilisten met een smartphone in de hand te flitsen. In de gezondheidszorg helpen toepassingen medici om beelden te interpreteren en diagnoses te stellen. Wereldwijd worden autonome wapensystemen ontwikkeld, die zelf doelen kunnen selecteren en aanvallen. In Rotterdam draait een proef met ‘slimme lantaarnpalen’, uitgerust met camera en een microfoon om inbraken tegen te gaan. Spotify vergelijkt je luistergedrag met dan van een heleboel andere gebruikers en geeft op grond daarvan aanbevelingen voor nieuwe muziek.
De kracht van kunstmatige intelligentie ligt erin dat het veel data volgens een vaste methode verwerkt en zo patronen kan ontdekken die we zelf niet zo snel – of zelfs nooit – zouden zien, of bepaalde taken leert uit te voeren. Door de voorkeuren te analyseren van vele duizenden gebruikers die dezelfde drie artiesten hebben beluisterd die jij deze week afspeelde, komt Spotify tot een gerichte aanbeveling. Maar die analyse hangt sterk af van de data waarmee het systeem werkt. Dat weet iedereen met een familie-account op een streamingdienst: je krijgt dan aanbevelingen mede op basis van het kijk- of luistergedrag van de andere gezinsleden.
Kevin Jansen | Nu is het duidelijk waarom Netflix je allerlei kinderfilms aanraadt op zo’n gezinsaccount. Maar als een computersysteem stelt dat mensen met een bepaalde postcode vaker dan gemiddeld frauderen, is er reden om nog eens goed naar het systeem te kijken. Niet alle patronen zijn relevant, en het lukt kunstmatige intelligentie niet altijd de relevantie te bepalen. Stel, een slim systeem analyseert informatie over een groot aantal wanbetalers. Daar komt uit dat mensen met de voornaam Kevin vaker dan gemiddeld hun hypotheek niet op tijd betalen. Is het daarmee gerechtvaardigd om Kevin Jansen dan maar geen hypotheek te geven? Het blindelings opvolgen van het advies van zo’n slim systeem is dus niet zo slim – of wel slim, maar niet rechtvaardig.
Even tussendoor, het zijn niet alleen kunstmatige intelligentiesystemen die dit soort rare aannames maken. Banken hebben, ook toen er nog geen kunstmatige intelligentie gebruikt werd, hun beoordeling voor een hypotheek ook wel laten afhangen van de wijk waarin de aanvrager woonde. En denk eens aan al die tests waarbij dezelfde sollicitatiebrief werd verstuurd, maar met als afzender een Arie of een Abdul. De beoordeling van de zeer menselijke lezer verschilt in dat geval nogal vaak. In die zin is kunst- matige intelligentie soms net zo dom als gewone mensen.
Hoe menselijke vooroordelen werken weten we wel zo’n beetje. Maar het is veel lastiger te achterhalen of er in de algoritmes van een kunstmatige intelligentiesysteem vooroordelen zijn terechtgekomen. Zeker wanneer er, zoals bij deep learning, een groot aantal lagen in het systeem zitten, is het praktisch onmogelijk te bepalen welke factoren in de algoritmes nu precies de doorslag geven. Daarom denkt de overheid na over manieren om algoritmes transparanter te maken, bijvoorbeeld via een nationaal register.
In het doorwroeten van grote hoeveelheden data is kunstmatige intelligentie beter dan een mens. Dat kan tot fouten leiden, zoals het weigeren van een hypotheek aan Kevins, maar het kan ook heel goed uitpakken. Doordat slimme systemen de data volgens een vast stramien verwerken, voorkomen ze juist dat de onbewuste menselijke vooroordelen een rol gaan spelen.
Veel hangt af van de data waarmee slimme systemen worden gevoed. Dat is ook een punt waar dit soort systemen relatief gemakkelijk te controleren is. Want waarom moet het systeem iemands voornaam kennen? Of de postcode waar iemand woont? Of, zoals bij een proef in Roermond waarbij misdaad voorspeld wordt, de landencode van een nummerbord? Daarnaast is het natuurlijk belangrijk dat er – waar de wet dat voorschrijft – gewerkt wordt met data van mensen die toestemming hebben gegeven voor het gebruik ervan. Wie niet goed snapt hoe een algoritme werkt, kan zo in ieder geval bepalen met welke data het systeem mag werken.
Data heeft de naam het ‘nieuwe goud’ te zijn. Maar het is niet alles goud wat blinkt. Wie systemen voedt met slechte of irrelevantie data, zal ook slechte of oneerlijke uitkomsten krijgen. Dan is het niet eerlijk om het systeem de schuld te geven. Die systemen weten uiteindelijk niet wat ze doen. Al kunnen ze katten op plaatjes feilloos van honden onderscheiden, ze weten niet wat het verschil is tussen die twee – en ze hebben al helemaal geen voorkeur voor een van beide.
Deze beperkingen zijn belangrijk in onze omgang met slimme systemen. Hoe slim ze ook zijn, het is onverstandig er blind op te varen. Het is natuurlijk handig wanneer een geautomatiseerd systeem complexe beoordelingen kan overnemen, maar er zou altijd een mogelijkheid moeten zijn om zo’n automatische beoordeling te herzien door een mens. Dat die ‘menselijke maat’ onmisbaar is, heeft de toeslagenaffaire wel aangetoond.
Singulariteit: sciencefiction? | En toch. Zijn computers ons soms niet de baas? In 1997 versloeg de IBM computer Deep Blue II de regerend wereldkampioen schaken Gary Kasparov in een match over zes par- tijen. Nu valt nog te zeggen dat schaken een sport is die simpelweg een grote kennis vraagt van gespeelde partijen.
Er is een beperkt aantal openingen mogelijk, dus een computer kan de stand op het bord eenvoudig vergelijken met een grote database. Dit is overigens ook de manier waarop menselijke topscha- kers spelen, alleen zit bij hen de database in het hoofd.
Maar in 2016 versloeg het programma AlphaGo een topspeler van Go, vermoe- delijk het meest complexe bordspel ter wereld. In dit geval leek het programma een nieuwe strategie te hebben ontwik- keld en niet alleen maar te spelen vanuit een grote database vol spelinformatie. Tegelijkertijd meldde de menselijke ver- liezer dat de elektronische tegenstander nooit de ‘schoonheid van het spel’ zou kunnen bevatten.
Dit brengt ons bij nog een belangrijk punt over kunstmatige intelligentie. Er is zoiets als ‘toegepaste kunstmatige intelligentie, en er is ‘algemene kunst- matige intelligentie’. Het eerste verwijst naar slimme systemen die één bepaalde functie kunnen uitvoeren, zoals het onderscheiden van katten en honden (of, voor wie inmiddels genoeg heeft van dit voorbeeld, het onderscheiden van goedaardige en kwaadaardige tumoren op een CT-scan). De algemene kunstmatige intelligentie verwijst, zoals de naam al zegt, naar een bredere intelligentie. Het is een nabootsing van menselijke intelligentie in al haar dimen- sies en facetten. Zo’n algemeen systeem kan niet alleen Go spelen of schaken, maar ook genieten van een mooie partij, bedenken wat je geliefde voor haar verjaardag zou willen hebben, een oorlog beginnen, de auto besturen of de hond op tijd uitlaten. Het zijn deze computersystemen en robots die we doorgaans zien in sciencefictionfilms.
Of die sciencefiction ooit werkelijkheid wordt, daarover zijn de deskundigen het niet eens. Sommigen geloven dat we richting de ‘singulariteit’ gaan, het punt waarop computers de mensheid gaan overvleugelen op alle terreinen. Ande- ren denken dat dit onmogelijk is, zeker binnen afzienbare tijd. Computers zijn de afgelopen decennia steeds sneller geworden, maar het zijn en blijven – waarschijnlijk – veredelde rekenmachines die zonder dieper inzicht enen en nullen aanpassen in hun transistoren.
Ja, er wordt gewerkt aan andere computerontwerpen, zoals de kwantumcomputer of de neuromorfe (= op het menselijk brein gebaseerde) computer. En ja, slimme systemen kunnen zichzelf dingen leren die de programmeur niet heeft bedacht. Maar veel deskundigen betwijfelen of dat meer gaat opleveren dan alleen meer rekenkracht. Bewustzijn bijvoorbeeld, of creativiteit, dat zijn ongrijpbare menselijke kwaliteiten die bovendien deels afhangen van onze lichamelijkheid. Zonder lichaam geen geest en geen expressie.
Waar het precies heen zal gaan met kunstmatige intelligentie staat niet vast. Dat het nu al een grote impact heeft op onze levens, is een gegeven. De uitdaging is om slimme systemen te laten doen waar ze goed in zijn (het verwerken van grote hoeveelheden data) maar om de uitkomsten met ons menselijke inzicht te controleren. Kloppen de data die in het systeem gaan, zijn die relevant? En voldoen de uitkomsten van de slimme analyses aan de menselijke maat? Blind vertrouwen is nooit goed, of het nu gaat om (meer dan wel minder) slimme mensen of (meer dan wel minder) slimme kunstmatige systemen.
Dr. René Fransen is bioloog, schrijft over onderzoek in bètatechniek voor de Rijksuniversiteit Groningen en is daarnaast freelance wetenschapsjournalist voor onder andere het Nederlands Dagblad.
Meer weten? Doe dan de Nationale AI cursus: www.ai-cursus.nl.