Op zoek naar de politiek van kunstmatige intelligentie: voorbij het algoritme

Op zoek naar de politiek van kunstmatige intelligentie: voorbij het algoritme

microfoon debat

23 juni 2021 by Ruben Ros

In het kielzog van alle technologische vooruitgang komt het politieke debat over AI maar moeilijk op gang. Wat mist, is de politieke bezinning op de productie en het gebruik van AI-systemen, in plaats van een apolitiek en moralistisch vertoog over de algoritmische natuur.

Een diepe angst voor vrijheidsbeperking door AI en onwetendheid over de staat van kunstmatige intelligentie heeft de discussie vernauwd. Het debat bestaat enerzijds uit gesteggel over restricties op het gebruik van algoritmes. Anderzijds richt kritiek zich op de bias in algoritmische systemen en wordt gezocht naar hoe de ongewenste effecten van het gebruik van algoritmische systemen te beperkten. Zolang de singulariteit nog niet bereikt is, mag het debat over AI wel wat verder gaan dan naïeve angst en filosofische zoektochten naar neutrale technologie. Onder alle techtalk liggen namelijk oude vragen over macht, rechtvaardigheid en welvaartsverdeling. Die gaan ons allemaal aan.

Wat we kunstmatige intelligentie noemen, behelst vooral het trainen  van  modellen op grote hoeveelheden tekstuele of visuele data. Deze modellen worden vervolgens ingezet om zaken te voorspellen of te categoriseren. De modellen worden steeds beter, maar dit komt in belangrijke mate door de grotere hoeveelheden data die in het trainingsproces gebruikt worden. GPT-3,het laatste taalmodel gemaakt door Elon Musks OpenAI, is getraind op honderden miljarden woorden. Gemiddeld verdubbelt de grootte van de input-data elke drie tot vier maanden. Al die data zijn geproduceerd door individuen wiens eigendomsrechten en privacy met voeten getreden wordt.

Daarnaast worden klimaatbelastende en omgevingsverstorende datacentra in de Nederlandse polders uit de grond gestampt om de data op te slaan en berekeningen te maken. Pessimistische onderzoeken schatten in dat de datacentra die nodig zijn voor de productie en inzet van AI binnen enkele jaren tien procent van de totale CO2-uitstoot omvat.1

Ook wordt de productie van ground truth, op basis waarvan de nauwkeurigheid van modellen geëvalueerd wordt, vaak uitbesteed aan slecht betaalde arbeidskrachten.2 Het platform Amazon Mechanical Turk, waar dit soort classificatietaken worden uitbesteed, staat bekend om slechtbetaalde opdrachten.3

Vervolgens wordt deze techniek doorgaans zonder enig toezicht gebruikt. Een berucht voorbeeld zijn de in China ontwikkelde beeldherkenningsalgoritmen die ingezet worden om Oeigoeren te herkennen. Westerse bedrijven en onderzoekers die de heropvoedingskampen ongetwijfeld keurig afkeuren, gebruiken de daar ontwikkelde Chinese techniek vaak zonder enige schroom.

Dit alles wordt overschaduwd door het feit dat onze digitale infrastructuur in handen is van een handjevol megacorporaties, voor wie het gemijmer over de algoritmische moraal de perfecte bliksemafleider is voor hun problematische marktpositie.

Een AI-politiek zou zich dus kunnen en moeten richten op praktijkissues als deze. Er is meer te doen dan het verbieden van technologie of het reduceren van bias. Ontwikkel een Europese innovatie-agenda waarin bovenstaande issues een plaats hebben, in plaats van te bezuinigen op onderzoek. De recente miljardenkorting op de Europese academische Horizon 2020 fondsen zal bepaald niet helpen om alternatieven voor Chinese technologie te ontwikkelen. Breek daarnaast de macht van de Big Five met mededigingsingrepen en belastingmaatregelen, in plaats van het zoveelste morele appèl. Ook dat kan het beste op Europees niveau. Ten slotte, pak privacy-issues bij de wortel aan door persoonlijke advertenties te verbieden, in plaats van techbedrijven te smeken transparant te zijn.

Het debat over AI kan wel wat meer politiek gebruiken. Daarvoor is een blik voorbij het algoritme noodzakelijk. Pas wanneer we alle elementen – dataverzameling en opslag, training, techniek, gebruik en eigenaarschap – in ogenschouw nemen, kunnen we de balans opmaken en bepalen wat wel en niet wenselijk is in een samenleving die niet in algoritmes te vatten is.

Ruben Ros is lid van de Denktank van PerspectieF en promovendus aan het Luxembourg Centre for Contemporary and Digital History (C2DH). Zijn onderzoek richt zich op de geschiedenis van technocratisch denken en de ontwikkeling van computationele methoden om histo- rische processen te modelleren.

Noten
1. Martin Giles, “Is AI the next big climate -change threat? We haven’t a clue,” MIT Technology Review, 29 juli 2019. https://www.technologyreview.com/2019/07/29/663/ai-computing-cloud-computing-microchips/.
2. Alana Semuels, “The Internet Is Enabling a New Kind of Poorly Paid Hell,”, The Atlantic, 23 januari 2018. https://www.theatlantic.com/business/archive/2018/01/amazon-mechanical-turk/551192/.
3. Oscar Schwartz, “Untold History of AI: How Amazon’s Mechanical Turkers Got Squeezed Inside the Machine”,IEEE Spectrum, 22 april 2019. https://spectrum.ieee.org/tech-talk/tech-history/dawn-of-electronics/untold-historyof-ai-mechanical-turk-revisited-tktkt.