Politieke deepfakes: ze werken
Politieke deepfakes: ze werken
23 juni 2021
Foto: Folkert Rinkema
Doemdenkers vrezen de ‘infocalyps’: het einde van de tijd dat informatie ons nog daadwerkelijk informeerde. En daarmee het begin van de tijd waarin het steeds lastiger is echt te onderscheiden van nep. Een van de belangrijkste onderdelen van die naderende ‘infocalyps’ is het fenomeen deepfake. Voor deepfakes wordt al een tijd gewaarschuwd, maar wetenschappelijk bewijs voor de veronderstelde negatieve effecten is dun. Daarom nam ik de proef op de som en maakte ik met behulp van kunstmatige intelligentie een deepfake van een Nederlandse (inmiddels ex-) politicus: Sy- brand van Haersma Buma. In de deepfakevideo maakte Buma een slechte woordgrap over het lijden van Jezus Christus. Mijn verwachtingen waren 1) dat mensen zouden geloven dat de deepfake echt is, 2) dat mensen negatiever over Buma en het CDA zouden denken na het zien van de deepfake en 3) dat met name christenen negatiever zouden gaan denken over Buma en zijn partij.
In samenwerking met de ethische commissie van de Universiteit van Amsterdam voerde ik een experiment uit. Daaruit bleek dat twaalf van de 143 mensen die de deepfake zagen, doorhadden dat de video nep was. Ook dachten de mensen die de deepfake hadden gezien negatiever over Buma dan de mensen die de controlevideo hadden gezien: mensen gingen dus negatiever denken over Buma na het zien van de deepfake. Maar mensen gingen niet negatiever denken over het CDA.
Ten slotte keek ik of christenen extra negatief reageerden op de deepfake. Bij de groep in zijn geheel was dat niet zo, maar ‘christenen’ is natuurlijk een erg brede groep. Sommigen gaan dagelijks naar de kerk en anderen alleen met kerst. Toen ik de groep christenen nader inspecteerde, ontdekte ik bij de groep die te definiëren is als ‘sterk religieus’ die in de afgelopen jaren weleens op het CDA had gestemd juist wel een sterk effect. De sterk religieuzen in de controlegroep dachten na het zien van de niet-controversiële controlevideo vrij positief over Buma en het CDA. Maar de sterk religieuzen in de deepfakegroep dachten significant minder positief over Buma en zijn partij.
De resultaten geven aanleiding tot drie voorlopige conclusies. Ten eerste trappen vrij veel mensen in een deepfake (in dit onderzoek zelfs 92%). Hoewel steeds meer mensen hebben gehoord van deepfakes, worden deepfakes beter en dus lastiger te onderscheden van echt. Ten tweede kunnen deepfakes inderdaad mensen beïnvloeden, maar moeten we het effect van één enkele deepfake niet overdrijven. Het is namelijk de vraag hoelang het effect aan- houdt. In deze deepfake maakte Buma een vrij onschuldig grapje. Een extremere uitspraak kan sterkere effecten teweegbrengen. Ten derde reageerde één groep, de sterk religieuzen, vrij stevig op de deepfake. Nu kwaadwillenden met digitale advertenties precies de doelgroep kunnen bereiken die ze willen, is dit een ontmoedigende bevinding. Het suggereert dat ze verschillende deepfakes op maat kunnen maken en kunnen tonen aan precies degenen die er vatbaar voor zijn. Een kanttekening hierbij is dat het lastig is om vooraf in te schatten wie waarvoor gevoelig is.
Kortom, de verwijzing naar de Bijbelse apocalyps bij de term ‘infocalyps’ is niet toevallig gekozen. Mijn onderzoek suggereert dat we inderdaad negatieve gevolgen kunnen verwachten van politieke deepfakes. We bevinden ons in de luxepo- sitie dat we een bedreiging van mijlenver aan zien komen. Nu moeten we handelen. Bijvoorbeeld door op scholen mediawijsheid een vast vak te maken. Of door een abonnement te nemen op media die zich aan journalistieke normen houden.
Waar het bij het onderzoek vorig jaar nog veel werk was om de deepfake te maken, is het inmiddels mogelijk om in een paar uur een zeer realistische deepfake te maken. Tegelijkertijd is er nog geen enkele deepfake opgedoken in de publieke sfeer die als doel heeft te misleiden. De vraag rijst daarmee of doemdenkers met het gebruik van alarmistische termen als infocalyps niet precies datgene bereiken waar ze voor waarschuwen: een situatie waarin informatie bij voorbaat verdacht is, zodat het voor mensen steeds lastiger wordt echt van nep te onderscheiden.
Dr. Tom Dobber is post- doctoraal onderzoeker aan de Universiteit van Amsterdam. Zijn onder-zoek focust op politieke microtargeting en desinformatie. Onlangs publiceerde hij een onderzoek naar de impact van een politieke deepfake in Nederland: Do (Microtargeted) Deepfakes Have Real Effects on Political Attitudes?