Deepfakes: maatschappelijke verantwoordelijkheid van sociale media
Deepfakes: maatschappelijke verantwoordelijkheid van sociale media
23 juni 2021
Foto: Folkert Rinkema
Deepfake video’s zijn een opvallende exponent uit een hele batterij aan opkomende manipulatieve technologieën. Het is nog maar de vraag of onze democratie ertegen is opgewassen. En zo niet, wat er nu gedaan kan worden om het publieke debat ervoor klaar te stomen. Video’s beoordelen op inhoud kan immers al snel de vrijheid van meningsuiting en persvrijheid inperken. De oplossing moet daarom gezocht worden in een samenspel tussen veel dwingendere en concretere invulling van de maatschappelijke verantwoordelijkheid van sociale mediabedrijven én technologisch burgerschap.
Deepfakes zijn nieuw, maar de mogelijkheden om beeldmateriaal te bewerken zijn zo oud als de technieken om beelden vast te leggen. Tegenwoordig is de software om afbeeldingen te bewerken zo bekend dat het zelfs een werkwoord is geworden: Photoshoppen. Het bewerken van beelden is bovendien het uitgangspunt van sociale media die sterk in opkomst zijn, als TikTok en SnapChat. Het is dus niet alsof de samenleving nu voor het eerst geconfronteerd wordt met onwaarheden. Een gemanipuleerde video lijkt bovendien niet eens overtuigender dan een tekst of afbeelding. Toch zijn deepfakes zorgwekkend, maar dat ligt niet zozeer aan de deepfakes zelf. Het probleem zit dieper. Om dat in te zien, moeten we terug naar de functie van het publieke debat in een democratie. Het publieke debat kent twee essentiële eigenschappen: het is voor iedereen toegankelijk en in het debat worden standpunten uitgewisseld, getoetst en weersproken. Vooral het weerspreken van onjuistheden is de cruciale weerbaarheidsfactor tegen gemanipuleerde informatie. Alleen zo kunnen mensen te midden van alle leugens, insinuaties en overdrijvingen, chocola maken van berichtgevingen en daar hun mening over vormen.
Het onderzoek van Tom Dobber laat zien dat je met een rake deepfake mensen van de wijs kunt brengen. Hij vermoedt echter zelf al dat mensen het bedrog op termijn doorzien, zodra ze met elkaar in gesprek gaan. Een veel bedreigender scenario dan een losse video, is een voortdurende stroom aan onweersproken deepfakes en andere valse verhalen. Soms lijkt het wel alsof sociale media daar bol van staan. Dit heeft te maken met algoritmes en ontwerpkeuzes van sociale mediabedrijven, die daarmee in sterke mate bepalen hoe het publieke debat online gevoerd kan worden. Door deze keuzes kan een deepfake gemakkelijk viraal gaan, maar heeft een weerspreking bij lange na niet hetzelfde bereik. Deze onbalans is het gevolg van de technieken van de platformen én de wisselwerking met de menselijke psyche. Oplossingen moeten daarom in die hoeken gezocht worden.
Sociale mediabedrijven moeten bij zichzelf te rade gaan over hoe ze hun platform beter geschikt maken voor het publieke debat. Dit is een kwestie van invulling geven aan maatschappelijke verantwoordelijkheid, zoals de principes in OECD en VN-richtlijnen voorschrijven. De richtlijnen zijn nog vrijblijvend. Sociale mediabedrijven ontwerpen hun platformen nu zelfs zo dat zij profiteren van de verspreiding van gemanipuleerde informatie. Deepfakes worden aanbevolen, en het maken en delen ervan wordt aangemoedigd. Het liken en delen van video’s zijn namelijk interacties die platformen gebruiken om mensen te profileren; en deze profielen zijn vervolgens de basis voor het tonen van gerichte advertenties. Platforms zijn dus zo ontworpen dat mensen zoveel mogelijk kijken, delen en liken. Spraakmakende video’s zoals lasterlijke deepfakes lenen zich uitstekend voor dit verdienmodel. Ook hier geldt het spreekwoord dat eer en bate zelden van nature samengaan.
Vaak wordt gezegd dat mensen dan maar slimmer moeten worden, zodat ze zin en onzin beter kunnen onderscheiden. Maar Nederlanders geven al in diverse enquêtes aan sociale media te wantrouwen. Onderzoek suggereert bovendien dat het opleidingsniveau van ouders en gezinsinkomen van grotere invloed zijn dan mediawijsheidstraining. Om niet verdrinken in een toekomstige vloed aan deepfakes, is een ambitie nodig die een treetje hoger ligt dan mediawijsheid, die vooral voorziet in vaardigheden. We hebben behoefte aan technologisch burgerschap. Oftewel: kunnen meepraten, denken en beslissen over hoe technologie ingericht en ingezet wordt. De verbijstering over deepfakes kun je al zien als een schreeuwend verlangen naar een toekomst waarin platforms wel geschikt zijn voor het voeren van een publiek debat. Burgers vragen dus van sociale mediabedrijven dat zij hun platformen anders inrichten. Bijvoorbeeld door te regelen dat interacties die berichten weerspreken er evengoed toe doen. Al wordt de zee aan deepfakes nog zo diep, dan komt de waarheid altijd boven.
Pieter van Boheemen is onderzoeker Digitale Samenleving bij het Rathenau Instituut. Hij is mede-auteur van de rapporten “Digitale dreigingen voor de democratie” (2020) en “Digitalisering van het nieuws” (2018).