Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
EN

Begin maart 2021 ontstaat er grote ophef onder de wat fanatiekere vleugel van de CDA-aanhang. Wat is er aan de hand? Vlak voor de Tweede Kamer-verkiezingen heeft de charismatische lijsttrekker Hugo de Jonge een slip of the tongue begaan die zelfs Joe Biden zich niet zou laten ontvallen. ‘Zoals Jezus zou zeggen: pin me er niet op vast,’ zei hij in een gerespecteerd praatprogramma. Het ultra-korte maar o zo explosieve fragment verspreidt zich als een olievlek over het internet. De verontwaardiging is groot – niet in de laatste plaats bij De Jonge zelf, die beweert de uitspraak nooit gedaan te hebben.

Natali Helberger (foto: Bob Bronshoff)

Raar verhaal? Het klinkt inderdaad vreemd, toch is iets vergelijkbaars echt gebeurd. CDA-aanhangers zijn wel degelijk boos geworden om een misplaatste uitspraak van een vooraanstaande politicus van hun partij. Het verschil met het scenario hierboven is dat ze meededen aan een onderzoek van onder meer Natali Helberger, universiteitshoogleraar op de leerstoel Law and Digital Technology aan de Universiteit van Amsterdam. Ook was het in dat onderzoek niet De Jonge, maar Sybrand Buma die de uitspraak deed – in een deepfake: een met behulp van AI getructe video.

Met het experiment wilden Helberger c.s. niet alleen uitzoeken of de kiezers erin trapten en minder vertrouwen zouden krijgen in ‘hun’ politicus, maar ook of dit effect versterkt zou worden als de beelden vooral vertoond zouden worden aan een specifieke, gevoeliger geachte doelgroep: microtargeting. Het versterkende effect van de microtargeting bleek niet zo spectaculair. ‘Maar ik vond het wel zorgwekkend hoeveel mensen toch dachten dat het echt was’, vertelt Helberger. ‘Mensen hebben blijkbaar een groot vertrouwen in bewegend beeld. Deepfake is daardoor een behoorlijk effectieve tool voor misleiding. Wij waren best trots op onze video maar het was niet echt een mega-goeie deepfake. En naarmate de technologie beter wordt, waarschijnlijk al binnen een paar jaar, wordt het echt moeilijk voor een niet-professional om te herkennen of een video nep is.’

Moeten we nu vrezen dat de VVD daadwerkelijk een gemanipuleerde video gaat verspreiden om de concurrent onderuit te halen? ‘Ik hoop dat het Nederlandse democratische bestel solide genoeg is dat de partijen niet naar dit soort maatregelen grijpen. Ik denk dat je eerder kunt verwachten dat mensen het doen voor niet-democratische doeleinden doen, om te ondermijnen. Denk aan buitenlandse inmenging, of individuen die kwaad willen, die zijn er ook – ja, ook in Nederland.’

Corona-app
Dat de opkomst van AI belangrijk is voor de verkiezingen is hiermee wel meer dan duidelijk gemaakt, maar ook op andere manieren zal de politiek zich ertoe moeten verhouden. Denk alleen maar aan de privacyvraagstukken die een corona-app oplevert. En dat is precies het soort onderwerpen waar Helberger zich dagelijks mee bezighoudt. Als hoogleraar informatierecht bestudeert ze de juridische, ethische en beleidsmatige uitdagingen die gepaard gaan met het gebruik van algoritmes en AI in de media, politieke reclame, commercie en de gezondheidssector en de implicaties voor gebruikers en de samenleving. Allicht kan zij de in AI geïnteresseerde kiezer – en dat zouden we allemaal moeten zijn – een paar inzichten verschaffen om in maart goed voorbereid het stemhokje in te gaan.

In april trok ze met een aantal collega-wetenschappers hard aan de bel: we moeten eens kritisch kijken naar die corona-app, schreven ze in een brief aan de Tweede Kamer. ‘Het ging alleen maar erover of de app er moest komen. Er was nooit de vraag: wat is nou het echte probleem? Welke technologische oplossing past daarbij? Wat hebben we nog nodig om ervoor te zorgen dat de technologie echt zo werkt als wij willen? Een tweede punt dat wij gemaakt hebben is dat contact tracing, of welke digitale oplossing dan ook, behoorlijk ingrijpt in grondrechten. Des te meer reden om goed te wegen wat het doel is, en wat de rol van het recht is om ervoor te zorgen dat fundamentele rechten gewaarborgd blijven.’

Sowieso zou er over dit onderwerp wel wat meer parlementaire discussie mogen zijn, meent Helberger. 

Copyright: UvA
Het voorstel voor de coronawet heeft vlak voor de zomer tot ongelofelijk veel discussie geleid. Gek genoeg zijn de bepalingen over technologische maatregelen die daarin staan nauwelijks bediscussieerd.

Naar aanleiding van de brief over de corona-app is Helberger gevraagd door ZonMw, een organisatie voor gezondheidsonderzoek en zorginnovatie, die nauw met het ministerie samenwerkt, om een studie te schrijven over de juridische, maatschappelijke en ethische implicaties van digitale technologie. ‘We ontwikkelen daarvoor ook een monitoring tool waarmee we willen meten hoe mensen die app gebruiken en wat mogelijke maatschappelijke gevolgen van de introductie van die app zijn. Je kunt bijvoorbeeld denken aan stigmatisering in de zin van maatschappelijke uitsluiting van mensen die positief zijn getest, of weigeren die app te gebruiken, of dat werkgevers je niet willen binnenlaten als je die app niet gedownload hebt.’

Aanbevelingssystemen
Terug naar de toekomst: de verkiezingen van 2021. Naarmate 17 maart nadert, zwelt de stroom politiek nieuws aan en gaan we allemaal hopelijk nog wat nauwgezetter de (digitale) krant lezen om tot een weloverwogen keuze te komen. Maar hoe weten we dat we niet in een nare filterbubbel van algoritmische aanbevelingssystemen terechtgekomen zijn die ons niets biedt dan tunnelvisie? Als we onze nieuwsconsumptie alleen maar door Facebook laten sturen, dan zijn we verkeerd bezig. ‘Facebook is één groot aanbevelingssysteem. Die gebruiken het voornamelijk om jou relevante content, en gepersonaliseerde advertenties te laten zien.’ Maar in de nieuwspersonalisatie die media zelf gebruiken, ziet Helberger niet direct een bedreiging van de democratie. ‘We zien dat nieuwsmedia als DPG Media en RTL experimenteren met nieuwspersonalisatie om ons gericht te informeren en op basis van jouw lezersprofiel content aan te bevelen die ook relevant is. Meestal zijn die aanbevelingssystemen maar beperkt tot delen van die website, het is niet zo dat de hele Volkskrant opeens gepersonaliseerd is. Ook is er meer en meer aandacht voor het verantwoord gebruik van nieuwspersonalisatie en de effecten op bijvoorbeeld diversiteit of de privacy.’

Diepgang
En last but not least: hoe kiezen we de partij die het meeste AI-ready is? Helberger adviseert ons de verkiezingsprogramma’s kritisch te lezen. ‘Als er over technologie gesproken wordt, zoek dan naar diepgang. Zijn het holle frasen? Of is er echt nagedacht over de positieve kanten, maar ook over hoe we de burgerrechten kunnen beschermen? Het is heel modern om te zeggen: we zetten in op AI, maar om er echt goed over na te denken moet je oog hebben voor de implicaties. Pas dan kun je AI verantwoord inzetten. En hoe willen partijen omgaan met grote Amerikaanse platforms, die de leidend zijn in de ontwikkeling van de technologie, en als enige controle hebben over grote hoeveelheden data? Hoe zorgen we dat voldoende talent in Nederland ontwikkeld wordt om zelf goede technologie te produceren? Hoe zorgen we ervoor dat we innovatie stimuleren in Nederlandse bedrijven? Hoe zorgen we dat er voldoende geld is voor onderzoek naar effecten van technologie?’

Met dat laatste aspect zijn we aanbeland bij initiatieven als AI technology for people, waarin de Amsterdamse kennisinstituten en de gemeente samenwerken en initiatieven ontwikkelen om AI op de kaart te zetten. 

Voor Nederland is dat superbelangrijk. Ik ben heel blij dat er aandacht is voor de bredere maatschappelijke belangen.

Kan Helberger ons misschien nog een klein zetje in de goede richting geven voor maart 2021? ‘Nee hoor, een stemadvies geven, dat lijkt me geen goed idee.’ Misschien ook niet zo verrassend: verantwoord omgaan met de implicaties van artificiële intelligentie blijft toch vooral een kwestie van ons eigen menselijke verstand goed gebruiken.