Kan AI complotdenkers overtuigen? De kracht van feiten

Hoofdpunten

Maak kennis met de debunkbot

Veel mensen kennen wel iemand die gelooft dat de maanlanding nep was of dat COVID-19-vaccins microchips bevatten. Het is vaak lastig om mensen die in complottheorieën geloven van gedachten te doen veranderen, zelfs wanneer ze worden geconfronteerd met bewijs dat hun overtuigingen tegenspreekt. Een nieuw onderzoek, gepubliceerd in het tijdschrift Science, suggereert echter dat mensen hun standpunt wél kunnen herzien als ze door een kunstmatige intelligentie (AI) chatbot worden aangesproken, in plaats van door een mens. Deze ‘debunkbot’, die op feiten gebaseerde tegenargumenten presenteert, lijkt zelfs de meest hardnekkige complotdenkers open te stellen voor scepticisme.

 

Echte gelovers

Jan-Willem van Prooijen, een gedragswetenschapper van de Vrije Universiteit Amsterdam, die niet betrokken was bij het onderzoek vindt het bemoedigend om te zien dat AI kan bijdragen. Hoewel AI vaak wordt geassocieerd met het verspreiden van onwaarheden, zoals via deepfakes, vindt Van Prooijen het “verfrissend” om te zien dat AI ook voor positieve doeleinden kan worden ingezet.

“Het is bemoedigend om te zien hoe AI kan bijdragen aan het bestrijden van desinformatie en complottheorieën.”

Jan-Willem van Prooijen, gedragswetenschapper aan de VU

Uit sommige schattingen blijkt dat bijna de helft van de Amerikanen in minstens één complottheorie gelooft, zoals de bewering dat de CIA betrokken was bij de moord op John F. Kennedy of dat er buitenaardse lichamen worden bewaard in Area 51. Psychologen denken vaak dat deze overtuigingen voortkomen uit een diepere psychologische behoefte aan bijvoorbeeld veiligheid of controle. Maar volgens Thomas Costello, psycholoog aan de American University en hoofdauteur van de studie, bieden de nieuwe bevindingen sterk bewijs dat deze psychologische motieven niet het volledige plaatje vormen, en misschien zelfs onjuist zijn.

 

AI in strijd met desinformatie

Tijdens discussies over complotten gebruiken gelovigen vaak een tactiek waarbij ze snel een groot aantal argumenten aandragen, ook wel bekend als de Gish gallop. Het is voor een mens vrijwel onmogelijk om elk argument afzonderlijk te weerleggen, maar een AI-systeem zou dat theoretisch wel kunnen. Costello en zijn team wilden onderzoeken of een groot taalmodel (zoals GPT-4 Turbo), dat in staat is om enorme hoeveelheden informatie te verwerken, effectief complottheorieën kan weerleggen met wat zij noemen “gepersonaliseerde overreding.”

Voor hun experiment rekruteerden de onderzoekers meer dan 2000 deelnemers die in minstens één complottheorie geloofden. De deelnemers voerden een gesprek met een chatbot waarin ze hun overtuigingen en het bewijs dat hen overtuigde deelden, en beoordeelden hoe zeker ze waren van hun standpunt. De AI bood daarop specifieke, op feiten gebaseerde weerleggingen van hun beweringen. Het resultaat? Het vertrouwen van de deelnemers in hun complottheorieën daalde gemiddeld met 20%. Deze afname in geloof bleef bovendien opmerkelijk stabiel, soms tot wel twee maanden na het gesprek, en werkte bij verschillende soorten complottheorieën. “Het meest opvallende is hoe effectief en langdurig dit effect was,” aldus Ethan Porter, een onderzoeker naar desinformatie aan de George Washington University.

 

Beleefd, feitelijk en vooral niet emotioneel

Van Prooijen denkt dat het succes van de debunkbot mede te danken is aan het feit dat AI beleefd blijft in discussies, in tegenstelling tot menselijke gesprekken die vaak emotioneel en verhit raken. Daarnaast speelt het sociale aspect mee: mensen hebben minder angst om ‘gezichtsverlies’ te lijden tegenover een AI dan tegenover vrienden of familie. In een tweede experiment ontdekte het team dat een chatbot die geen op feiten gebaseerde weerleggingen gaf, geen effect had op de overtuigingen van de deelnemers. Dit benadrukt volgens Costello dat het presenteren van feitelijk bewijs essentieel is om complottheorieën te ontkrachten.

Toch speelt volgens Federico Germani, een expert in desinformatie, de retoriek die door AI wordt gebruikt ook een rol. Omdat AI-modellen zijn getraind op echte gesprekken, nemen ze subtiele overtuigingsstrategieën over, wat hun argumenten krachtiger kan maken dan enkel feiten alleen.

“De onderzoekers onderschatten mogelijk hoe goed AI kan zijn in manipulatie tussen de regels door.”

Federico Germani, expert in desinformatie

Ondanks de positieve resultaten, blijven sommige wetenschappers kritisch. Psychologen van de Universiteit van Kent vragen zich af of het experiment daadwerkelijk bewijst dat psychologische behoeften geen rol spelen in het vasthouden aan complottheorieën. Ze benadrukken dat de deelnemers nog steeds redelijk overtuigd waren van hun oorspronkelijke overtuigingen, zelfs na de pogingen van de AI om hen op andere gedachten te brengen.

 

De invloed op social media

Hoewel complotdenkers waarschijnlijk niet snel vrijwillig in gesprek zullen gaan met een debunkbot, zien experts zoals Germani en Van Prooijen wel potentieel voor het gebruik van AI op sociale mediaplatforms. Deze kunnen dergelijke bots inzetten om desinformatie te identificeren en te weerleggen, wat gebruikers zou kunnen helpen om sneller twijfels te krijgen over wat ze lezen. Volgens Costello kunnen mensen de AI ook gebruiken om snel beweringen te controleren die ze tegenkomen, wat hen zou kunnen beschermen tegen het afglijden in complotdenken. “Je kunt deze chatbots zien als een soort ‘epistemische hygiëne‘—net zoals tandenpoetsen goed is voor je mond, helpt dit je geest schoon te houden,” legt hij uit.

 

Bronmateriaal: Science Magazine

Wat vind je van het artikel?
+1
3
+1
3
+1
1
+1
0
0 Comments
Oudste
Nieuwste Meest gestemd
Inline feedbacks
Bekijk alle reacties

Mensen lezen ook

Sciencetalk

Categorieën