NOS Nieuws

Een gesprekje met een AI-chatbot maakt complotdenkers minder overtuigd van hun theorieën. Gemiddeld zijn ze daarna 20 procent minder overtuigd van hun denkbeelden. Twee maanden na de interactie met de chatbot is die twijfel onverminderd. Dat blijkt uit een studie met meer dan 2000 complotdenkers, gepubliceerd in het wetenschappelijke blad Science.

De deelnemers waren mensen die in een enquête hadden aangegeven in één of meerdere complottheorieën te geloven. Daarbij ging het onder meer over onbewezen theorieën over buitenaardse wezens, covid-19, de aanslagen op het World Trade Center in 2001 en de moord op de Amerikaanse president Kennedy in 1963.

Verrassend groot effect

“Heel interessant. Ik ben verrast door de grootte van het effect, en dat het zo lang aanhoudt”, zegt Jan-Willem van Prooijen, bijzonder hoogleraar radicalisering en complotdenken aan de Universiteit Maastricht en zelf niet betrokken bij de studie. “Over het algemeen zijn complotdenkers moeilijk van hun standpunt af te brengen.”

Bekende methoden als het debunken en prebunken – het achteraf of vooraf ontkrachten – van theorieën hebben meestal maar weinig effect, aldus Van Prooijen. Het toevoegen van waarschuwingen aan onbetrouwbare informatie werkt iets beter, maar zeker niet zo goed als de interventie in deze nieuwe studie.

AI staat erom bekend dat het soms misinformatie kan verspreiden, onder meer door het beruchte ‘hallucineren’, waarbij het onwaarheden begint te verkondigen. Dat probleem speelde bij deze studie niet: 99,2% van de informatie die de chatbot gaf was correct, bleek bij een fact-check achteraf. De overige 0,8% was misleidend, maar niet fout.

Gedragswetenschapper Bastiaan Rutjens van de Universiteit van Amsterdam noemt het een overtuigende studie, maar vindt wel dat de nadruk in de studie erg op kennis en informatie ligt. “Ideeën ontstaan niet in een vacuüm, de sociale context is ook belangrijk. 20 procent is al een groot effect, maar dat zou je misschien nog wel kunnen versterken door ook naar sociale factoren te kijken”.

Zware en lichte complotdenkers

Stef Aupers van de KU Leuven, die als cultuursocioloog al jaren onderzoek doet naar complottheorieën, plaatst nog wel een kritische kanttekening. Hij constateert dat in de studie geen onderscheid is gemaakt tussen ‘zware’ en ‘lichte’ complotdenkers. “De weerstand tegen wetenschappelijke en feitelijke informatie zie je vooral bij zware complotdenkers”, zegt hij. “Zolang die niet beïnvloedbaar blijven, heb je het echte probleem niet opgelost”.

Desalniettemin ziet hij mogelijkheden om chatprogramma’s in te zetten die misinformatie kunnen tegengaan. Hij denkt daarbij ook aan zaken als het tegengaan van extremisme en wantrouwen in de wetenschap. “De reikwijdte is groot, dat maakt dit onderzoek belangrijk”.

Debunken op sociale media

De wetenschappers zelf hopen dat chatbots in de toekomst ook in de echte wereld ten strijde kunnen trekken tegen complottheorieën. Ze zien bijvoorbeeld mogelijkheden om ze toe te voegen aan sociale media.

Daarvoor zal nog wel wat extra training nodig zijn. De chatbot die in de studie werd gebruikt, was speciaal getraind om te reageren op een klein aantal complottheorieën. Op sociale media komt een grote hoeveelheid complottheorieën voorbij, in allerlei variaties.

De hoofdredacteur van Science, Holden Thorp, wijdde een redactioneel commentaar aan het onderzoek. “Het is misschien ontmoedigend dat een machine beter is in het weerleggen van misinformatie dan een mens, maar het is een opluchting dat het uiteindelijk de wetenschappelijke informatie is die overtuigt”, besluit hij daarin.

Share.
Exit mobile version