NOS Nieuws

Hoe krijg je overeenstemming tussen mensen met verschillende overtuigingen? Het is een eeuwig probleem, dat in de huidige wereld vol polarisatie nog extra actueel lijkt. Misschien kan kunstmatige intelligentie helpen: een nieuwe AI-tool helpt mensen met verschillende meningen tot overeenstemming te komen.

Dit nieuwe AI-gereedschap, ontwikkeld door Google DeepMind, maakt na een discussie tussen mensen een samenvatting die het gemeenschappelijke standpunt weergeeft, zonder de minderheidsstandpunten over het hoofd te zien. De deelnemers vonden de samenvattingen van de AI informatiever, helderder en minder gekleurd dan die van menselijke bemiddelaars. Het onderzoek hiernaar is gepubliceerd in het wetenschappelijke blad Science.

“We wilden onderzoeken of AI gebruikt kan worden om collectieve besluitvorming te verbeteren”, vertelt Michiel Bakker, aan de TU Delft afgestudeerd op quantumcomputers en een van de leidinggevenden van het onderzoek. Hij benadrukt dat zulke processen tussen mensen vaak langzaam verlopen. Ook bestaat het gevaar dat niet alle standpunten voldoende worden vertegenwoordigd, zeker als groepen groter worden.

“Dit is een prachtige toepassing van grote taalmodellen”, zegt Eric Postma, hoogleraar kunstmatige intelligentie aan de Tilburg University en zelf niet betrokken bij de studie. “Dit is de toekomst, ter ondervanging van het menselijk tekort”.

Postma is ook goed te spreken over de uitvoering van het onderzoek. “In een eerdere studie schreef AI bijvoorbeeld beleidsvoorstellen waarin zowel de Democraten als de Republikeinen zich konden vinden. En zo is er nog een aantal studies geweest. Maar dit is misschien wel de beste tot nu toe, mede dankzij de diepe zakken en de rekenkracht van DeepMind”.

De studie werd uitgevoerd met kleine groepen mensen van vijf personen. Michiel Bakker van DeepMind is optimistisch over de toekomstige mogelijkheden: “Deze studie toont de potentie van AI aan om groepen mensen te helpen overeenstemming te vinden”, zegt hij.

Hij ziet mogelijke toepassingen in de politiek, om makkelijker te overeenstemming te komen tussen verschillende partijen. Google DeepMind zelf zwijgt over mogelijke politieke toepassingen, mogelijk mede omdat de Amerikaanse verkiezingen voor de deur staan.

Brainstorm

Een andere mogelijkheid is toepassing binnen organisaties: “Het model haalt het menselijke niveau, het is zelfs beter”, zegt Postma. “Dat kan een groot voordeel zijn in brainstorms. Het komt soms met originelere oplossingen dan de mens. En ja, soms ook met onzin, zoals we weten.”

Postma denkt niet dat deze nieuwe tool geschikt is om de angel uit discussies op sociale media te halen. Overeenstemming vinden is daar namelijk niet het doel. “Mensen willen het daar helemaal niet met elkaar eens worden.”

Gekleurde informatie

Daarnaast kent het nieuwe AI-model nu nog een aantal beperkingen die voor toepassing in de echte wereld wel van belang zijn. Zo doet het model nog niet aan fact-checking, en kan het dus gebeuren dat het bereikte compromis niet overeenkomt met de feiten. Ook controleert het niet of de deelnemers bij het onderwerp blijven en niet afdwalen.

Verder is er het gevaar dat de AI gekleurde informatie gaat geven, of bepaalde politieke voorkeuren laat zien. Maar daarover maakt Eric Postma zich minder zorgen. “Ik ben meer beducht voor menselijke bias”.

Share.
Exit mobile version