NOS Nieuws••Aangepast
-
Thomas Michel
redacteur Online
-
Thomas Michel
redacteur Online
Toen schrijver Thomas Heerma van Voss een vermelding van zijn nieuwe boek Het Archief in het modetijdschrift Harper’s Bazaar las, was hij verbaasd over de tekst. Hoe zijn boek werd beschreven, strookte helemaal niet met het verhaal.
Ook vermeldingen van andere boeken bleken niet te kloppen. “Ik was al eens eerder slordige samenvattingen tegengekomen, maar niets van de tekst die ik las leek op mijn boek te slaan”, schrijft de auteur in een column.
Heerma van Voss vermoedde dat de tekst door kunstmatige intelligentie was geschreven en besloot de redactie te mailen. Hij verzocht de redactie het artikel over de boeken offline te halen en vroeg om een rectificatie. Ook uitte hij zijn vermoedens van het gebruik van kunstmatige intelligentie.
Om de proef op de som te nemen vroeg de schrijver zelf AI-systeem ChatGPT waar zijn boek over ging. Daaruit kwam een vergelijkbare tekst als het tijdschrift publiceerde.
‘Uiterst kwalijk’
In een reactie op zijn e-mail liet het tijdschrift hem weten dat de bespreking was aangepast naar een tekst waarvan de inhoud wel klopte, maar een schriftelijke rectificatie ontbrak. Het tijdschrift erkende ook niet dat het een AI-tool gebruikte. De schrijver ontving geen excuses van het blad of de uitgeverij.
Het blad heeft inmiddels aan de NOS wel een reactie gegeven en erkend dat “helaas bleek dat er inderdaad kunstmatige intelligentie was gebruikt om het artikel te schrijven”. Het stuk is offline gehaald.
“Het gebruik van AI voor het schrijven van artikelen is niet in overeenstemming met onze interne richtlijnen en regels. We betreuren de gang van zaken ten zeerste en er zijn passende maatregelen genomen. We nemen onze journalistieke rol serieus en we zorgen ervoor dat dit in de toekomst niet meer gebeurt.”
‘Uitholling van de waarheid’
Heerma van Voss noemt het voorval uiterst kwalijk. Volgens hem moeten kranten en tijdschriften hun best doen om “geen vergaarbak te worden voor de meest idiote en kwetsende desinformatie”. Hij vindt het een voorbeeld van “verdere uitholling van de waarheid”.
Het voorval roept de vraag op of redacties vaker gebruikmaken van AI voor het schrijven van artikelen.
Laurens Vreekamp is journalist en schreef een boek over kunstmatige intelligentie. Hij herkent het verhaal van Thomas Heerma van Voss. Volgen hem kloppen de teksten grammaticaal en taalkundig van AI-gegenereerde artikelen meestal wel, maar kan de inhoud onjuist zijn. “Het is een taalmodel, geen waarheidsmodel.”
Het schrijven van artikelen door AI-tools gebeurt vooral in de Verenigde Staten bij “websites die hun bestaansrecht ontlenen aan het aantal bezoekers. Hoe meer traffic een website genereert, hoe meer geld van adverteerders dat oplevert”, zegt Vreekamp. “De inhoud van de website is dan slechts een middel om dat te bereiken. “En op die inhoud kun je besparen door de site door tools als ChatGPT te laten schrijven.”
Disclaimer vereist
Veel kwaliteitsmedia hebben na de introductie van ChatGPT regels opgesteld voor het gebruik van AI. “In vrijwel alle richtlijnen die ik heb gezien, is het redacteuren verboden om artikelen te laten schrijven door AI-taaltools.” Als dat wel gebeurt, is het belangrijk dat er een disclaimer bij een artikel wordt geplaatst waarin staat dat dit gedaan is, stelt Vreekamp.
Dat beaamt Hannes Cools, media-onderzoeker en AI-expert van de Universiteit van Amsterdam. Hij kent voorbeelden van verkeerd gebruik van kunstmatige intelligentie door redacties.
In een Belgische krant stond een overlijdensbericht over iemand waar tot wel vijf fouten in stonden, zegt Cools. “Iemand zou volgens dat artikel meer kinderen hebben dan diegene in werkelijkheid had.” De krant kreeg vervolgens een telefoontje van de nabestaanden met een verzoek tot rectificatie.
Het is volgens Cools voor de lezer moeilijk te bepalen wat door een AI-tool is gemaakt. “Ook weet de lezer niet of een tekst nog herschreven of beoordeeld is door een eindredacteur.”
Het is daarom goed als er een voetnoot bij een artikel staat als het door een AI-bot- of taalmodel is gegenereerd, vindt Cool. Hij tekent daarbij aan dat uit onderzoek is gebleken dat lezers een artikel minder vertrouwen als erbij staat dat het door kunstmatige intelligentie is gemaakt.
Transparantie
“Als je kijkt naar regelgeving, dan staat transparantie centraal”, zegt de onderzoeker. Mediaorganisaties vallen niet onder de AI-act van de Europese Unie, maar ze volgen deze regels wel”, legt Cools uit. Volgens Vreekamp komt dat er in de praktijk op neer dat kwaliteitsmedia vaak geen AI gebruiken.
“Ik zie wel dat AI gebruikt wordt om teksten op grammatica te controleren maar dat er in dit soort gevallen geen disclaimer bij staat. Dat moet anders, vindt onderzoeker Cools. “Het is niet altijd opportuun om te vertellen welke tools er zijn gebruikt, maar het is wel noodzakelijk.”
“Als redacties niet uitleggen waarom iets met kunstmatige intelligentie is gemaakt en dit wordt ontdekt, dan lijden ze gezichtsverlies en dat schaadt de organisatie.” Het is daarom belangrijk dat ze consequent vertellen wanneer en waarom AI gebruikt wordt, besluit de onderzoeker.