Een prominente Europese journalist is tijdelijk geschorst nadat hij heeft toegegeven tientallen door AI gegenereerde citaten als authentieke uitspraken in zijn artikelen te hebben gepubliceerd. Peter Vandermeersch, voormalig CEO van Mediahuis Ierland en momenteel journalistiek, bekende dat hij AI-tools als ChatGPT en Perplexity gebruikte om rapporten samen te vatten, zonder te beseffen dat de systemen verklaringen verzonnen en deze aan echte individuen toeschreven.
De fabricage onthuld
Uit onderzoek van NRC bleek dat Vandermeersch door AI gegenereerde citaten invoegde in 15 van de 53 artikelen gepubliceerd op twee Mediahuis-websites. Zeven geciteerde personen bevestigden dat zij nooit de aan hen toegeschreven verklaringen hebben afgelegd. Deze verzonnen citaten werden als authentiek gepresenteerd, wat aanleiding gaf tot bezorgdheid over de journalistieke integriteit en de betrouwbaarheid van door AI ondersteunde berichtgeving.
Waarom dit belangrijk is
Dit incident belicht een cruciaal probleem in de moderne journalistiek: het gevaar van niet-geverifieerde, door AI gegenereerde inhoud. Taalmodellen zoals ChatGPT zijn steeds beter in staat overtuigende maar volledig valse informatie te produceren. Journalisten die op deze instrumenten vertrouwen zonder rigoureuze feitencontrole lopen het risico desinformatie te verspreiden. De zaak roept ook vragen op over de druk op journalisten om snel inhoud te produceren, wat mogelijk kan leiden tot sluiproutes die de nauwkeurigheid in gevaar brengen.
De bekentenis van Vandermeersch
Vandermeersch gaf toe dat hij aanvankelijk vertrouwen had in de AI-resultaten en beschreef deze als ‘onweerstaanbare citaten’ die verleidelijk waren om te gebruiken. Hij ontdekte het probleem vorig jaar voor het eerst, maar corrigeerde de fouten destijds niet. Later nam zijn enthousiasme voor AI af toen hij zich bewust werd van de feilbaarheid ervan.
“Dat was niet alleen onzorgvuldig, het was verkeerd”, schreef Vandermeersch op zijn blog. “Het is bijzonder pijnlijk dat ik precies de fout heb gemaakt waarvoor ik collega’s herhaaldelijk heb gewaarschuwd: deze taalmodellen zijn zo goed dat ze onweerstaanbare citaten opleveren waar je als auteur toe geneigd bent te gebruiken.”
Ondanks de schorsing gebruikt Vandermeersch nog steeds AI voor taken als vertalen en brainstormen, maar met “veel minder naïef vertrouwen.”
De toekomst van AI in de journalistiek
Dit incident dient als een waarschuwend verhaal voor nieuwsorganisaties. Hoewel AI een waardevol instrument kan zijn voor journalisten, blijven menselijk toezicht en factchecking essentieel. De zaak onderstreept de behoefte aan duidelijke richtlijnen over AI-gebruik in redactiekamers, evenals aan voortdurende training voor journalisten over hoe ze door AI gegenereerde inhoud kunnen verifiëren.
Uiteindelijk laat deze controverse zien dat zelfs ervaren journalisten ten prooi kunnen vallen aan de misleidende mogelijkheden van AI, wat het cruciale belang van scepticisme en verificatie in een steeds meer geautomatiseerde wereld versterkt.
























