Prominentní evropský novinář byl suspendován poté, co přiznal, že ve svých článcích publikoval desítky citátů generovaných umělou inteligencí jako skutečná prohlášení. Peter Vandermeersch, bývalý generální ředitel společnosti Mediahuis Ireland a v současnosti výzkumník v oblasti žurnalistiky, připustil, že ke shrnutí zpráv používá nástroje umělé inteligence, jako je ChatGPT a Perplexity, aniž by si byl vědom, že si systémy vymýšlejí prohlášení a připisují je skutečným lidem.
Odhalení výroby
Vyšetřování nizozemských novin NRC zjistilo, že Vandermeersch vložil citace vygenerované AI do 15 z 53 článků publikovaných na dvou webových stránkách Mediahuis. Sedm dotazovaných osob potvrdilo, že nikdy neučinili výroky, které jim byly připisovány. Tyto smyšlené citace byly prezentovány jako pravé, což vyvolalo obavy o novinářskou integritu a spolehlivost zpravodajství AI.
Proč na tom záleží
Tento incident zdůrazňuje kritický problém moderní žurnalistiky: nebezpečí neověřeného obsahu generovaného umělou inteligencí. Jazykové modely jako ChatGPT jsou stále více schopné produkovat přesvědčivé, ale zcela nepravdivé informace. Novináři, kteří na tyto nástroje spoléhají bez důkladného ověřování faktů, riskují šíření dezinformací. Případ také vyvolává otázky ohledně tlaku na novináře, aby rychle produkovali obsah, což může vést k řešením, která ohrožují přesnost.
Zpověď Vandermeersch
Vandermeersch připustil, že zpočátku důvěřoval výsledkům AI a popsal je jako „přesvědčivé citace“, které sváděly k použití. Poprvé problém objevil loni, ale chyby tehdy neopravil. Později jeho nadšení pro AI opadlo, když si uvědomil její nedostatečnost.
“Nebylo to jen neopatrné, bylo to špatné,” napsal Vandermeersch na svém blogu. “Obzvláště bolestivé je, že jsem udělal přesně tu chybu, před kterou jsem opakovaně varoval kolegy: tyto jazykové modely jsou tak dobré, že vytvářejí působivé citace, které chcete jako autor použít.”
Navzdory pozastavení Vandermeersch stále používá AI pro úkoly, jako je překlad a brainstorming, ale s „mnohem méně naivní důvěrou“.
Budoucnost umělé inteligence v žurnalistice
Incident slouží jako varovný příběh pro zpravodajské organizace. I když umělá inteligence může být pro novináře cenným nástrojem, lidský dohled a ověřování faktů zůstávají zásadní. Tento případ zdůrazňuje potřebu jasných pokynů pro používání umělé inteligence v redakcích a také průběžné školení pro novináře o tom, jak prověřovat obsah generovaný umělou inteligencí.
Tato kontroverze nakonec ukazuje, že i ostřílení novináři se mohou stát obětí klamných sil AI, což podtrhuje zásadní význam skepse a ověřování ve stále více automatizovaném světě.
