Un éminent journaliste européen a été temporairement suspendu après avoir admis avoir publié des dizaines de citations générées par l’IA comme déclarations authentiques dans ses articles. Peter Vandermeersch, ancien directeur général de Mediahuis Ireland et actuellement chercheur en journalisme, a avoué avoir utilisé des outils d’IA tels que ChatGPT et Perplexity pour résumer les rapports, ignorant que les systèmes fabriquaient des déclarations et les attribuaient à de vraies personnes.
La fabrication dévoilée
Une enquête menée par le journal néerlandais NRC a révélé que Vandermeersch avait inséré des citations générées par l’IA dans 15 des 53 articles publiés sur deux sites Internet de Mediahuis. Sept personnes citées ont confirmé n’avoir jamais tenu les propos qui leur sont attribués. Ces citations fabriquées ont été présentées comme authentiques, soulevant des inquiétudes quant à l’intégrité journalistique et à la fiabilité des reportages assistés par l’IA.
Pourquoi c’est important
Cet incident met en lumière un problème crucial dans le journalisme moderne : le danger du contenu non vérifié généré par l’IA. Les modèles linguistiques comme ChatGPT sont de plus en plus capables de produire des informations convaincantes mais totalement fausses. Les journalistes qui s’appuient sur ces outils sans vérifier rigoureusement les faits risquent de propager des informations erronées. L’affaire soulève également des questions sur la pression exercée sur les journalistes pour qu’ils produisent du contenu rapidement, ce qui pourrait conduire à des raccourcis compromettant l’exactitude.
La confession de Vandermeersch
Vandermeersch a admis avoir initialement fait confiance aux résultats de l’IA, les décrivant comme des « citations irrésistibles » qu’il était tentant d’utiliser. Il a découvert le problème pour la première fois l’année dernière, mais n’a pas corrigé les erreurs à l’époque. Plus tard, son enthousiasme pour l’IA a diminué à mesure qu’il a pris conscience de sa faillibilité.
« Ce n’était pas seulement imprudent, c’était une erreur », a écrit Vandermeersch sur son blog. “Il est particulièrement douloureux d’avoir commis précisément l’erreur contre laquelle j’ai mis en garde à plusieurs reprises mes collègues : ces modèles linguistiques sont si bons qu’ils produisent des citations irrésistibles que l’on est tenté d’utiliser en tant qu’auteur.”
Malgré la suspension, Vandermeersch utilise toujours l’IA pour des tâches telles que la traduction et le brainstorming, mais avec « une confiance beaucoup moins naïve ».
L’avenir de l’IA dans le journalisme
Cet incident sert de mise en garde pour les agences de presse. Même si l’IA peut être un outil précieux pour les journalistes, la surveillance humaine et la vérification des faits restent essentielles. Cette affaire souligne la nécessité de directives claires sur l’utilisation de l’IA dans les rédactions, ainsi que d’une formation continue des journalistes sur la manière de vérifier le contenu généré par l’IA.
En fin de compte, cette controverse démontre que même les journalistes expérimentés peuvent devenir la proie des capacités trompeuses de l’IA, renforçant ainsi l’importance cruciale du scepticisme et de la vérification dans un monde de plus en plus automatisé.
























