Wybitny europejski dziennikarz został zawieszony po tym, jak przyznał się, że w swoich artykułach publikował dziesiątki cytatów wygenerowanych przez sztuczną inteligencję jako autentyczne wypowiedzi. Peter Vandermeersch, były dyrektor generalny Mediahuis Ireland, a obecnie badacz dziennikarstwa, przyznał, że do podsumowywania raportów korzystał z narzędzi sztucznej inteligencji, takich jak ChatGPT i Perplexity, nie mając świadomości, że systemy fabrykują wypowiedzi i przypisują je prawdziwym osobom.
Odsłanianie fabrykacji
Dochodzenie przeprowadzone przez holenderską gazetę NRC wykazało, że Vandermeersch umieścił cytaty wygenerowane przez sztuczną inteligencję w 15 z 53 artykułów opublikowanych na dwóch stronach internetowych Mediahuis. Siedem osób, z którymi przeprowadzono wywiady, potwierdziło, że nigdy nie złożyły przypisywanych im stwierdzeń. Te sfabrykowane cytaty zostały przedstawione jako autentyczne, co wzbudziło obawy co do rzetelności dziennikarskiej i wiarygodności raportów AI.
Dlaczego to ma znaczenie
Ten incydent uwypukla kluczowy problem współczesnego dziennikarstwa: niebezpieczeństwa związane z niezweryfikowanymi treściami generowanymi przez sztuczną inteligencję. Modele językowe, takie jak ChatGPT, w coraz większym stopniu potrafią generować przekonujące, ale całkowicie fałszywe informacje. Dziennikarze korzystający z tych narzędzi bez dokładnego sprawdzenia faktów ryzykują rozpowszechnianiem dezinformacji. Sprawa rodzi również pytania dotyczące presji na dziennikarzy, aby szybko publikowali treści, co może prowadzić do obejść problemów pogarszających dokładność.
Wyznanie Vandermeerscha
Vandermeersch przyznał, że początkowo ufał wynikom sztucznej inteligencji, opisując je jako „przekonujące cytaty”, które kuszą do wykorzystania. Po raz pierwszy odkrył problem w zeszłym roku, ale wtedy nie naprawił błędów. Później jego entuzjazm dla sztucznej inteligencji osłabł, gdy zdał sobie sprawę z jej niedoskonałości.
„To było nie tylko nieostrożne, ale wręcz niewłaściwe” – napisał Vandermeersch na swoim blogu. „Szczególnie bolesne jest to, że popełniłem dokładnie ten błąd, przed którym wielokrotnie ostrzegałem kolegów: te modele językowe są tak dobre, że tworzą przekonujące cytaty, których chcesz użyć jako autor”.
Pomimo zawieszenia Vandermeersch nadal wykorzystuje sztuczną inteligencję do zadań takich jak tłumaczenia i burze mózgów, ale z „znacznie mniej naiwnym zaufaniem”.
Przyszłość sztucznej inteligencji w dziennikarstwie
Ten incydent jest przestrogą dla organizacji informacyjnych. Chociaż sztuczna inteligencja może być cennym narzędziem dla dziennikarzy, nadzór ze strony człowieka i sprawdzanie faktów pozostają niezbędne. Sprawa ta podkreśla potrzebę jasnych wytycznych dotyczących stosowania sztucznej inteligencji w redakcjach, a także ciągłego szkolenia dziennikarzy w zakresie sprawdzania treści generowanych przez sztuczną inteligencję.
Ostatecznie ta kontrowersja pokazuje, że nawet doświadczeni dziennikarze mogą paść ofiarą zwodniczych mocy sztucznej inteligencji, co podkreśla kluczowe znaczenie sceptycyzmu i weryfikacji w coraz bardziej zautomatyzowanym świecie.
























