
Nowy raport European Broadcasting Union (Europejskiej Unii Nadawców) ujawnia liczne błędy w tekstach generowanych przez AI. Analiza wskazuje na potrzebę uważnego monitorowania narzędzi cyfrowych.
European Broadcasting Union przeanalizowało jakość tekstów generowanych przez narzędzia sztucznej inteligencji (AI). W badaniu dziennikarze szczegółowo ocenili takie teksty, zwracając uwagę na ich zgodność z faktami i poprawność źródeł.
Jak pisze AI? Bardzo źle
Okazało się, że ponad 45 proc. materiałów napisanych przez asystentów AI zawierało poważne błędy. Najczęstsze z nich to brakujące informacje źródłowe (31 proc.), a także przestarzałe dane i halucynacje AI (20 proc.). W raporcie European Broadcasting Union zaznaczono, że takie sytuacje nie są przypadkowymi, ale „systemowymi, ponadgranicznymi i wielojęzycznymi błędami, które podważają zaufanie odbiorców”.
W analizie uczestniczyło 18 europejskich nadawców, a także kanadyjski CBC/Radio-Canada i amerykański NPR. Pod lupą znalazły się najpopularniejsze narzędzia: ChatGPT (OpenAI), Copilot (Mictosoft), Gemini (Google) i Perplexity (założone przez prywatnych amerykańskich inwestorów). Spośród tych narzędzi, Gemini wypadło najgorzej, generując błędy w 76 proc. przypadków.
Konsekwencje błędów AI
Jean Philip De Tender, wicedyrektor generalny European Broadcasting Union, podkreślił, że takie błędy podważają zaufanie do informacji cyfrowych. - Kiedy ludzie tracą zaufanie, ryzykujemy osłabieniem zaangażowania publicznego i zaufania do mediów - ocenił.
European Broadcasting Union apeluje do Parlamentu Europejskiego o skuteczne egzekwowanie praw dotyczących jakości informacji. Wskazuje na konieczność regularnego monitoringu technologii AI, aby zwiększyć ich wiarygodność. Raport zachęca do współpracy z firmami technologicznymi, które oferują te narzędzia, aby wspólnie poprawiać jakość generowanych treści.
Raport European Broadcasting Union podkreśla, że 7 proc. użytkowników internetu regularnie korzysta z AI do przeglądu wiadomości, a wśród młodszych użytkowników sięga to nawet 15 proc. W związku z tym dalsze badania i rozwój regulacji są nieodzowne, by zapewnić, że narzędzia AI będą służyć rzetelnej informacji publicznej.
Źródło: PAP






Komentarze
1