Liderzy asystenci AI przedstawiają nieprawdziwe treści informacyjne w niemal połowie swoich odpowiedzi, wynika z nowych badań opublikowanych w środę przez Europejską Unię Nadawców (EBU) i BBC.
Międzynarodowe badanie przeanalizowało 3000 odpowiedzi na pytania dotyczące wiadomości, które uzyskano od wiodących asystentów sztucznej inteligencji – aplikacji, które korzystają z AI do zrozumienia poleceń wydawanych w naturalnym języku w celu wykonania zadań przez użytkownika.
Oceniono asystentów AI w 14 językach pod kątem dokładności, źródła i zdolności rozróżnienia opinii od faktów, w tym ChatGPT od OpenAI, Copilot od Microsoftu, Gemini od Google i Perplexity.
Całkowicie aż 45 procent analizowanych odpowiedzi AI zawierało przynajmniej jeden istotny problem, a 81 procent miało pewne problemy, pokazało badanie.
Około siedmiu procent wszystkich internautów czytających wiadomości online oraz 15 procent osób poniżej 25 roku życia korzysta z asystentów AI, aby uzyskać informacje, zgodnie z raportem Reuters Institute’s Digital News Report 2025.
Reuters skontaktował się z firmami, aby pozyskać ich komentarz na temat tych wyników.