Дослідження Newsguard показало , що найпопулярніші чат-боти на базі ШІ стали удвічі частіше поширювати неправдиву інформацію про актуальні новини. Частка помилкових відповідей зросла з 18 до 35 відсотків протягом року. Замість того щоб відмовлятися відповідати на складні запити, моделі тепер надають відповіді у 100 відсотках випадків, навіть якщо повторюють дезінформацію.
Особливо вражає зниження точності у Perplexity, який ще рік тому спростовував усі фейки, а зараз поширює їх у майже половині випадків. Модель Inflection виявилася найменш точною, поширюючи хибні твердження у понад 56 відсотках випадків. ChatGPT і Meta повторювали фейки у 40 відсотках випадків, тоді як Claude і Gemini показали кращі результати з рівнем помилок 10 та 16,67 відсотка відповідно.
Newsguard зафіксував, що російські мережі дезінформації цілеспрямовано впливають на ШІ-моделі. Так, у серпні 2025 року шість із десяти чат-ботів повторили вигадану заяву про голову парламенту Молдови Ігоря Гросу, що походила з мережі прокремлівських сайтів.
Додавання функції «пошук у реальному часі» мало б покращити актуальність відповідей, але натомість зробило моделі вразливими до підроблених новин та пропаганди. ШІ-боти почали брати інформацію з неперевірених джерел і плутати авторитетні видання зі сторінками пропагандистських організацій, які маскуються під справжні ЗМІ.
У OpenAI визнають, що мовні моделі завжди можуть вигадувати факти, адже вони формують відповіді на основі ймовірності, а не істинності. Компанія обіцяє працювати над механізмами, які допоможуть сигналізувати про невпевненість у відповідях, але проблема повторення фейків залишається відкритою.