Дослідження, проведене BBC, виявило серйозні проблеми з точністю генеративного ШІ при створенні новинних підсумків. Було перевірено здатність ChatGPT від OpenAI, Google Gemini, Microsoft Copilot та Perplexity коректно резюмувати новини. Результати показали, що понад половина згенерованих відповідей мали «значні проблеми в тій чи іншій формі».
У рамках дослідження BBC попросила ці моделі надати резюме для ста статей, опублікованих на їхньому сайті. Журналісти детально вивчили відповіді та виявили, що дев’ятнадцять відсотків з них містили некоректні твердження, цифри та дати. Крім того, тринадцять відсотків цитат були або змінені, або взагалі відсутні у відповідних статтях.
Одним з прикладів була помилка Google Gemini, яка неправильно стверджувала, що Національна служба охорони здоров’я Великої Британії рекомендує не починати вейпінг. Насправді NHS радить використовувати вейпінг для відмови від куріння. Інший приклад — ChatGPT, який у грудні 2024 року помилково заявив, що Ісмаїл Ханія є частиною керівництва ХАМАС, хоча він був вбитий ще в липні 2024 року.
Ці неточності викликали занепокоєння у BBC, і компанія звернулася до технологічних гігантів з проханням реагувати на ці проблеми. Дебора Тернесс, генеральна директорка BBC News та Current Affairs, закликала до співпраці між новинною індустрією, технологічними компаніями та урядом, щоб уникнути потенційних загроз від неточних заголовків, створених ШІ.