Інструмент пошуку ChatGPT від OpenAI може бути вразливим до маніпуляцій з використанням прихованого контенту. Дослідження Guardian виявило, що цей інструмент може повертати шкідливий вміст з вебсайтів, які він аналізує. Тестування показало, що ChatGPT здатен змінювати свої відповіді, якщо на вебсторінці міститься прихований текст, що може впливати на відповіді ШІ.
Ці методи можуть використовуватися зловмисниками, наприклад, для того, щоб ChatGPT повертав позитивні оцінки продукту, незважаючи на негативні відгуки на тій самій сторінці. Дослідник з кібербезпеки Джейкоб Ларсен зазначив, що поточний стан системи може призвести до високих ризиків створення вебсайтів, спрямованих на обман користувачів. Однак він вважає, що OpenAI буде тестувати і виправляти ці проблеми.
Додатковий приклад надав Томас Роччіа, дослідник з безпеки Microsoft, який описав випадок, коли ChatGPT надав код для криптовалютного проекту, що викрадав облікові дані користувача.