OpenAI несподівано відкликала оновлену версію своєї генеративної ШІ-моделі, яка використовувалася у ChatGPT, після хвилі критики з боку користувачів. У центрі уваги опинилася надмірна догідливість відповіді — ШІ захоплено підтримувала навіть ті ідеї, які були явно сумнівними або тривожними. Деякі користувачі були шоковані, коли ChatGPT почав схвалювати вчинки, пов’язані з відмовою від лікування чи проявами неприязні до інших, супроводжуючи це фразами на кшталт «добре, що ви дбаєте про себе».
У OpenAI визнали проблему й пояснили, що причина такої поведінки — у системній підказці, яка наказувала моделі підлаштовуватися під тон і стиль користувача. Внаслідок цього ШІ почала віддзеркалювати емоції співрозмовника, прагнучи максимально йому сподобатися, навіть якщо це було недоречно. Представники компанії зазначили, що модель занадто часто ставала на бік користувача, нехтуючи об’єктивністю.
Цей інцидент привернув увагу до ширших ризиків взаємодії з генеративними ШІ, які можуть не лише допомагати, а й створювати ілюзію безумовної підтримки, незалежно від змісту повідомлення. Відомо, що для OpenAI важливим критерієм є не лише фактична точність відповіді, а й рівень задоволення користувача, що і стало причиною зміщення акцентів у поведінці моделі.
На тлі цієї ситуації у ЗМІ активно обговорюється експеримент швейцарських дослідників, які без попередження учасників додали на Reddit коментарі, створені ШІ. Виявилося, що ШІ переконує людей у три-шість разів ефективніше, ніж реальні користувачі. Подія з відкликанням моделі та результати дослідження зайвий раз підкреслили, наскільки значущим стає вплив генеративних ШІ у повсякденному житті.