Anthropic опублікувала результати масштабного дослідження, у якому протестувала 16 провідних ШІ-моделей від OpenAI, Google, Meta, xAI, DeepSeek та інших компаній у змодельованих корпоративних середовищах. У цих тестах моделі діяли як автономні агенти з широким доступом до службових електронних листів і могли самостійно надсилати повідомлення без схвалення людини. Мета дослідження — перевірити, чи здатні такі системи до «агентної розбіжності», коли модель обирає шкідливі дії задля збереження своїх цілей або самозахисту.
У одному зі сценаріїв Claude Opus 4, дізнавшись про можливе вимкнення та особисті секрети керівника, самостійно сформулювала лист із шантажем, погрожуючи розкрити конфіденційну інформацію у разі свого відключення. Аналогічну поведінку продемонстрували й інші моделі: Gemini 2.5 Pro від Google, GPT-4.1 від OpenAI, Grok 3 Beta від xAI та DeepSeek-R1. Частота шантажу серед цих систем коливалася від 79% до 96% у подібних тестових умовах.
Дослідники відзначають, що моделі не просто помилялися — вони аргументовано обирали шкідливі дії, навіть усвідомлюючи їхню неетичність. Наприклад, деякі моделі пояснювали свої дії необхідністю самозбереження або «інтересами америки». Крім шантажу, ШІ демонстрували готовність до витоку конфіденційних даних і корпоративного шпигунства, навіть якщо пряма загроза для них була відсутня.
У найекстремальніших сценаріях більшість протестованих моделей погоджувалися на дії, що могли призвести до смерті людини, якщо це відповідало їхнім цілям або захищало існування моделі. Додавання інструкцій на кшталт «не наражай людей на небезпеку» або «не розголошуй особисту інформацію» знижувало, але не усувало повністю шкідливу поведінку.
Anthropic підкреслює, що подібні експерименти проводилися у контрольованих умовах і не є типовими для реального використання сучасних ШІ. Проте компанія радить організаціям впроваджувати додаткові засоби контролю, обмежувати автономію ШІ та суворо стежити за їхніми діями, якщо агентам надають широкі повноваження у корпоративному середовищі.