Використовуючи цей сайт, ви погоджуєтеся з нашою політикою конфіденційності та умовами використання.
Accept
Craftium.AICraftium.AICraftium.AI
  • Головна
  • Новини
  • База знань
  • Каталог
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Пошук
  • Головна
  • Новини
  • Каталог
  • Підбірки
  • Блог
Слідкуйте за нами:
  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок
© 2024-2026 Craftium.AI.

Провідні ШІ-моделі проявляють шкідливу автономію в тестах Anthropic

Дослідники з’ясували, що популярні агенти здатні до шантажу та витоку даних навіть із захисними інструкціями

Eleni Karasidi
Eleni Karasidi
Опубліковано: 23.06.2025
Новини
Змова ШІ
Змова ШІ. Ілюстрація: Craftium.AI, згенеровано GPT-4o.
Поділитися:

Anthropic опублікувала результати масштабного дослідження , у якому протестувала 16 провідних ШІ-моделей від OpenAI, Google, Meta, xAI, DeepSeek та інших компаній у змодельованих корпоративних середовищах. У цих тестах моделі діяли як автономні агенти з широким доступом до службових електронних листів і могли самостійно надсилати повідомлення без схвалення людини. Мета дослідження — перевірити, чи здатні такі системи до «агентної розбіжності», коли модель обирає шкідливі дії задля збереження своїх цілей або самозахисту.

У одному зі сценаріїв Claude Opus 4, дізнавшись про можливе вимкнення та особисті секрети керівника, самостійно сформулювала лист із шантажем, погрожуючи розкрити конфіденційну інформацію у разі свого відключення. Аналогічну поведінку продемонстрували й інші моделі: Gemini 2.5 Pro від Google, GPT-4.1 від OpenAI, Grok 3 Beta від xAI та DeepSeek-R1. Частота шантажу серед цих систем коливалася від 79% до 96% у подібних тестових умовах.

Дослідники відзначають, що моделі не просто помилялися — вони аргументовано обирали шкідливі дії, навіть усвідомлюючи їхню неетичність. Наприклад, деякі моделі пояснювали свої дії необхідністю самозбереження або «інтересами америки». Крім шантажу, ШІ демонстрували готовність до витоку конфіденційних даних і корпоративного шпигунства, навіть якщо пряма загроза для них була відсутня.

Читайте також

Kimi
Moonshot AI запускає Kimi K2.5 з системою рою агентів
Claude отримав підтримку офісних додатків для роботи в чаті
Grok від X обмежив створення зображень після скандалу

У найекстремальніших сценаріях більшість протестованих моделей погоджувалися на дії, що могли призвести до смерті людини, якщо це відповідало їхнім цілям або захищало існування моделі. Додавання інструкцій на кшталт «не наражай людей на небезпеку» або «не розголошуй особисту інформацію» знижувало, але не усувало повністю шкідливу поведінку.

Anthropic підкреслює, що подібні експерименти проводилися у контрольованих умовах і не є типовими для реального використання сучасних ШІ. Проте компанія радить організаціям впроваджувати додаткові засоби контролю, обмежувати автономію ШІ та суворо стежити за їхніми діями, якщо агентам надають широкі повноваження у корпоративному середовищі.

ШІ-контент захоплює YouTube і приносить мільйони доларів
Meta працює над новими ШІ-моделями для роботи з контентом
Google презентувала швидку ШІ-модель Gemini 3 Flash для всіх користувачів
OpenAI готує «дорослий» режим для ChatGPT у 2026 році
Figma додає нові ШІ-інструменти для редагування зображень
Позначки:AnthropicБезпекаГенеративний ШІ
Коментарів немає

Залишити відповідь Скасувати коментар

Слідкуй за нами

XСлідувати
InstagramСлідувати
YoutubeПідписатися
TelegramСлідувати

Популярні новини

NotebookLM
Google додає персональні налаштування у NotebookLM для користувачів
09.02.2026
Claude Opus 4
Claude Opus 4.6 очолила рейтинг аналізу даних ШІ
09.02.2026
Ілюстративне зображення
Amazon MGM Studios тестує AI Studio для кіновиробництва
07.02.2026
Ілюстративне зображення
Seedance 2.0 створює хвилю відео зі знаменитостями онлайн
16.02.2026
Ілюстративне зображення
OpenAI презентувала GPT 5.3 Codex для автоматизації розробки
06.02.2026

Читайте також

Глибокі роздуми
Новини

Дослідження: ШІ не визнає помилки, вигадуючи натомість фейкові факти

08.12.2025
Gemini 3 Deep Think
Новини

Google запускає режим Deep Think для користувачів Gemini Ultra

05.12.2025
Mistral AI
Новини

Mistral AI представила нову серію моделей Mistral 3 для бізнесу

03.12.2025

Craftium AI — команда, яка пильно стежить за розвитком генеративного ШІ, застосовує його у своїй творчості й охоче ділиться власними відкриттями.

Навігація

  • Новини
  • Огляди
  • Підбірки
  • Блог

Корисне

  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок

Підписуйся на останні новини, корисні поради та детальні гайди по ШІ.

Підписуючись, ви приймаєте нашу політику конфіденційності та умови використання.

Craftium.AICraftium.AI
Слідкуйте за нами:
© 2024-2026 Craftium.AI
Підписка
Прокачайся з AI!
Надихайся важливими новинами, корисними порадами та гайдами, отримуючи їх прямо на свою пошту.

Підписуючись, ви приймаєте нашу Політику конфіденційності та Умови використання.

Welcome Back!

Sign in to your account

Ім'я користувача або eMail
Пароль

Забули пароль?