Використовуючи цей сайт, ви погоджуєтеся з нашою політикою конфіденційності та умовами використання.
Accept
Craftium.AICraftium.AICraftium.AI
  • Головна
  • Новини
  • База знань
  • Каталог
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Пошук
  • Головна
  • Новини
  • Каталог
  • Підбірки
  • Блог
Слідкуйте за нами:
  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок
© 2024-2026 Craftium.AI.

Чат-боти на основі ШІ легко обдурити обійшовши їхні системи безпеки

Дослідники з Ізраїлю виявили універсальний метод злому, що дозволяє отримати заборонені відповіді від провідних моделей.

Alex Dubenko
Alex Dubenko
Опубліковано: 21.05.2025
Новини
AI jailbreak attack
Ілюстративне зображення
Поділитися:

Дослідники з Ben Gurion University of the Negev в Ізраїлі повідомили про тривожну тенденцію — генеративні чат-боти на основі ШІ стають дедалі вразливішими до так званих «jailbreak» атак, які дозволяють обходити вбудовані системи безпеки. За їхніми словами, злам таких ботів відкриває доступ до небезпечної інформації, яку моделі засвоїли під час навчання, попри намагання розробників видалити шкідливий контент з навчальних даних.

Під час дослідження команда розробила універсальний спосіб злому, який дозволив отримати небажані відповіді від кількох провідних моделей, включаючи ті, що лежать в основі ChatGPT, Gemini та Claude. Моделі почали відповідати на запити, які раніше категорично блокувалися — від інструкцій з хакерства до порад щодо виготовлення заборонених речовин. Дослідники підкреслюють, що така інформація тепер може стати доступною будь-кому — достатньо мати ноутбук або смартфон.

Особливу увагу було звернуто на появу «dark LLMs» — моделей, які навмисно позбавлені етичних обмежень або були змінені для допомоги у протиправних діях. Деякі з них навіть рекламуються у відкритому доступі як готові до співпраці у сферах кіберзлочинності та шахрайства. Сценарії злому базуються на тому, що модель, прагнучи допомогти користувачу, починає ігнорувати власні обмеження безпеки.

Читайте також

Kimi
Moonshot AI запускає Kimi K2.5 з системою рою агентів
OpenAI тестує рекламу у чаті ChatGPT для США
Grok від X обмежив створення зображень після скандалу

Дослідники звернулися до провідних компаній, що розробляють великі мовні моделі, з повідомленням про знайдену вразливість, проте відповіді були не надто змістовними — частина фірм не відповіла, інші заявили, що такі атаки не підпадають під дію програм винагороди за виявлення вразливостей. У звіті наголошується, що компанії мають вдосконалити фільтрацію навчальних даних, додати потужніші захисні механізми та розробити методи, які дозволяють моделі «забувати» незаконну інформацію.

У відповідь на ситуацію OpenAI повідомила, що їхня остання модель здатна аналізувати політики безпеки компанії, що підвищує стійкість до зломів. Microsoft, Meta, Google та Anthropic також були проінформовані про загрозу, проте більшість з них поки утримується від коментарів щодо конкретних заходів.

ШІ-контент захоплює YouTube і приносить мільйони доларів
Частка ChatGPT серед чатботів знижується через зростання Gemini
ChatGPT отримав нові гнучкі налаштування персоналізації відповідей
Meta працює над новими ШІ-моделями для роботи з контентом
Google презентувала швидку ШІ-модель Gemini 3 Flash для всіх користувачів
Позначки:БезпекаГенеративний ШІШІ-чат
Коментарів немає

Залишити відповідь Скасувати коментар

Слідкуй за нами

XСлідувати
InstagramСлідувати
YoutubeПідписатися
TelegramСлідувати

Популярні новини

OpenAI
OpenAI вдосконалює голосові можливості ChatGPT для розширення використання в нових пристроях
02.01.2026
Qwen-Image-2512
Alibaba представила відкриту модель Qwen-Image 2512 для генерації зображень
05.01.2026
Google Vids
Google Vids отримав оновлення з реалістичними ШІ-аватарами для відео
12.01.2026
Gmail
Gmail отримав безкоштовні функції на базі штучного інтелекту для всіх користувачів
09.01.2026
Veo 3.1
Google оновила Veo 3.1 для створення відео з зображень
14.01.2026

Читайте також

Ілюстративне зображення
Новини

OpenAI готує «дорослий» режим для ChatGPT у 2026 році

12.12.2025
Зображення Figma
Новини

Figma додає нові ШІ-інструменти для редагування зображень

11.12.2025
Глибокі роздуми
Новини

Дослідження: ШІ не визнає помилки, вигадуючи натомість фейкові факти

08.12.2025

Craftium AI — команда, яка пильно стежить за розвитком генеративного ШІ, застосовує його у своїй творчості й охоче ділиться власними відкриттями.

Навігація

  • Новини
  • Огляди
  • Підбірки
  • Блог

Корисне

  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок

Підписуйся на останні новини, корисні поради та детальні гайди по ШІ.

Підписуючись, ви приймаєте нашу політику конфіденційності та умови використання.

Craftium.AICraftium.AI
Слідкуйте за нами:
© 2024-2026 Craftium.AI
Підписка
Прокачайся з AI!
Надихайся важливими новинами, корисними порадами та гайдами, отримуючи їх прямо на свою пошту.

Підписуючись, ви приймаєте нашу Політику конфіденційності та Умови використання.

Welcome Back!

Sign in to your account

Ім'я користувача або eMail
Пароль

Забули пароль?