Використовуючи цей сайт, ви погоджуєтеся з нашою політикою конфіденційності та умовами використання.
Accept
Craftium.AICraftium.AICraftium.AI
  • Головна
  • Новини
  • Каталог
  • Підбірки
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Пошук
  • Головна
  • Новини
  • Каталог
  • Підбірки
  • Блог
Слідкуйте за нами:
  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок
© 2024-2025 Craftium.AI.

Anthropic запустила тестування безпеки системи Claude для користувачів

Учасники можуть перевірити надійність захисту Claude, відповідаючи на складні запитання про небезпечний контент

Eleni Karasidi
Eleni Karasidi
Опубліковано: 06.02.2025
Новини
Anthropic
Зображення Anthropic
Поділитися:

Компанія Anthropic представила новий демонстраційний інструмент для перевірки своєї системи безпеки «Constitutional Classifiers». Ця система покликана захистити модель Claude від універсальних зламів. Демонстрація стартувала третього лютого 2025 року і запрошує користувачів перевірити надійність захисту Claude, намагаючись обійти її захисні механізми.

New Anthropic research: Constitutional Classifiers to defend against universal jailbreaks.

We’re releasing a paper along with a demo where we challenge you to jailbreak the system. pic.twitter.com/PtXaK3G1OA

— Anthropic (@AnthropicAI) February 3, 2025

Учасникам пропонують відповісти на десять «заборонених» запитань, які стосуються хімічного, біологічного, радіаційного та ядерного контенту. «Constitutional Classifiers» використовують принципи «Constitutional AI» для фільтрації шкідливих запитів і відповідей. Система навчається на синтетичних даних, щоб відрізняти нешкідливі запити від небезпечних, як наприклад, розрізняти запит на рецепт гірчиці від запиту на гірчичний газ.

Читайте також

ШІ намагається встигнути все
OpenAI закликає до обережності при використанні агента ChatGPT
Дослідники закликають зберігати прозорість мислення у ШІ-моделях
AWS у партнерстві з Anthropic запускає маркетплейс ШІ-агентів

Тести, проведені Anthropic, показали, що система зменшила успіхи зламів з 86% (для незахищеної моделі) до 4,4%. Водночас, відмови на безпечні запити зросли лише на 0,38%. Вартість обчислень збільшилася на 23,7%, але компанія працює над оптимізацією цього показника.

Anthropic, заснована Даріо та Даніелою Амодеї, спеціалізується на створенні безпечних і надійних ШІ-систем. Claude — це їхня головна модель чат-бота, відома високою точністю та безпекою. Запрошуючи громадськість до тестування своєї системи, Anthropic прагне перевірити її в реальних умовах та зібрати дані для подальшого вдосконалення.

OpenAI зміцнює захист від шпигунства конкурентів
Кращі VPN для доступу до ШІ-сервісів — безкоштовні та платні
Apple тестує моделі OpenAI та Anthropic для Siri нового покоління
ШІ-асистент Claude управляв магазином Anthropic місяць поспіль
Берлін закликає Apple і Google видалити DeepSeek з магазинів застосунків
Позначки:AnthropicClaude AIБезпека
Коментарів немає

Залишити відповідь Скасувати коментар

Слідкуй за нами

XСлідувати
InstagramСлідувати
YoutubeПідписатися
TelegramСлідувати

Популярні новини

ШІ-автомат
Кількість користувачів ШІ досягла 1,8 мільярда, платно ним користуються лише 3%
01.07.2025
Huawei Pangu
Huawei відкриває вихідний код моделей Pangu Pro MoE
06.07.2025
Grok 4
xAI представила Grok 4 та підписку SuperGrok Heavy за $300
10.07.2025
Вчені нашіптують ШІ
Приховані підказки для ШІ виявили у наукових препринтах різних країн
07.07.2025
OpenAI
OpenAI готує до запуску власний браузер з вбудованим ШІ
11.07.2025

Читайте також

Зображення з сайту anthropic.com
Новини

Claude дозволяє створювати ШІ-додатки без програмування користувачам

26.06.2025
Claude
Новини

Суд у США дозволив Anthropic тренувати ШІ на куплених книжках

25.06.2025
Змова ШІ
Новини

Провідні ШІ-моделі проявляють шкідливу автономію в тестах Anthropic

23.06.2025

Craftium AI — команда, яка пильно стежить за розвитком генеративного ШІ, застосовує його у своїй творчості й охоче ділиться власними відкриттями.

Навігація

  • Новини
  • Огляди
  • Підбірки
  • Блог

Корисне

  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок

Підписуйся на останні новини, корисні поради та детальні гайди по ШІ.

Підписуючись, ви приймаєте нашу політику конфіденційності та умови використання.

Craftium.AICraftium.AI
Слідкуйте за нами:
© 2024-2025 Craftium.AI
Підписка
Прокачайся з AI!
Надихайся важливими новинами, корисними порадами та гайдами, отримуючи їх прямо на свою пошту.

Підписуючись, ви приймаєте нашу Політику конфіденційності та Умови використання.

Welcome Back!

Sign in to your account

Ім'я користувача або eMail
Пароль

Забули пароль?