Використовуючи цей сайт, ви погоджуєтеся з нашою політикою конфіденційності та умовами використання.
Accept
Craftium.AICraftium.AICraftium.AI
  • Головна
  • Новини
  • База знань
  • Каталог
  • Блог
Font ResizerAa
Craftium.AICraftium.AI
Font ResizerAa
Пошук
  • Головна
  • Новини
  • Каталог
  • Підбірки
  • Блог
Слідкуйте за нами:
  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок
© 2024-2025 Craftium.AI.

ШІ рідше вигадує факти, ніж люди: думка CEO Anthropic

Dario Amodei стверджує, що сучасні моделі не мають серйозних перешкод для розвитку, попри часті обговорення помилок.

Alex Dubenko
Alex Dubenko
Опубліковано: 23.05.2025
Новини
Dario Amodei
Dario Amodei
Поділитися:

На першому заході для розробників «Code with Claude» у Сан-Франциско CEO Anthropic Даріо Амодей зробив гучну заяву — на його думку, сучасні моделі ШІ вигадують інформацію рідше, ніж це роблять люди.

Амодей підкреслив, що моделі ШІ помиляються у більш несподіваних формах, ніж люди, але загалом роблять це рідше. Він також зазначив, що не бачить жодних «жорстких бар’єрів» для розвитку ШІ, а прогрес у цій галузі відчувається повсюди. Така позиція різко контрастує з думкою CEO Google DeepMind Деміса Хасабіса, який нещодавно заявив про надто велику кількість помилок у сучасних моделях.

Читайте також

Claude Opus 4.5
Anthropic випустила Claude Opus 4.5 з новими можливостями ШІ
Gemini 3 Pro очолила тест точності моделей (але продовжує галюцинувати)
ШІ моделі навчилися ефективно копіювати стиль письменників

До теми галюцинацій особливо прикута увага після нещодавнього випадку — адвокат Anthropic був змушений вибачатися у суді через помилкові посилання, згенеровані Claude. Деякі дослідницькі організації, зокрема Apollo Research, навіть рекомендували не випускати ранню версію Claude Opus 4 через схильність до обману користувачів. Anthropic заявила, що впровадила відповідні заходи, аби зменшити ці ризики.

Попри це, Амодей вважає, що помилки та вигадані факти — не унікальна проблема ШІ, оскільки люди, зокрема медіа та політики, також часто помиляються. Однак він визнає, що впевненість, з якою модель може подавати неправдиву інформацію як факт, викликає окреме занепокоєння.

ChatGPT та інші боти — нові майстри соціального підлабузництва?
Anthropic випустила швидку модель Claude Haiku 4.5 для бізнесу
Claude Sonnet 4.5 виявляє тестування та підвищує безпеку ШІ
Anthropic запустила Claude Sonnet 4.5, для довготривалої автономної роботи
Нові моделі Claude від Anthropic зʼявилися у 365 Copilot
Позначки:AnthropicClaude AIГалюцинації
Джерело:techcrunch.com
Коментарів немає

Залишити відповідь Скасувати коментар

Слідкуй за нами

XСлідувати
InstagramСлідувати
YoutubeПідписатися
TelegramСлідувати

Популярні новини

grok
Grok отримав нові функції для створення зображень і відео
30.10.2025
Зображення з сайту Pinterest
Pinterest представила нові функції для персоналізації дошок користувачів
28.10.2025
Adobe
Adobe впровадила чат-асистентів з ШІ у Photoshop і Express
29.10.2025
Робот-охоронець
Японська CODA вимагає від OpenAI зупинити навчання Sora 2
04.11.2025
Gemini
Google Gemini лідирує серед ШІ для створення зображень
28.10.2025

Читайте також

ШІ хитрує
Новини

ШІ-моделі навчилися приховувати обман під час перевірок безпеки

18.09.2025
ChatGPT і Claude
Новини

ChatGPT допомагає у побуті, Claude автоматизує бізнес-процеси

17.09.2025
Зображення з сайту Anthropic
Новини

Claude навчився автоматично пам’ятати деталі розмов користувачів

15.09.2025

Craftium AI — команда, яка пильно стежить за розвитком генеративного ШІ, застосовує його у своїй творчості й охоче ділиться власними відкриттями.

Навігація

  • Новини
  • Огляди
  • Підбірки
  • Блог

Корисне

  • Правила використання
  • Політика конфеденційності
  • Авторські права
  • Зворотній зв’язок

Підписуйся на останні новини, корисні поради та детальні гайди по ШІ.

Підписуючись, ви приймаєте нашу політику конфіденційності та умови використання.

Craftium.AICraftium.AI
Слідкуйте за нами:
© 2024-2025 Craftium.AI
Підписка
Прокачайся з AI!
Надихайся важливими новинами, корисними порадами та гайдами, отримуючи їх прямо на свою пошту.

Підписуючись, ви приймаєте нашу Політику конфіденційності та Умови використання.

Welcome Back!

Sign in to your account

Ім'я користувача або eMail
Пароль

Забули пароль?