OpenAI видалила функцію, яка дозволяла користувачам ChatGPT робити свої розмови доступними для пошукових систем, таких як Google. Це рішення ухвалили лише через кілька годин після того, як у соцмережах зʼявилася значна кількість критики щодо ризиків для приватності користувачів. Функція була експериментальною і працювала за принципом добровільної участі: користувач мав самостійно поділитися чатом і поставити галочку, щоб зробити розмову видимою для пошуку.
Користувачі помітили, що через пошуковий запит site:chatgpt.com/share можна знайти тисячі опублікованих чужих діалогів, серед яких траплялися як побутові питання, так і особисті чи професійно чутливі теми. У багатьох розмовах були вказані імена, місця проживання та інші персональні дані. Команда безпеки OpenAI пояснила, що поточні заходи не забезпечили достатнього захисту від випадкового поширення приватної інформації.
Розробники зазначили, що функція була створена для обміну корисними розмовами, але швидко стало зрозуміло, що користувачі можуть випадково розкрити те, що не планували робити публічним. Навіть кілька додаткових кроків для активації не змогли запобігти небажаному поширенню особистих даних. Схожі ситуації виникали й у інших компаній, коли приватні розмови з Bard або Meta AI з’являлися у відкритому доступі.
Після інциденту OpenAI оперативно вимкнула функцію і пообіцяла переглянути підхід до захисту приватності користувачів. Для бізнес-користувачів це стало ще одним нагадуванням про важливість уважного ставлення до налаштувань та політик захисту даних у ШІ-сервісах. Компанія підкреслила, що корпоративні та командні акаунти мають окремі механізми захисту, проте інцидент вплинув на довіру до таких інструментів серед звичайних користувачів.