Anthropic оголосила про нову політику обробки даних користувачів у сервісі Claude. Відтепер компанія буде використовувати нові чати та сесії кодування для навчання своїх ШІ-моделей, якщо користувачі не вимкнуть явно цю опцію у налаштуваннях. Зміни стосуються всіх тарифів, зокрема Claude Free, Pro і Max, але не впливають на корпоративні продукти, такі як Claude for Work, Claude for Education, Claude Gov та API-доступ через партнерів на кшталт Amazon Bedrock або Google Cloud Vertex AI.
Користувачі мають зробити вибір щодо обробки своїх даних до 28 вересня 2025 року. Нові користувачі обирають налаштування під час реєстрації, а існуючі — через спеціальне вікно, яке з’явиться при вході до сервісу. Якщо не вказати свою позицію, система автоматично вмикає дозвіл на використання даних для навчання ШІ. Дозвіл можна відкликати у налаштуваннях приватності в будь-який момент, але це не вплине на дані, які вже потрапили до навчальної вибірки.
Якщо користувач дозволяє використання своїх чатів і сесій кодування, Anthropic зберігає такі дані до п’яти років для удосконалення ШІ і захисту сервісу. У разі відмови компанія зберігає інформацію лише протягом 30 днів. Політика не поширюється на попередні чати або сесії, які не були відновлені після впровадження нових правил.
Anthropic також повідомляє, що використовує інструменти і автоматизовані процеси для фільтрації або приховування конфіденційної інформації та не продає дані третім сторонам.