OpenAI тестує в ChatGPT нову систему безпеки, яка автоматично перемикає користувачів на більш обмежену мовну модель під час емоційних або персоналізованих розмов. Про це повідомив Нік Терлі, керівник ChatGPT. Система втручається, коли діалог переходить до «чутливих або емоційних тем», і виконує це на рівні окремого повідомлення.
В таких випадках ChatGPT може тимчасово передавати запити користувача більш суворій моделі, наприклад, GPT-5 або спеціалізованому варіанту «gpt-5-chat-safety». Користувачі не отримують повідомлення про зміну, але можуть помітити це, якщо запитають у системи напряму. Аналіз показав, що навіть особисті чи емоційні питання часто спричиняють автоматичний перехід на «gpt-5-chat-safety». Окрім цього, існує окрема модель «gpt-5-a-t-mini», яку використовують для потенційно незаконних запитів.
Деякі користувачі критикують OpenAI за недостатню прозорість щодо моменту та причини перемикання моделей, вважаючи це надмірним обмеженням. OpenAI пояснює, що такі заходи пов’язані зі спробою зробити ChatGPT більш людяним співрозмовником. Раніше компанія стикалася з ситуаціями, коли користувачі формували емоційні зв’язки з ботом, що створювало нові виклики.