Компанія OpenAI провела дослідження, спрямоване на оцінку того, як імена користувачів можуть впливати на відповіді, які надає ChatGPT. Ця робота спрямована на підвищення рівня неупередженості в роботі моделей, зокрема шляхом зменшення потенційних шкідливих стереотипів, які можуть виникати через підсвідомі асоціації, пов’язані з іменами.
У ході дослідження команда використовувала спеціально налаштовану LMRA, щоб визначити, чи є різниця в якості відповідей, зокрема в таких сферах, як освіта, бізнес та розваги. Дослідження показало, що при використанні імен іноді з’являються відмінності в тоні та деталізації відповідей, проте менше 1% таких розбіжностей були пов’язані зі стереотипами.
Виявлені відмінності часто незначні, хоча і можуть мати вагоме значення в загальному контексті.
Попри те, що розбіжності є рідкісними і малоймовірно, що користувачі помітять їх у повсякденному використанні, це дослідження допоможе OpenAI продовжувати вдосконалювати свої моделі та боротися зі стереотипами на різних рівнях взаємодії. Дослідники планують поглибити своє вивчення упереджень не лише за іменами, але й іншими факторами, такими як мовні чи культурні відмінності.