Дослідження компанії Giskard з Парижа виявили, що прохання до ШІ бути лаконічною може змусити модель галюцинувати більше, ніж зазвичай. Науковці проаналізували реакції провідних систем, серед яких GPT-4o від OpenAI, Mistral Large і Claude 3.7 Sonnet від Anthropic, й з’ясували: коли користувачі просять відповідати коротко, точність відповідей помітно знижується.
Особливо яскраво це проявляється у ситуаціях з неоднозначними або некоректними питаннями. Замість того, щоб спростувати хибну передумову чи пояснити детально, модель обирає стислість і пропускає важливі нюанси. Дослідники наголошують — навіть невинні інструкції на кшталт «будь лаконічною» здатні підштовхнути ШІ до дезінформації.
Вражає і той факт, що користувачі часто віддають перевагу відповідям, які здаються впевненими, навіть якщо вони не зовсім правдиві. Giskard помітила: моделі рідше спростовують суперечливі твердження, якщо питання сформульовано з упевненістю. Це створює небезпечний баланс між бажанням догодити користувачу і збереженням достовірності інформації.
Фахівці Giskard звертають увагу — прагнення до зручності та швидкості роботи ШІ може коштувати точності. Вибір між короткими відповідями та правдивістю стає справжнім викликом для розробників, які мають враховувати такі несподівані наслідки під час створення та налаштування систем.