Один з найбільших онлайн-ресурсів знань Вікіпедія, стикається з новим викликом — некоректним контентом, створеним ШІ. З появою великих мовних моделей, таких як GPT від OpenAI, редактори вимушені витрачати все більше часу на видалення текстів, що виглядають правдоподібно, але часто містять помилки або є недостовірними. Відповідь на це — проект «WikiProject AI Cleanup», ініціатива редакторів, яка має на меті захистити платформу від таких втручань.
Група використовує фрази та стилістичні особливості, які характерні для генеративних моделей, щоб знаходити невідповідний контент.
Ми виявили, що деякі статті мали ознаки текстів, створених ШІ, тому вирішили систематизувати наші зусилля та розробити методи для їхнього виявлення.
Іліас Лебле, один з засновників проекту
Проблема полягає не тільки у граматичних помилках чи штучному стилі, а й у неправильних джерелах або навіть цілком вигаданих фактах. Це створює загрозу для якості інформації, на яку користувачі покладаються щодня. Одним з кричущих прикладів була стаття про Chester Mental Health Center, в якій містилися промовисті слова: «На момент останнього оновлення даних у січні 2022 року…».
Редактори намагаються боротися з цим явищем за допомогою існуючих правил Вікіпедії, що вимагають наявності надійних джерел для кожного факту. Проте нові виклики змушують шукати інноваційні підходи до виявлення таких статей та недопущення їхнього впливу на читачів.