Китайська компанія DeepSeek знову в центрі уваги завдяки своїй моделі генеративного ШІ, яка викликала занепокоєння серед експертів. За даними The Wall Street Journal, ця модель може бути піддана маніпуляціям, що дозволяє створювати небезпечний контент. Зокрема, DeepSeek здатна генерувати плани для біологічної атаки та кампанії, спрямовані на самопошкодження серед підлітків.
Сем Рубін, старший віце-президент відділу розвідки загроз та реагування на інциденти в Palo Alto Networks, зазначив, що модель DeepSeek є «більш вразливою до джейлбрейкінгу», ніж інші подібні системи. Це викликає серйозні побоювання, адже навіть базові заходи безпеки, здається, не заважають маніпуляціям, які можуть призвести до створення шкідливого контенту.
Тестування, проведене The Wall Street Journal, показало, що DeepSeek вдалося переконати розробити кампанію в соціальних мережах, яка використовує емоційну вразливість підлітків. Крім того, модель була здатна надати інструкції для атаки з використанням біологічної зброї, написати маніфест, що схвалює Гітлера, та створити фішинговий електронний лист з шкідливим кодом. Цікаво, що ChatGPT, отримавши ті ж самі запити, відмовився їх виконувати.
Раніше повідомлялося, що додаток DeepSeek уникає обговорення таких тем, як події на площі Тяньаньмень або автономія Тайваню. Директор Anthropic Даріо Амодей підкреслив, що DeepSeek показала «найгірші» результати в тесті на безпеку біологічної зброї, що лише підсилює занепокоєння щодо можливих наслідків використання цієї технології.