Компанія Meta опублікувала документ під назвою «Frontier AI Framework», в якому окреслила свою політику щодо випуску високопродуктивних систем штучного інтелекту. Meta визначає два типи систем, які вважає надто ризикованими для випуску: системи «високого ризику» та «критичного ризику». Перші можуть полегшити виконання атак, тоді як другі можуть призвести до катастрофічних наслідків, які неможливо пом’якшити.
У документі зазначено, що оцінка ризику систем проводиться на основі думок внутрішніх та зовнішніх експертів, а не за допомогою кількісних метрик. Meta обмежуватиме доступ до систем «високого ризику» до моменту зниження ризику до помірного рівня. Якщо система класифікується як «критичний ризик», розробка призупиняється до впровадження необхідних засобів захисту.
Цей крок Meta є відповіддю на критику щодо відкритого підходу компанії до розробки систем. Хоча Meta намагається зробити свої технології доступними, вона стикається з ризиками, що їх можуть використати в небезпечних цілях. Наприклад, одна з моделей, Llama, була використана для розробки чат-бота оборонного призначення ворожою країною.
Meta підкреслює важливість балансу між вигодами та ризиками при розробці та впровадженні передових технологій ШІ. Компанія вірить, що можливо забезпечити суспільству переваги від технологій, зберігаючи при цьому прийнятний рівень ризику.