Meta офіційно анонсувала Llama 4 — нову серію моделей генеративного ШІ, яка вже інтегрована в їхній асистент на платформах WhatsApp, Messenger та Instagram. Ця колекція включає моделі Llama 4 Scout і Llama 4 Maverick, які вже доступні для завантаження на Meta та Hugging Face. Llama 4 Scout, менша за обсягом модель, здатна працювати на одному графічному процесорі Nvidia H100, а Llama 4 Maverick за своїми характеристиками нагадує GPT-4o та Gemini 2.0 Flash.
За словами Meta, Llama 4 Scout має контекстне вікно в десять мільйонів токенів і перевершує моделі Google Gemma 3 та Gemini 2.0 Flash-Lite, а також відкритий код Mistral 3.1 за багатьма показниками. Більша модель Maverick також демонструє високу продуктивність у порівнянні з OpenAI GPT-4o та Google Gemini 2.0 Flash, при цьому використовуючи менше половини активних параметрів.
Наразі Meta продовжує тренувати Llama 4 Behemoth, яка має 288 мільярдів активних параметрів і два трильйони параметрів у цілому. Хоча ця модель ще не випущена, Meta заявляє, що Behemoth здатна перевершити конкурентів на декількох показниках у галузі STEM. Для Llama 4 компанія перейшла на архітектуру «міксу експертів», що дозволяє зберігати ресурси, використовуючи лише ті частини моделі, які потрібні для виконання конкретного завдання.
Meta продовжує позиціонувати Llama 4 як «відкритий код», хоча ця ліцензія має певні обмеження. Наприклад, комерційні організації з понад семисот мільйонами активних користувачів на місяць повинні отримати дозвіл від Meta для використання її моделей. Це викликало критику з боку Open Source Initiative, яка вважає, що така ліцензія не відповідає принципам відкритого коду.