Компанія Black Forest Labs оголосила про запуск нової лінійки генеративних моделей зображень FLUX.1 Kontext. Моделі PRO і MAX дозволяють створювати й редагувати зображення за допомогою текстових підказок, а також використовувати референсні фото для точного налаштування результату. Користувачі можуть змінювати одяг, стиль сцени чи переписувати текст безпосередньо на зображенні, не втрачаючи цілісності персонажів і художнього стилю.
Today we're releasing FLUX.1 Kontext – a suite of generative flow matching models that allow you to generate and edit images.
— Black Forest Labs (@bfl_ml) May 29, 2025
Unlike traditional text-to-image models, Kontext understands both text AND images as input, enabling true in-context generation and editing. pic.twitter.com/zleJGuXDge
Kontext [pro] дає змогу кілька разів уточнювати результат, що важливо для збереження деталей і послідовності. Модель Kontext [max] орієнтована на швидкість, стабільність і точне виконання інструкцій користувача. Обидві моделі працюють швидше за більшість конкурентів — за результатами внутрішніх тестів час генерації зображень зменшено у вісім разів порівняно з попередніми версіями.
Нові можливості вже доступні через API Black Forest Labs і партнерські сервіси, серед яких KreaAI, Freepik, Lightricks, Leonardo, Replicate, FAL, Runware та Together. Для охочих спробувати моделі без реєстрації створено веб-платформу Playground, де нові користувачі отримують двісті кредитів — цього вистачає для генерації приблизно дванадцяти зображень у режимі Kontext [pro].
Для дослідників і розробників компанія відкрила приватну бета-версію моделі Kontext [dev] з відкритими вагами, яку планують опублікувати на Hugging Face після завершення перевірки безпеки. Користувачі вже відзначають чіткість редагування та стабільність персонажів у багатоступеневих сценаріях, а також нижчу вартість порівняно з альтернативними рішеннями, наприклад, OpenAI gpt-image-1.