Японська лабораторія Sakana AI представила нову техніку, яка дозволяє кільком великим мовним моделям працювати разом над однією задачею. Система Multi-LLM AB-MCTS об’єднує можливості різних ШІ, щоб вирішувати складні завдання, які не під силу жодній окремій моделі. Підхід полягає у тому, що кожна модель бере участь у процесі проб і помилок, а потім колективно знаходить найкраще рішення.
В основі цієї розробки лежить алгоритм Adaptive Branching Monte Carlo Tree Search, який дозволяє моделі вирішувати чи варто вдосконалювати вже отриману відповідь, чи створювати нову. Система не лише обирає стратегію пошуку, а й визначає, яка саме модель краще впорається з конкретним етапом задачі. На початку всі моделі залучаються порівну, але з часом алгоритм віддає перевагу тим, які показують кращі результати.
Дослідники випробували Multi-LLM AB-MCTS на тесті ARC-AGI-2, який перевіряє здатність ШІ вирішувати складні задачі візуального мислення. Колектив моделей, серед яких були o4-mini, Gemini 2.5 Pro та DeepSeek-R1, зміг правильно виконати понад 30% із 120 завдань, що значно перевищує результати окремих моделей. У деяких випадках рішення однієї моделі виявлялося помилковим, але система передавала його іншим моделям, які знаходили і виправляли помилки.
Фахівці відзначають, що такий підхід допомагає зменшити кількість помилкових відповідей і дозволяє поєднувати сильні сторони різних моделей. Це може бути корисно для бізнесу, де важлива точність та надійність роботи ШІ. Для розробників Sakana AI відкрила доступ до алгоритму через open-source фреймворк TreeQuest, який можна використовувати у власних проєктах з комерційною метою.