Японский стартап Sakana AI разработал новый метод, который позволяет нескольким большим языковым моделям, таким как ChatGPT и Gemini, совместно работать над одной задачей. Командный подход, предложенный Sakana AI, показывает значительно лучшие результаты по сравнению с одиночной работой моделей.
Unsplash
Проблема существующих нейросетей в том, что они работают изолированно, что ограничивает их способность решать сложные, многогранные проблемы. Новый алгоритм под названием AB-MCTS (Адаптивный ветвящийся поиск по дереву Монте-Карло) позволяет нескольким ИИ-моделям одновременно анализировать одну проблему. Нейросети обмениваются предложениями и дорабатывают их, действуя подобно команде людей. Система динамически выбирает, какая из моделей — ChatGPT, Gemini или DeepSeek — лучше всего подходит для текущего этапа задачи, адаптируясь к текущим условиям в реальном времени.
Алгоритм AB-MCTS сочетает две стратегии поиска. Он может либо углубляться в доработку существующего решения, либо исследовать совершенно новые подходы. Специальная вероятностная модель постоянно решает, какое направление является наиболее перспективным в данный момент. Такой гибридный подход обеспечивает гибкость и эффективность в поиске оптимального решения.
В ходе тестирования на сложном бенчмарке ARC-AGI-2 командный подход Multi-LLM AB-MCTS позволит решить больше задач, чем любая модель, работающая в одиночку. В некоторых случаях правильный ответ был найден только благодаря комбинации различных моделей. При неограниченном количестве попыток система находит верное решение примерно в 30% случаев, что является высоким показателем для таких сложных тестов.
Sakana AI открыла исходный код своего проекта. Это позволяет другим разработчикам использовать и совершенствовать метод, что может ускорить его внедрение в индустрии.