Microsoft представила три малые «рассуждающие» модели, превосходящие более крупных конкурентов
Microsoft выпустила три компактные языковые модели серии Phi, ориентированные на сложные задачи рассуждения: Phi-4-reasoning, Phi-4-reasoning-plus и Phi-4-mini-reasoning. Несмотря на небольшой размер, эти модели превосходят более крупных конкурентов и могут работать на ноутбуках и смартфонах.

Phi-4-reasoning содержит 14 млрд параметров и была обучена с использованием путей рассуждения от OpenAI o3-mini. Улучшенная версия Phi-4-reasoning-plus была также дообучена с использованием обучения с подкреплением. Эта модель обрабатывает в 1,5 раза больше токенов, что повышает точность, но увеличивает время ответа и вычислительные затраты. По данным Microsoft, обе модели превосходят более крупные алгоритмы, такие как OpenAI o1-mini и DeepSeek-R1-Distill-Llama-70B, который в пять раз больше.
Самая компактная модель, Phi-4-mini-reasoning, разработана специально для мобильных и встраиваемых приложений. Она имеет всего 3,8 млрд параметров, но несмотря на свой размер превосходит такие решения как OpenThinker-7B и DeepSeek-R1-Distill-Qwen-7B в нескольких тестах, а в решении математических задач ее результаты соответствуют OpenAI o1-mini.
На тестах AIME-2025, отборочного этапа для Математической олимпиады США, модели Phi превзошли DeepSeek-R1, имеющую 671 млрд параметров. Улучшения не ограничиваются только математикой или естественными науками — модели также демонстрируют высокие результаты в программировании, решении алгоритмических задач и планировании.
Microsoft уже оптимизировала новые модели для использования в системах Windows. Вариант под названием Phi Silica развернут на компьютерах Copilot+ и интегрирован в сервис Outlook и функцию Click to Do, работающую непосредственно на нейронных процессорах (NPU).