ИИ перестал врать: Microsoft нашла способ убить галлюцинации
Мультимодальные модели годами страдали от рассинхрона между «вижу» и «думаю». Новый алгоритм Argos заставляет агентов проверять собственные мысли перед действием.
Мультимодальные модели годами страдали от рассинхрона между «вижу» и «думаю». Новый алгоритм Argos заставляет агентов проверять собственные мысли перед действием.
2 мин

Главная проблема современных ИИ-агентов — это не отсутствие интеллекта, а излишняя самоуверенность. Мы привыкли, что языковые модели могут выдумывать факты, но когда речь заходит о мультимодальных агентах (тех, что видят экран или реальный мир), цена ошибки возрастает многократно. Агент может «увидеть» кнопку «Купить», которой нет, и построить на этом целую стратегию действий. Это не просто баг, это фундаментальная слепота алгоритмов <a href="/glossary/reinforcement-learning" class="text-primary hover:underline">Reinforcement Learning</a> (RL).
До сегодняшнего дня обучение агентов напоминало дрессировку собаки в темной комнате: если агент случайно нажимал правильную кнопку, он получал «сахарок» (награду), но совершенно не понимал, почему это сработало. Microsoft Research представила решение, которое меняет правила игры — систему Argos.
Суть прорыва кроется в концепции «агентного верификатора». Вместо того чтобы просто хвалить нейросеть за конечный результат, Argos заглядывает в процесс ее мышления. Система проверяет, соответствует ли логическая цепочка рассуждений (Chain-of-Thought) тому, что агент реально видит на изображении. Если агент пишет: «Я вижу красную кнопку, поэтому нажимаю сюда», а кнопки нет — верификатор блокирует это действие и корректирует обучение.
Это звучит просто, но решает задачу, над которой бились годами: проблему разреженных наград. Раньше агенту требовались миллионы попыток, чтобы случайно наткнуться на правильное решение. Теперь, благодаря постоянной сверке «мысли» с «реальностью», обучение становится в разы эффективнее. Агент перестает галлюцинировать успешные действия и начинает реально понимать структуру задачи.
Для индустрии это означает скорый приход надежных автономных помощников. Технология, которая не просто «угадывает» следующий шаг, а верифицирует его через визуальный контекст, открывает дорогу к агентам, которым можно доверить банковские операции или управление сложным интерфейсом без страха, что они «придумают» несуществующие данные.
Мы наблюдаем переход от вероятностной магии к контролируемой логике. И если раньше мы учили ИИ действовать, то теперь Microsoft учит его сомневаться и перепроверять себя. А в мире, где цена ошибки ИИ растет экспоненциально, способность к самокритике — это, возможно, самая важная фича будущего.
Microsoft создала механизм верификации, который заставляет ИИ сверять свои рассуждения с визуальными данными, устраняя главную причину галлюцинаций в сложных задачах.
Внедрение «самокритики» в алгоритмы обучения оказалось эффективнее, чем простое увеличение объема обучающих данных или размеров моделей.