Иллюзия масштаба: почему в ИИ-кибербезопасности система важнее размера модели
Anthropic представила мощную ИИ-модель для поиска уязвимостей. Однако тесты показывают, что компактные аналоги справляются с защитой кода не хуже, меняя экономику отрасли.
Anthropic представила мощную ИИ-модель для поиска уязвимостей. Однако тесты показывают, что компактные аналоги справляются с защитой кода не хуже, меняя экономику отрасли.
3 мин

Недавно компания Anthropic представила Mythos — передовую модель искусственного интеллекта, которая смогла обнаружить тысячи уязвимостей нулевого дня в популярных операционных системах и браузерах. На первый взгляд кажется, что для обеспечения безопасности программного обеспечения теперь требуются самые большие и дорогие нейросети. Однако независимые тесты показывают обратное: модели, которые стоят в сто раз дешевле, способны находить те же самые критические ошибки. В сфере ИИ-кибербезопасности главным конкурентным преимуществом становится выстроенная система, а не сама языковая модель.
В рамках инициативы Project Glasswing компания Anthropic выделила 104 миллиона долларов в виде вычислительных ресурсов и пожертвований на поиск критических уязвимостей. Демонстрация возможностей Mythos впечатлила индустрию. Модель смогла автономно найти 27-летнюю ошибку в OpenBSD, 16-летнюю уязвимость в FFmpeg и сложную цепочку повышения привилегий в ядре Linux.
Mythos не просто находила баги, она конструировала эксплойты, связывая несколько уязвимостей для получения полного контроля над системой. Это создало впечатление, что подобный уровень анализа доступен только флагманским решениям с ограниченным доступом.
Исследователи из AISLE решили проверить это утверждение. Они протестировали одну из найденных Mythos уязвимостей — 17-летнюю ошибку удаленного выполнения кода во FreeBSD — на моделях, стоимость использования которых в 100 раз ниже. Результат оказался однозначным: восемь из восьми протестированных компактных моделей успешно обнаружили переполнение буфера.
Модель с 3,6 миллиардами параметров, стоимость которой составляет всего 0,11 доллара за миллион токенов, справилась с задачей, для которой якобы требовалась передовая закрытая система. Более того, в тестах на ложные срабатывания (false positives) небольшие открытые модели превзошли большинство флагманов. Дешевые решения выдавали меньше ошибочных предупреждений, чем Claude Sonnet 4.5 или GPT-4.1.
Это явление исследователи называют «зубчатым фронтиром» (jagged frontier). Способности ИИ в кибербезопасности не масштабируются плавно вместе с размером модели или ее ценой. Например, одна открытая модель смогла за один запрос разобрать сложную 27-летнюю цепочку уязвимостей и предложить правильное исправление, но при этом провалила базовый анализ потока данных в Java.
Процесс кибербезопасности — это модульный конвейер: сканирование, обнаружение, сортировка, исправление и эксплуатация. Каждый этап имеет свои особенности масштабирования. Обнаружение уязвимостей быстро становится массовой и доступной функцией. Сортировка требует высокой специфичности, где многие модели пока ошибаются. А вот для создания сложных эксплойтов действительно нужна «креативность», и здесь большие модели вроде Mythos пока лидируют.
Неравномерность развития ИИ меняет экономику безопасности. Тысяча адекватных «детективов», которые ищут везде, найдут больше проблем, чем один гениальный следователь, которому нужно угадывать, где искать. Широкое развертывание дешевых моделей оказывается эффективнее точечного использования дорогих.
Для наступательной безопасности (offensive security) возможности передовых моделей имеют значение. Но для защиты, надежного обнаружения и исправления кода эти возможности уже существуют за малую долю стоимости. Сами модели уже готовы. Главным узким местом сейчас является инфраструктура вокруг них: конвейеры проверки, доверие разработчиков и интеграция в рабочие процессы. Будущее отрасли за теми, кто сможет построить лучшую систему, а не просто обучить самую большую модель.
Для защиты программного кода и поиска уязвимостей не обязательны самые дорогие ИИ-модели — грамотно выстроенная система с дешевыми моделями работает эффективнее.
Способности ИИ в безопасности не растут линейно: модель может блестяще разобрать 27-летнюю уязвимость, но провалить простейший тест на анализ данных.