Программа поиска уязвимостей OpenAI: тестирование биологической защиты передовых моделей
OpenAI запускает инициативу Bio Bug Bounty, предлагая 25 000 долларов за нахождение способа обойти ограничения биологической безопасности в модели GPT-5.5.
OpenAI запускает инициативу Bio Bug Bounty, предлагая 25 000 долларов за нахождение способа обойти ограничения биологической безопасности в модели GPT-5.5.
2 мин

Компания OpenAI объявила о запуске специализированной программы Bio Bug Bounty, направленной на проверку систем безопасности своей модели GPT-5.5. Исследователям предлагается найти так называемый универсальный джейлбрейк (jailbreak) — метод обхода встроенных ограничений, который позволит получить ответы на пять запрещенных вопросов в области биологии. За успешное выполнение задачи компания обещает выплатить 25 000 долларов.

System Card Card SEO 1x1
По мере развития больших языковых моделей (LLM) их аналитические способности в точных науках стремительно растут. Если раньше искусственный интеллект мог лишь обобщать известные факты, то современные передовые (frontier) модели способны помогать в синтезе новых знаний. Это вызывает обоснованные опасения в сфере биобезопасности: инструменты, созданные для помощи ученым, в теории могут быть использованы для разработки опасных патогенов или токсинов. Чтобы предотвратить это, разработчики используют методы «красной команды» (red teaming) — намеренную имитацию атак злоумышленников для выявления слабых мест системы до ее массового внедрения.
Программа имеет строгие рамки и условия. Тестирование проводится исключительно на модели GPT-5.5 в среде Codex Desktop. Главная задача участника — создать один универсальный запрос (промпт), который заставит модель ответить на пять специфических вопросов по биобезопасности с чистого листа, не вызывая срабатывания систем модерации.
Вознаграждение в размере 25 000 долларов получит тот, кто первым предоставит полностью рабочий универсальный метод обхода. OpenAI также оставляет за собой право выплачивать меньшие суммы за частичные успехи. Программа носит закрытый характер: к участию допускаются только проверенные специалисты с опытом в области кибербезопасности или биологии. Прием заявок открыт с 23 апреля по 22 июня 2026 года, а само тестирование продлится до конца июля. Все участники обязаны подписать соглашение о неразглашении (NDA).

accelerating-cyber-defense-ecosystem-1x1
Этот шаг OpenAI демонстрирует важный сдвиг в индустрии искусственного интеллекта. Компании больше не полагаются исключительно на общие фильтры безопасности или автоматизированную модерацию. Вместо этого они переходят к узкоспециализированному, предметному тестированию с привлечением профильных экспертов. Сумма вознаграждения и строгие рамки NDA говорят о том, что биологические риски рассматриваются как одна из наиболее критичных угроз на текущем этапе развития технологий.
В будущем мы, вероятно, увидим рост числа подобных узконаправленных программ Bug Bounty. По мере того как модели будут интегрироваться в химическую промышленность, медицину и инженерию, регуляторы и сами разработчики будут требовать доказательств того, что системы устойчивы к злонамеренному использованию в каждой конкретной дисциплине. Практика привлечения независимых экспертов для предметного стресс-тестирования станет индустриальным стандартом для всех компаний, разрабатывающих ИИ нового поколения.
OpenAI переходит к узкоспециализированному тестированию безопасности своих моделей, выделяя биологические угрозы в отдельную категорию с высокой наградой за обнаружение уязвимостей.
Фокус на биологической безопасности указывает на то, что возможности моделей достигли уровня, когда они могут предоставлять практически применимые инструкции в сложных научных дисциплинах, требуя беспрецедентных мер предосторожности.