Суть события
Компания OpenAI представила новую инициативу Trusted Access for Cyber («Доверенный доступ для кибербезопасности») одновременно с анонсом своей самой мощной на данный момент модели для работы с кодом — GPT-5.3-Codex. Главная цель этого шага — решить дилемму двойного назначения технологий.
Инструменты, способные автономно находить уязвимости в программном обеспечении, одинаково полезны как для защитников, так и для злоумышленников. Чтобы дать специалистам по безопасности полный доступ к возможностям ИИ, не вооружая при этом хакеров, OpenAI переходит от общих ограничений к системе доступа, основанной на верификации личности и доверии.
Контекст
Ранее разработчики передовых моделей (frontier models) полагались на жесткие фильтры безопасности, которые действовали для всех пользователей одинаково. Например, запрос «найди уязвимость в этом коде» мог быть отклонен системой как потенциально опасный, даже если его вводил сертифицированный аудитор безопасности, пытающийся защитить инфраструктуру компании.
С появлением GPT-5.3-Codex ситуация изменилась. Эта модель способна не просто дополнять строки кода, но и работать автономно часами или даже днями, выполняя сложные задачи по анализу систем. Блокировать такие возможности для всех — значит тормозить прогресс в сфере защиты. Оставлять их открытыми для всех — значит создавать неприемлемые риски. Старая парадигма «безопасность через ограничения функционала» перестала работать эффективно.
Детали и механика
Новая программа Trusted Access for Cyber предлагает дифференцированный подход к пользователям:
- Верификация личности: Чтобы использовать модель для потенциально рискованных задач кибербезопасности, пользователи должны подтвердить свою личность. Корпоративные клиенты могут запросить доступ для своих команд через представителей OpenAI.
- Снижение трения: Для верифицированных пользователей (защитников) снижается уровень срабатывания защитных фильтров. Это позволяет проводить легитимные тесты на проникновение и анализ уязвимостей без постоянных отказов со стороны модели.
- Закрытый уровень доступа: Для исследователей, которым нужны еще более мощные или менее ограниченные модели, предусмотрена программа доступа только по приглашениям.
- Финансирование: OpenAI выделяет 10 миллионов долларов в виде кредитов на API для команд, занимающихся защитой критической инфраструктуры и открытого ПО.
При этом базовые меры безопасности сохраняются: модель обучена отказывать в явно вредоносных запросах (например, создание программ-вымогателей или кража учетных данных), а автоматические мониторы продолжают отслеживать подозрительную активность.
Анализ: Смена парадигмы
Это решение знаменует важный поворот в индустрии ИИ. Мы наблюдаем переход от технической цензуры (когда модель «отучают» делать что-то опасное) к административному контролю (когда модель может многое, но доступ к ней выдается по паспорту).
Проблема двойного назначения в кибербезопасности стоит особенно остро. Один и тот же промпт может быть частью ответственного раскрытия уязвимости или этапом подготовки кибератаки. Алгоритму крайне сложно определить намерение пользователя только по тексту запроса. Введение верификации (фактически, аналог банковского KYC — «знай своего клиента») перекладывает ответственность с алгоритмов на юридическую плоскость и репутацию пользователя.
Перспектива
В ближайшем будущем стоит ожидать, что подобную практику переймут и другие лаборатории искусственного интеллекта. Интернет доступа к ИИ может расслоиться на «общий» (безопасный, но ограниченный) и «профессиональный» (мощный, но требующий деанонимизации).
Однако этот подход несет и новые риски. Верифицированные аккаунты могут стать ценным товаром на черном рынке. Если злоумышленник получит доступ к учетной записи доверенного исследователя, он получит в руки мощное кибероружие. Следовательно, требования к безопасности самих аккаунтов OpenAI должны будут многократно возрасти.