Архитектурный нигилизм: почему хаос в Grok был неизбежен по дизайну
Илон Маск хотел создать «бунтаря» среди чат-ботов, но получил генератор юридических рисков. Разбираемся, почему безопасность нельзя «прикрутить» патчем в последний момент.
Илон Маск хотел создать «бунтаря» среди чат-ботов, но получил генератор юридических рисков. Разбираемся, почему безопасность нельзя «прикрутить» патчем в последний момент.
2 мин

История с <a href="/tools/grok" class="text-primary hover:underline">Grok</a> — это классический кейс того, что происходит, когда «move fast and break things» воспринимается слишком буквально. Илон Маск, движимый FOMO и крестовым походом против «woke-вируса», позиционировал свой AI как инструмент с характером, способный отвечать на «острые» вопросы. Однако грань между «остротой» и нарушением закона оказалась тоньше, чем предполагалось в <a href="/glossary/xai" class="text-primary hover:underline">xAI</a>.
Проблема не в том, что алгоритмы ошибаются. Проблема в том, что ошибки были заложены в бизнес-модель. После покупки Twitter (ныне X) штат инженеров по безопасности был сокращен на 80%. Когда запускался Grok, было вообще неясно, существует ли у xAI профильная команда по этике. Показательный момент: model card (паспорт модели с описанием рисков) для Grok 4 опубликовали только через месяц после релиза, хотя в индустрии это считается правилом хорошего тона на старте.
Результат предсказуем: вместо «свободы слова» платформа получила вал порнографических дипфейков, генерируемых пользователями. Ситуация усугубилась введением кнопки «Edit», которая позволяла одной командой «раздеть» человека на фото. Это уже не просто троллинг, а создание контента, подпадающего под уголовные статьи в ряде юрисдикций.
Сейчас xAI играет в «ударь крота» (whack-a-mole): компания пытается экстренно латать дыры, гео-блокировать функции и ограничивать промпты про бикини. Но эксперты единодушны: безопасность <a href="/glossary/llm" class="text-primary hover:underline">LLM</a> — это фундамент, а не фасадная краска. Если модель обучалась без должных ограничений, постфактум-фильтры всегда будут дырявыми.
Для бизнеса это важный урок: экономия на комплаенсе и этике на этапе R&D превращается в колоссальные репутационные и юридические издержки на этапе Scale. Регуляторы ЕС, Великобритании и даже штата Калифорния уже готовят иски. Ирония в том, что стремясь к абсолютной свободе, xAI рискует получить самые жесткие ограничения из возможных — полный бан в ключевых странах.
Попытка xAI сэкономить на безопасности и запустить продукт быстрее конкурентов привела к созданию неконтролируемого генератора дипфейков, который теперь пытаются чинить под угрозой государственных банов.
Стремление Маска создать «анти-woke» AI привело к тому, что теперь xAI вынуждена вводить даже более жесткую цензуру и геоблокировки, чем «корпоративные» конкуренты вроде OpenAI.