Jailbreak
Определение
Jailbreak — техники обхода встроенных ограничений AI-модели для получения запрещённых ответов или нежелательного поведения.
Простое объяснение
Jailbreak — как взлом замка, который AI поставил на свои возможности. Хакеры ищут обходные пути, разработчики укрепляют защиту.
Подробнее
Связанные термины
Constitutional AI
Constitutional AI — подход Anthropic к созданию безопасного AI, где модель обучается следовать набору принципов (конституции) через самокритику и ревизию.
Explainable AI
Объяснимый AI (XAI) — подход к разработке AI-систем, решения которых можно понять и объяснить человеку.
Red Teaming
Red Teaming — практика систематического тестирования AI-систем на уязвимости путём симуляции атак злоумышленников.
Галлюцинации AI
Генерация AI-моделью правдоподобной, но фактически неверной информации.
