Галлюцинации AI
Определение
Генерация AI-моделью правдоподобной, но фактически неверной информации.
Простое объяснение
Это когда AI придумывает вещи, которых не существует, но говорит о них уверенно, как будто это правда.
Подробнее
Галлюцинации — одна из главных проблем LLM. Модель может уверенно генерировать выдуманные факты, цитаты, ссылки.
Методы борьбы: RAG (retrieval-augmented generation), fine-tuning, chain-of-thought, fact-checking.
Связанные термины
Red Teaming
Red Teaming — практика систематического тестирования AI-систем на уязвимости путём симуляции атак злоумышленников.
EU AI Act
EU AI Act — первое в мире комплексное регулирование AI, устанавливающее требования к системам искусственного интеллекта в Европейском Союзе.
AI Governance
Система управления AI: политики, процессы и контроли для ответственного использования искусственного интеллекта.
Jailbreak
Jailbreak — техники обхода встроенных ограничений AI-модели для получения запрещённых ответов или нежелательного поведения.
