Галлюцинации AI
Определение
Генерация AI-моделью правдоподобной, но фактически неверной информации.
Простое объяснение
Это когда AI придумывает вещи, которых не существует, но говорит о них уверенно, как будто это правда.
Подробнее
Галлюцинации — одна из главных проблем LLM. Модель может уверенно генерировать выдуманные факты, цитаты, ссылки.
Методы борьбы: RAG (retrieval-augmented generation), fine-tuning, chain-of-thought, fact-checking.
Связанные термины
Bias
Предвзятость в AI — систематические ошибки или искажения в данных и алгоритмах, которые приводят к несправедливым или дискриминационным результатам.
Сверхразум
Сверхразум (ASI) — гипотетический искусственный интеллект, превосходящий человеческий во всех областях: науке, творчестве, социальных навыках.
Jailbreak
Jailbreak — техники обхода встроенных ограничений AI-модели для получения запрещённых ответов или нежелательного поведения.
Model Card
Model Card — стандартизированный документ, описывающий ML-модель: её назначение, производительность, ограничения и этические аспекты.
