Этика AI
Определение
Этика AI — область, изучающая моральные вопросы разработки и применения AI: справедливость, прозрачность, ответственность, влияние на общество.
Простое объяснение
Это правила о том, как создавать и использовать AI так, чтобы он был честным, безопасным и не причинял вреда людям.
Подробнее
Ключевые принципы этики AI:
- Fairness — отсутствие дискриминации
- Transparency — объяснимость решений
- Accountability — ответственность за результаты
- Privacy — защита данных
- Safety — безопасность
Регулирование: EU AI Act, принципы OECD AI.
Связанные термины
Watermarking
Watermarking — технология встраивания скрытых меток в AI-генерированный контент для последующей идентификации его происхождения.
Галлюцинации AI
Генерация AI-моделью правдоподобной, но фактически неверной информации.
Guardrails
Guardrails — защитные механизмы, ограничивающие поведение AI-модели и предотвращающие генерацию вредного или нежелательного контента.
Red Teaming
Red Teaming — практика систематического тестирования AI-систем на уязвимости путём симуляции атак злоумышленников.
