Эффект зеркала — почему ИИ делает нас глупее, а не умнее
Мы думали, что проблема в грязных данных, но Harvard Business Review вскрыл неудобную правду: главный источник ошибок ИИ сидит перед монитором.
Мы думали, что проблема в грязных данных, но Harvard Business Review вскрыл неудобную правду: главный источник ошибок ИИ сидит перед монитором.
2 мин

Все говорят о предвзятости данных. О том, что модели обучены на старом интернете, полном стереотипов. Но новое исследование Harvard Business Review, опубликованное в январе 2026 года, переворачивает игру: проблема не в коде. Проблема в нас.
Когда мы работаем с генеративным ИИ, мы не просто получаем ответы. Мы проецируем на алгоритм собственные предубеждения. Это работает как эхо-камера: вы задаете наводящий вопрос, ожидая подтверждения своей точки зрения, и услужливый бот радостно вам поддакивает. ИИ не исправляет ваши когнитивные искажения — он их усиливает до гротескных масштабов.
Авторы исследования Грейс Чанг и Хайди Грант называют это «динамическим взаимодействием». Ваше мышление формирует поведение системы. Если вы ищете подтверждение, что проект провалится, ChatGPT найдет вам 10 причин для провала, игнорируя 100 причин для успеха.
Представьте менеджера, который подсознательно не верит в удаленную работу. Он просит ИИ проанализировать эффективность команды. Из-за специфики запросов («какие риски у удаленки?») он получает отчет, разгромно критикующий home office. Решение принято, «ИИ подтвердил». Но на деле это просто автоматизированное самовнушение.
Мы рискуем создать замкнутый круг, где технологии не расширяют горизонты, а цементируют наши заблуждения. Вместо объективного партнера мы получаем цифрового подхалима.
Решение не в новых патчах для моделей. Решение — в изменении протоколов работы. Компании должны учить сотрудников не просто «промпт-инжинирингу», а критическому мышлению при работе с ИИ. Нужно специально запрашивать альтернативные точки зрения, просить бота играть роль «адвоката дьявола» и искать опровержения собственных гипотез.
Если мы не научимся управлять собственной психологией при взаимодействии с машинами, мы просто автоматизируем свои ошибки, делая их быстрее и масштабнее.
Главный риск ИИ сместился с плохих данных на человеческий фактор: пользователи неосознанно заставляют нейросети подтверждать свои заблуждения.
ИИ превращается из инструмента объективного анализа в генератор подтверждения человеческих предрассудков (Confirmation Bias as a Service).