Многие руководители компаний в стремлении ускорить внедрение искусственного интеллекта приходят к простой идее: перестать относиться к ИИ как к инструменту и начать воспринимать его как полноценного сотрудника. Однако новое масштабное исследование, опубликованное в Harvard Business Review, показывает, что такой подход ведет к непредвиденным и негативным последствиям.
Контекст
По мере развития агентных систем искусственного интеллекта (agentic AI), способных автономно выполнять многошаговые задачи, организации начали экспериментировать с их интеграцией в организационные структуры. Идея кажется логичной: если система может писать код, анализировать данные или общаться с клиентами, почему бы не выделить ей место в штатном расписании? Руководители предполагали, что отношение к ИИ как к коллеге поможет сотрудникам быстрее адаптироваться к новым технологиям.
Детали
Исследователи провели масштабный эксперимент, чтобы проверить эту гипотезу. Результаты оказались прямо противоположными ожиданиям. Наделение ИИ человеческими чертами (антропоморфизация) не улучшило показатели его принятия в коллективе.
Вместо этого исследователи зафиксировали ряд серьезных проблем. Во-первых, значительно снизилась индивидуальная ответственность сотрудников: люди начали перекладывать вину за ошибки на ИИ-агентов. Во-вторых, упало качество проверки результатов работы алгоритмов. В-третьих, возросло количество ненужных эскалаций — сотрудники чаще обращались к руководству для решения проблем, которые могли бы решить сами. Наконец, у персонала резко повысился уровень неопределенности относительно их собственных ролей и обязанностей.
Анализ
Эти данные обнажают фундаментальную проблему в том, как бизнес пытается управлять новыми технологиями. Когда мы называем программу «сотрудником», мы подсознательно ожидаем от нее человеческого уровня понимания контекста и моральной ответственности. Но алгоритм, какими бы продвинутыми ни были большие языковые модели (LLM) в его основе, не обладает ни тем, ни другим.
Сотрудники, воспринимающие ИИ как равного коллегу, снижают бдительность. Они перестают выступать в роли строгих контролеров и редакторов, ожидая, что «коллега» сам отвечает за свой результат. Это создает опасный вакуум ответственности в бизнес-процессах.
Перспектива
Главный вызов для индустрии сегодня заключается не в том, стоит ли внедрять автономные ИИ-системы — их использование неизбежно будет расти. Настоящая задача состоит в грамотном перепроектировании рабочих процессов, ролей и систем управления.
Организациям необходимо выстраивать архитектуру работы так, чтобы человек всегда оставался четко ответственным за финальный результат. ИИ должен позиционироваться как мощный, масштабируемый инструмент, требующий квалифицированного надзора, а не как цифровой сотрудник, которому можно делегировать ответственность. Только так можно сохранить качество работы и прозрачность процессов в эпоху умных алгоритмов.