С ростом популярности генеративного искусственного интеллекта офисы столкнулись с новым вызовом, который исследователи Harvard Business Review назвали «workslop» (от англ. work + slop, «рабочие помои»). Это низкокачественная работа, выполненная с помощью AI, которая выглядит правдоподобно и отполировано, но по сути является пустой тратой времени. Главная проблема такого контента в том, что он перекладывает когнитивную нагрузку с создателя на получателя: коллегам и руководителям приходится тратить усилия, чтобы продраться через сгенерированный текст и понять, есть ли в нем смысл.
Почему возникает «workslop»?
Исследования показывают, что сотрудники создают такой контент не из злого умысла или лени. Причина кроется в сочетании двух факторов, находящихся под контролем менеджмента:
- Нечеткие мандаты на использование AI. Руководство часто спускает сверху размытые директивы: «Начните использовать эти мощные инструменты», не объясняя, где именно, как и для каких задач. Это создает давление без ясности.
- Перегруженность команд. Сотрудники, находящиеся в состоянии выгорания или психологического истощения, используют AI как спасательный круг, чтобы просто закрыть задачу, не вникая в качество результата.
Коррозия корпоративной культуры
«Workslop» разрушает динамику внутри коллектива. Когда коллега присылает длинный, сгенерированный отчет, который не несет ценности, это подрывает доверие. Получатель чувствует, что его время не уважают. Более того, это создает среду, где небезопасно признаться в неуверенности или попросить о помощи — проще сгенерировать ответ через <a href="/glossary/chatgpt" class="text-primary hover:underline">ChatGPT</a> и надеяться, что никто не заметит подвоха.
Что делать руководителям
Решение проблемы требует изменения подхода к внедрению технологий:
- Снять давление. Перестать требовать использования AI ради самого использования. Инструменты должны решать конкретные проблемы, а не быть самоцелью.
- Создать безопасную среду. Сотрудники должны иметь возможность сказать «я не знаю» или «я не успеваю», вместо того чтобы маскировать проблемы сгенерированным контентом.
- Определить стандарты качества. Четко прописать, в каких задачах допустима автоматизация, а где требуется глубокое человеческое вовлечение и критическое мышление.
Вместо того чтобы просто внедрять инструменты вроде ChatGPT или <a href="/glossary/claude" class="text-primary hover:underline">Claude</a>, лидерам стоит сосредоточиться на устранении причин, заставляющих людей имитировать бурную деятельность с помощью алгоритмов.