Дайджест #8: Дилемма прозрачности, workslop за $9 млн, AI-агенты уронили AWS

#8
7 мин чтения

Говорить ли клиенту, что текст написал AI? Workslop стоит компаниям $9 млн в год. Amazon: AI-агенты уронили AWS на 13 часов. Accenture: нет AI – нет повышения.

Главная тема этого выпуска – доверие. Точнее, его отсутствие. Команды уже используют AI, но никто не знает, как об этом говорить – ни клиентам, ни друг другу. И пока правил нет, растёт феномен «workslop» – отполированного мусора, который стоит компаниям миллионы.


Что важно менеджеру

Дилемма прозрачности: говорить ли клиенту, что текст написал AI?

Мы опубликовали большой разбор «Дилемма прозрачности» в нашем блоге. Вопрос звучит просто, но ответ неочевиден: и раскрытие, и сокрытие использования AI ведут к потере доверия – просто по-разному.

«Правильного» решения нет. Но есть данные.

Исследование Schilke & Reimann (2025) – 13 экспериментов, 5 000+ участников – показало:

  • Явное раскрытие AI снижает доверие на 7–18% в зависимости от контекста
  • Для профессоров: –16%, для инвестфондов: –18%
  • Даже простая плашка «создано с помощью AI» стоит 7–14 процентных пунктов доверия

Разрыв доверия: 5.63 у человека vs 4.55 у AI при раскрытии авторства

Но скрывать ещё хуже. Исследование BetterUp Labs и Stanford выявило феномен «workslop» – отполированного, но поверхностного AI-контента:

  • 40% сотрудников получают workslop ежемесячно
  • Среднее время на разбор одного инцидента: 1 час 56 минут
  • Стоимость на одного сотрудника: $186/мес
  • Годовой ущерб для компании из 10 000 человек: >$9 млн

Стоимость workslop

Когда workslop обнаруживают – последствия катастрофические:

  • 54% считают отправителя менее креативным
  • 42% сомневаются в его надёжности
  • 33% не хотят работать с ним в будущем

При этом слепое тестирование Jain et al. (2024) показало парадокс: без маркировки ответы ChatGPT оценивались наравне с ответами клинических психологов по аутентичности и профессионализму. Но стоило раскрыть авторство – оценки AI замерли, а человеческие выросли.

Разрыв между руководством и командой

Данные SAP & Wakefield Research (300+ C-level руководителей, компании $1B+):

  • 74% доверяют AI больше, чем семье и друзьям в стратегических вопросах
  • 44% готовы позволить AI отменить бизнес-решение
  • 38% напрямую делегируют решения AI

Доверие C-level к AI

А на уровне сотрудников (данные BCG “AI at Work 2025”, 10 600+ человек):

  • Адаптация линейного персонала застряла на 51% (не меняется с 2023)
  • Только 25% получают руководство по AI от менеджеров
  • 54% готовы использовать неодобренные AI-инструменты
  • Сотрудники с низкой AI-грамотностью следуют ошибочным рекомендациям AI в 7 раз чаще

Разрыв адаптации AI по уровням организации

Что это значит для менеджера

Проблема не в том, использовать AI или нет. Проблема в том, что команда уже использует – а правил нет.

  1. Нормализуйте, а не раскрывайте. Когда AI – стандартный инструмент для всех, вопрос «кто написал?» теряет смысл. SAP SuccessFactors после нормализации получил +47% к частоте обратной связи и +30% к удовлетворённости постановкой целей.

  2. Социальное доверие вместо технической прозрачности. Исследование Harvard LISH (17 245 решений по управлению запасами): когда менеджеры видели логику алгоритма – они чаще его игнорировали. «Чёрный ящик» с валидацией коллег работал лучше, чем прозрачная система.

  3. Создавайте «пилотов», а не «пассажиров». 28% сотрудников активно редактируют и дополняют AI-вывод – и показывают в 3,6 раза более высокую продуктивность и в 3,1 раза более высокую лояльность. Остальные 72% просто нажимают «отправить».

Источники:


Новости

Amazon: AI-агенты уронили AWS на 13 часов

Две новости из Amazon. С одной стороны, AWS зафиксировал минимум два сбоя, вызванных автономными AI-агентами Kiro и Amazon Q. Один длился 13 часов. Причина – AI получил избыточные права доступа и действовал без подтверждения человеком. При этом Amazon установил KPI: 80% разработчиков должны использовать AI для кода минимум раз в неделю.

С другой – Amazon меняет священную культуру 6-страничных меморандумов на AI-инструмент Cedric. Риск: потеря этапа «кристаллизации мышления». И самое показательное – феномен «пустого цикла»: сотрудники генерируют длинные тексты через AI, а менеджеры суммаризируют их – тоже через AI. Иллюзия продуктивности при реальном снижении качества.

Что вам с этого? Ограничьте доступы AI-агентов по принципу наименьших привилегий. А для документов – явно коммуницируйте команде, что качество мысли важнее объёма текста.


Accenture: нет AI – нет повышения

Accenture сделал использование AI обязательным условием для продвижения на позиции Associate Director и Senior Manager. Уже обучено 550 000 из 780 000 сотрудников (70%). 30 000 обучаются Claude, тысячи разработчиков используют Claude Code, 2 000 – платформы Palantir. Стратегия включает «вывод» сотрудников, которые не могут переобучиться.


AI-агенты экономят 5 часов – но пользователи мешают им работать

Исследование Anthropic показало, что AI-агенты экономят до 5 часов на одной комплексной задаче. Но есть побочный эффект: пользователи стали прерывать работу агентов и вмешиваться в процесс в 2 раза чаще, чем с обычными чат-ботами.

Доверие растёт постепенно: с 20% до 40% автоматического одобрения действий после ~750 сессий. Опытные пользователи одобряют 50%+ действий, новички – лишь 20%.


Goldman Sachs и Anthropic: ставки растут

Goldman Sachs внедряет автономных агентов Claude для полной автоматизации учёта сделок и комплаенса – AI переходит из роли помощника в роль автономного исполнителя. Параллельно сам Anthropic меняет политику безопасности: компания отказалась от обязательства останавливать разработку опасных моделей, если конкуренты выпустят аналогичные.

Что вам с этого? Проведите аудит операционных процессов – участки, где сотрудники «перекладывают данные», первые кандидаты на агентскую автоматизацию.


Инструменты

Google Pomelli: студийные фото из обычных картинок

Google Labs запустила Photoshoot в Pomelli – бесплатный инструмент для создания студийного контента. Загружаете фото продукта – получаете профессиональные фоны и стили в несколько кликов. Система может создавать рекламные кампании на основе URL: просто вставьте ссылку на товар и получите готовые текстовые и визуальные креативы.

Что вам с этого? Маркетинговые ассеты и прототипы лендингов без бюджета на фотосессии.


Manus AI в Telegram: отчёты голосом

Manus интегрирован в Telegram – отправляйте голосовые сообщения и файлы агенту, получайте готовый отчёт в том же окне.


NotebookLM: Gemini + AI-подкасты из документов

Google обновил NotebookLM – в 2 раза быстрее, до 50 источников. Загрузите стратегию отдела – получите ответы на ключевые вопросы за 2 минуты. Новая функция Audio Overview генерирует AI-подкаст из ваших документов – загрузите 2–3 сложных отчёта и слушайте «разбор» в дороге.


Perplexity Computer: AI управляет компьютером

Perplexity запустила функцию Computer – AI-агент, способный управлять интерфейсом компьютера и выполнять цепочки действий до нескольких часов без участия человека.

Интерфейс Perplexity Computer


Ещё инструменты

  • AI-почта: 85 стартапов и $581 млн – рынок AI-почты консолидируется. Инструменты переходят от «фишек для гиков» к решениям для традиционных отраслей.
  • Microsoft Copilot запускает агентов-исследователей и аналитиков. Сбор данных и подготовка отчётов в фоновом режиме по расписанию.

Данные и инсайты

3 промпта в день и гонка без победителя

Анализ Бенедикта Эванса: на рынке моделей нет «сетевого эффекта» – лидерство OpenAI не защищено, конкуренты достигают паритета каждые несколько недель. А 80% пользователей ChatGPT отправляют менее 1 000 сообщений в год – около 3 промптов в день. Модели умеют гораздо больше, чем от них просят.

Что вам с этого? Не делайте ставку на «лучшую модель» – она сменится через месяц. Выбирайте поставщика по интеграции в ваши рабочие инструменты.


Klarna, Rocket Money, Google: кейсы замены

Три модели внедрения AI. Klarna – AI-чатбот заменил 800 агентов поддержки, зарплаты оставшимся выросли на 50%. План – сократить штат с 5 000 до 2 000 к 2030. Rocket Money – AI-агент Fin закрывает 68% обращений автоматически, экономя $1 млн в год. Google – уже 25% кода пишет AI.

Что вам с этого? Оцените стоимость обработки одного тикета или рутинной задачи. Модель Klarna: платить меньшей команде значительно больше, инвестируя сэкономленное в AI.


LLM деанонимизирует 68% пользователей

Исследование arXiv: LLM-агенты связывают разрозненные данные из Reddit, Hacker News и LinkedIn с точностью 90%. Конец «практической анонимности». Для не AI-driven технологий такой процент около 0.

Что вам с этого? Проведите аудит публичных коммуникаций компании. AI теперь может связать анонимный комментарий с реальным профилем по косвенным признакам.


Бесплатный трюк: повторите ключевую часть промпта

Простая техника: если повторить ключевое требование в рамках одного запроса, качество ответов GPT и Gemini заметно растёт. Не требует дополнительных токенов.

Пример: «Создай структуру отчёта о проекте. Особенно важно, чтобы структура была максимально полной и логичной.» Повторение акцента помогает модели не потерять фокус на длинных задачах.


Из нашего блога

Завершаемость: MOOC 3–12% vs когортные программы 90%+

Action Distortion: 50% случаев