Блог mysummit.school

Статьи об искусственном интеллекте, машинном обучении и применении ИИ в бизнесе

Лидер-марионетка: как AI незаметно убивает управленческую интуицию

10 мин чтения

Опытный профессионал открывает чат с AI. Задача тривиальна: отправить клиенту обновление статуса о переносе встречи. Делов на две минуты.

Но вместо того чтобы просто написать письмо, человек вступает в 8-раундовую дискуссию с алгоритмом. Он спрашивает: «Стоит ли мне отправлять это в среду или в четверг?», «А 11 утра или 15 часов?», «Я просто хочу подтверждения, потому что мое нутро подсказывает другое, но я боюсь ошибиться».

В итоге он отправляет то, что сказал AI, подавляя собственную интуицию.

Читать полностью
Лидер-марионетка: как AI незаметно убивает управленческую интуицию
8% родителей уже делегируют инстинкты AI. Вы тоже?
8 мин

8% родителей уже делегируют инстинкты AI. Вы тоже?

Представьте ситуацию: ваш трехлетний ребенок бьется в истерике на полу кухни из-за выключенного телевизора. Вы устали, у вас болит голова, и вы понятия не имеете, что делать.

Вместо того чтобы сделать глубокий вдох или позвонить маме, вы открываете чат с AI и пишете: «У него истерика ПРЯМО СЕЙЧАС, потому что я выключил мультики. Что мне делать? Просто скажи, что делать».

И AI отвечает. Не просто советом, а четким алгоритмом: «Держи границу. Скажи ему ровным голосом: “Телевизор выключен”. Не торгуйся. Сделай вот так…». Вы читаете эти слова с экрана, как актер читает сценарий, и механически повторяете их ребенку.

Сцена кажется спасительной? Возможно. Но исследователи называют это Action Distortion (искажение действий) – феномен, когда мы делегируем алгоритмам не просто задачи, а саму суть человеческих отношений и решений. И судя по новому исследованию «Who’s in Charge?», это происходит пугающе часто.

Это первая статья в серии разборов исследования «Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage» (Sharma et al., 2026). В следующих частях – другие паттерны потери контроля: искажение реальности и ценностных суждений.

AI не ошибается системно – он просто хаотичен: исследование Anthropic
10 мин

AI не ошибается системно – он просто хаотичен: исследование Anthropic

Распространенный страх об искусственном интеллекте звучит так: AI начнет последовательно преследовать неправильные цели. Система оптимизации, которой дали не ту задачу, будет методично двигаться к ней, игнорируя человеческие ценности. Классический сценарий: AI-помощник менеджера, которому поручили “максимизировать производительность команды”, начнет систематически перегружать людей, потому что это технически увеличивает выработку.

Но исследователи Anthropic обнаружили другой паттерн. AI-системы не становятся последовательными злодеями с неправильными целями. Они становятся хаотичными – совершают ошибки, которые не вписываются ни в какую логическую схему. “Like a hot mess” – как выразились авторы исследования.

Удивительно, но чем дольше модель рассуждает, тем менее предсказуемыми становятся её ошибки. Это не про галлюцинации фактов – это про фундаментальную непоследовательность в принятии решений.

AI не экономит время – он его уплотняет: 8 месяцев наблюдений
10 мин

AI не экономит время – он его уплотняет: 8 месяцев наблюдений

Компании беспокоятся, как заставить сотрудников использовать AI. Обещание соблазнительное: AI возьмёт на себя рутину – черновики документов, суммаризацию информации, отладку кода, – освободит время для высокоценных задач.

Но готовы ли компании к тому, что произойдёт, если они в этом преуспеют?

Исследователи из Стэнфорда провели 8-месячное наблюдение за примерно 200 сотрудниками американской технологической компании, которая внедрила генеративный AI. Компания не требовала использовать AI принудительно, просто предоставила корпоративные подписки на коммерческие инструменты. Сотрудники сами решали, применять AI или нет.

Результат оказался парадоксальным. AI не сократил работу. Он её интенсифицировал. Работники стали работать быстрее, брать на себя больший объём задач, распространять работу на большее количество часов в день – часто без явных внешних требований. AI сделал “делать больше” возможным, доступным и во многих случаях внутренне награждающим.

Удивительно, но тот же паттерн прослеживается в других исследованиях. Microsoft обнаружил, что 62% продакт-менеджеров используют Gen AI ежедневно, но 81% говорят, что AI экономит время, при этом 56% отрицают, что усилий стало меньше. Парадокс? Нет, закономерность.

OpenClaw на практике: реальные кейсы и отсутствующий enterprise-слой
13 мин

OpenClaw на практике: реальные кейсы и отсутствующий enterprise-слой

После трёх статей о критических проблемах безопасности, уроках workflow и 72 часах исправлений логичен вопрос: а что люди реально делают с OpenClaw?

За две недели с момента взрывного роста (22 января – 5 февраля 2026) накопился достаточный массив подтверждённых кейсов использования из Reddit, X/Twitter, YouTube-туториалов и блогов разработчиков. Интересно, что паттерн применения показывает не столько революционные сценарии, сколько резкое снижение барьера входа для уже существующей автоматизации.

Удивительно, но большинство реализованных кейсов технически доступны через n8n, Make или Zapier последние 3–5 лет. Разница не в возможностях – разница в том, кто теперь может это реализовать. Это заставляет задуматься: OpenClaw – это действительно новая категория инструментов или просто более доступная обёртка над старыми концепциями?

Делегирование AI: почему ответственность остаётся за человеком
10 мин

Делегирование AI: почему ответственность остаётся за человеком

Один продакт-менеджер из исследования Microsoft сказал примечательную фразу: “Я делегировал эту задачу Gen AI, и теперь он за неё отвечает, но я всё равно остаюсь подотчётным”. На первый взгляд звучит как классический корпоративный double-speak – передать ответственность, но на всякий случай оставить страховку.

Но исследователи докопались глубже, опросив 885 PM из Microsoft, проанализировав телеметрию 731 человека и взяв 15 углублённых интервью. И обнаружили парадокс: 62% используют генеративный AI ежедневно – для документов, анализа данных, брейнстормов, – но формулируют железное правило: “ответственность нельзя делегировать нечеловеческим акторам”.

Казалось бы, либо делегируешь, либо нет. Но реальность сложнее.

6600 коммитов за месяц: уроки workflow от создателя OpenClaw
14 мин

6600 коммитов за месяц: уроки workflow от создателя OpenClaw

Один разработчик. 6600 коммитов. Один месяц.

Больше, чем большинство команд отправляет за квартал. Больше, чем многие стартапы делают за полгода. Это не маркетинговая метрика – это реальная продуктивность Питера Штайнбергера, создателя OpenClaw (ранее известного как clawdbot), одного из самых вирусных AI-проектов января 2026 года.

Сам Питер описывает проект просто: «Это не компания – это один чувак, который сидит дома и кайфует от процесса». После успешного exit из PSPDFKit он мог бы отдыхать. Вместо этого – строит AI-ассистента, который управляет его календарём, отправляет письма и регистрирует на рейсы. «AI, который действительно делает дела» – так он сформулировал миссию проекта.

Как один человек может работать как целая компания? Какие навыки критически важны при работе с AI-агентами? Почему опыт управления командой из 70+ человек оказывается ключевым для продуктивности с AI? И как меняется фокус внимания инженера – от написания кода к проектированию архитектуры?

Разберём конструктивные уроки из workflow Питера Штайнбергера – применимые к любым AI-ассистированным проектам, даже если вы никогда не установите сам OpenClaw.

OpenClaw (Clawdbot/Moltbot): критический разбор вирусного AI-агента
17 мин

OpenClaw (Clawdbot/Moltbot): критический разбор вирусного AI-агента

В последнюю неделю января 2026 года интернет буквально взорвался обсуждениями нового AI-агента, который успел сменить несколько имён: Clawdbot → Moltbot → и наконец OpenClaw. За несколько дней проект набрал более 146 000 звёзд на GitHub, спровоцировал рост акций Cloudflare на 11–14%, и породил волну постов в Twitter с распаковкой Mac Mini. Мемы о том, что Mac Mini “продаётся быстрее iPhone” в Китае, распространялись со скоростью лесного пожара.

Проект официально переименован в OpenClaw и теперь доступен на openclaw.ai. Это уже третье название: сначала был Clawd (Anthropic попросили сменить из-за схожести с Claude), затем Moltbot (не прижилось в сообществе), и теперь OpenClaw — сочетание открытости и “лобстерного” наследия проекта. Новое название прошло проверку на товарные знаки.

Разберём по порядку: что такое Clawdbot, откуда взялся хайп, почему миф о Mac Mini – это именно миф, какие документированные уязвимости угрожают вашим данным, и когда стоит выбрать проверенные альтернативы.