AI не делает вас тупее. Дело в том, как вы его используете

7 мин чтения
AI не делает вас тупее. Дело в том, как вы его используете

Полтора года назад я написал заметку в личном блоге о том, что замечаю в работе коллег и в своей собственной: чем больше доверяешь AI, тем реже задаёшь себе вопрос «а это точно правильно?». Я тогда опирался на исследование Microsoft – оно показывало, что доверие к AI подавляет критическую оценку выдаваемых ответов. Аргумент казался мне сильным, но у него был очевидный изъян: корреляция, а не причинно-следственная связь.

В феврале 2026 года исследователи Anthropic Джуди Шэнь и Алекс Тамкин опубликовали эксперимент, который закрыл этот пробел. Рандомизированный контроль. Конкретные данные. И вывод, который, как мне кажется, неправильно понимают большинство людей, кто о нём читал.

Потому что это не история о том, что AI делает нас глупее. Это история о том, как именно мы его используем.

Что произошло в эксперименте

52 разработчика получили задание: научиться работать с новой для них Python-библиотекой для асинхронного программирования Trio. 26 человек работали с AI-ассистентом, 26 – без него. После завершения задачи все написали тест на понимание материала.

Результат группы с AI оказался на 17% хуже. Разрыв статистически значимый и по меркам поведенческих исследований – ощутимый.

Но вот что интересно: скорость выполнения задания у обеих групп была практически одинаковой. AI не помог работать быстрее. Зато помог меньше понять.

Исследователи также зафиксировали любопытную деталь: некоторые участники тратили до 11 минут только на то, чтобы сформулировать один запрос к AI. Транзакционные издержки работы с AI оказались сопоставимы со временем самостоятельного поиска решения.

И ещё один факт, который объясняет, почему группа без AI справилась лучше: они столкнулись с медианой 3 ошибки на участника, тогда как группа с AI – с медианой 1. Это кажется преимуществом. На самом деле это недостаток: именно встреча с ошибкой заставляет разбираться, что происходит.

Сравнение групп: С AI vs Без AI

Участники из группы с AI сами это признали. В рефлексии по окончании они писали, что чувствовали себя «ленивыми» и сожалели, что не вникали в детали. AI снижал когнитивное трение – и вместе с ним снижал глубину усвоения.

Аналогичный паттерн зафиксирован в образовании: исследование показало, что 86% школьников, использующих AI, демонстрируют деградацию критического мышления – именно потому что перестали встречаться с трудностями.

Шесть паттернов – и почему это важнее, чем «использовать или нет»

Здесь начинается самое интересное. Исследователи не остановились на сравнении групп. Они изучили, как именно участники взаимодействовали с AI, и выделили шесть устойчивых паттернов.

Три паттерна показали низкие результаты на тесте (24–39% правильных ответов). Три – высокие (65–86%).

Разница не в том, использовал ли человек AI. Разница в том, оставался ли он думающим агентом в процессе.

Паттерны с низкими результатами

AI Delegation – полное делегирование. Участник просто просил AI написать код и принимал результат без изучения. Средний балл: около 24%.

Типичный запрос выглядел так:

Напиши функцию для асинхронного чтения файлов с использованием библиотеки Trio.

Код работал. Понимания не было. При встрече с любым отклонением от шаблона участник снова шёл к AI.

Progressive AI Reliance – нарастающая зависимость. Начинали самостоятельно, но постепенно делегировали всё больше, пока не отдавали AI целиком. Средний балл: около 28%.

Типичная прогрессия:

Как работает nursery в Trio?
...
(несколько итераций)
...
Просто напиши мне рабочий пример с nursery для моей задачи.

Ключевой момент: переход от вопросов к «напиши за меня» происходил незаметно, как только появлялась первая трудность.

Iterative AI Debugging – отладка через AI без понимания причин. Участник запускал код, получал ошибку, отправлял её в AI и применял предложенное исправление. Цикл повторялся. Средний балл: около 39%.

Получаю ошибку: TaskGroup is not a function. Как исправить?

Код в итоге работал. Но почему – участник так и не понял.

Паттерны с высокими результатами

Generation-Then-Comprehension – генерация с последующим изучением. AI пишет код, но участник затем разбирает его построчно, задавая уточняющие вопросы. Средний балл: около 86%.

Напиши функцию для параллельного выполнения задач с Trio nursery.

После этого объясни мне:
- Почему используется именно async with, а не просто with?
- Что происходит, если одна из задач внутри nursery выбросит исключение?
- Как это отличается от стандартного asyncio?

Разница радикальная. AI становится не заменой мышления, а его инструментом.

Hybrid Code-Explanation – одновременный запрос кода и объяснения. Участник с самого начала просил не просто решение, а понимание. Средний балл: около 75%.

Покажи пример использования trio.open_nursery() и объясни одновременно:
1. Что делает каждая строка
2. Какие ключевые концепции я должен понять, чтобы уметь это применять самостоятельно
3. Какие типичные ошибки делают при первом использовании

Conceptual Inquiry – концептуальные вопросы, самостоятельная реализация. Участник использовал AI только для понимания принципов, а код писал сам. Средний балл: около 65%.

Объясни концепцию structured concurrency в Trio. Не показывай код – только идею. Почему это лучше, чем просто запускать coroutines напрямую?

После такого объяснения участник реализовывал решение сам, сталкивался с ошибками – и разбирался в них. Именно так, как делала контрольная группа.

Что это значит для менеджера

Здесь важно не совершить ошибку интерпретации. Исследование проводилось на разработчиках, изучающих технический инструмент. Но механизм универсален – и, возможно, для менеджеров он даже более значим.

Разработчик может проверить: код либо работает, либо нет. У менеджера такой немедленной обратной связи нет. Письмо, которое написал AI, выглядит убедительно. Анализ рисков – структурированно. Резюме встречи – связно. Проверить, насколько это точно отражает реальность и насколько соответствует вашим управленческим интуициям, значительно сложнее.

Это означает, что деградация навыков у менеджера может происходить тише и дольше оставаться незамеченной.

Посмотрите на типичные управленческие задачи через призму шести паттернов.

Возьмём итоги встречи. Паттерн делегирования выглядит так:

Вот транскрипт встречи. Напиши summary с ключевыми решениями и следующими шагами.

Паттерн с высоким результатом выглядит иначе:

Вот транскрипт встречи. Выдели три момента, где участники, кажется, говорили об одном, но имели в виду разное. Объясни, почему ты так решил.

Во втором случае AI становится инструментом для развития вашего восприятия, а не его замены.

Или подготовка к переговорам. Делегирующий запрос:

Подготовь аргументы для переговоров о бюджете на следующий квартал.

Концептуальный запрос выглядит иначе:

Какие психологические механизмы влияют на то, как люди воспринимают бюджетные запросы? Не давай мне аргументы – объясни, что происходит в голове у человека, который их слушает.

Разница не в эффективности на конкретной встрече. Разница в том, что вы накапливаете за месяцы работы.

Это прямо связано с тем, что исследователи называют Disempowerment – постепенной заменой собственного суждения алгоритмическим. Не драматичной и не заметной в моменте. Просто тихим сдвигом от «я решил» к «AI подсказал».

40 уроков по AI для менеджеров – включая модуль о безопасном использовании AI без потери навыков

Без платёжных данных • Доступ сразу после регистрации

Начать обучение

Три вопроса как практический инструмент

Исследование предлагает не запрет на AI, а изменение паттерна. Прежде чем отправить запрос, стоит задать себе три вопроса.

Первый: понимаю ли я, почему AI дал именно этот ответ? Не «работает ли это», а «понимаю ли я логику». Если нет – это сигнал к уточняющему запросу, а не к принятию ответа.

Второй: если AI ошибается здесь – я это замечу? Как показывает исследование Workday, 37% времени, сэкономленного с AI, уходит на исправление его ошибок. Это возможно только если у вас есть компетенция для их обнаружения. Если паттерн делегирования подавил эту компетенцию – вы не сэкономите ничего.

Третий: через месяц я смогу сделать это без AI? Это не вопрос об отказе от инструмента. Это вопрос о том, формируется ли навык или только видимость его наличия. Как показывает исследование MIT об управлении, реальная сила специалиста – в способности критически оценить варианты, а не в наличии инструмента, который их генерирует.

Если на все три вопроса ответ «нет» – это не повод отказаться от AI. Это повод переключиться на другой паттерн.

Парадокс, который стоит удержать в голове

Полтора года назад я предположил, что доступность AI снижает стандарты оценки выдаваемых результатов. Теперь у этого предположения есть экспериментальное подтверждение – и оно точнее, чем я думал.

Дело не в том, что AI делает нас хуже. Дело в том, что AI убирает трение – а трение было частью процесса обучения. Контрольная группа встречала в три раза больше ошибок. И именно это заставляло их понимать.

Это важно и в контексте более широкого тренда: AI не столько освобождает время, сколько уплотняет рабочую нагрузку, снижая видимые барьеры и увеличивая темп. Глубина понимания при этом может тихо убывать.

Исследование зафиксировало: высокоскорящие участники не избегали AI – они использовали его для того, чтобы лучше понять, а не чтобы не думать. Разница в намерении, не в инструменте.

Вопрос, который я оставляю без ответа: какой навык вы хотите сохранить в себе через год – и как именно вы сейчас с этим работаете с AI?

Бесплатный модуль

Работаете с AI, но не уверены, что делаете это правильно?

40 бесплатных уроков по AI для менеджеров: паттерны безопасного использования, детекция галлюцинаций, практические сценарии – без регистрации и оплаты.

Детальный разбор инструментов с примерами
Готовые промпты для типовых задач
Навыки безопасного использования AI
Понимание, как измерять ROI
Открыть бесплатный модуль →
Без платёжных данных