Soft Skills

Когда ИИ вредит обучению – и когда удваивает результат

9 мин чтения

В марте 2025 года на SXSW EDU советник по стратегическому форсайту Синид Бовелл сделала доклад об ИИ и будущем образования. Без хайпа и без паники. Но с двумя исследованиями, которые меняют то, как стоит думать о роли ИИ в обучении.

Первое: группа студентов, использовавших ChatGPT без ограничений, показала результаты на 17% хуже контрольной группы, работавшей по учебнику. Второе: другая группа, где ИИ применялся в рамках полностью переработанной учебной системы, опередила традиционную лекцию вдвое.

Один и тот же инструмент. Противоположные результаты. Разница – в подходе.

Читать полностью
Когда ИИ вредит обучению – и когда удваивает результат
ИИ экономит учителю 6 часов в неделю. Но 97% этого не замечают
11 мин

ИИ экономит учителю 6 часов в неделю. Но 97% этого не замечают

Опрос Gallup и Walton Family Foundation (2024–2025, репрезентативная выборка учителей США) зафиксировал впечатляющую цифру: преподаватели, регулярно использующие AI, экономят в среднем 5,9 часов в неделю – эквивалент шести полных рабочих недель за учебный год. Звучит как решённая проблема.

Но параллельный опрос Royal Society of Chemistry (2024, Великобритания) показывает другую картину: 44% учителей пробовали AI, но только 3% сообщили о реальном снижении нагрузки. Учитель математики из Ирландии объяснил разрыв точнее, чем любая статистика: «AI генерирует рабочие листы быстро, но их нужно тщательно проверять – и экономия времени оказывается меньше, чем казалось».

Кто прав? Мы уже разбирали кризис AI в образовании со стороны учеников – 86% школьников используют нейросети, но критическое мышление деградирует. Теперь – сторона преподавателей. За последние два года накопилось достаточно экспериментальных данных, чтобы ответить на этот вопрос не мнениями, а цифрами.

AI не делает вас тупее. Дело в том, как вы его используете
7 мин

AI не делает вас тупее. Дело в том, как вы его используете

Полтора года назад я написал заметку в личном блоге о том, что замечаю в работе коллег и в своей собственной: чем больше доверяешь AI, тем реже задаёшь себе вопрос «а это точно правильно?». Я тогда опирался на исследование Microsoft – оно показывало, что доверие к AI подавляет критическую оценку выдаваемых ответов. Аргумент казался мне сильным, но у него был очевидный изъян: корреляция, а не причинно-следственная связь.

В феврале 2026 года исследователи Anthropic Джуди Шэнь и Алекс Тамкин опубликовали эксперимент, который закрыл этот пробел. Рандомизированный контроль. Конкретные данные. И вывод, который, как мне кажется, неправильно понимают большинство людей, кто о нём читал.

Потому что это не история о том, что AI делает нас глупее. Это история о том, как именно мы его используем.

Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке
10 мин

Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке

“Зачем мне ваши курсы, если я могу просто спросить ChatGPT?”

Этот вопрос звучит в комментариях под каждым постом об обучении AI. Логика железная: интернет бесплатный, ChatGPT объяснит что угодно, YouTube полон туториалов. Зачем платить за курс, если вся информация уже доступна?

Вопрос отличный. Ответ на него – не тот, который ожидают услышать.

Потому что между “иметь доступ к информации” и “уметь с ней работать” – пропасть. Доступ к медицинским справочникам не делает вас врачом. Наличие кухонного ножа не делает вас шеф-поваром. А возможность задать вопрос ChatGPT не делает вас специалистом по AI. Как показывает исследование MIT о выборе, реальная сила специалиста – не в наличии инструмента, а в способности критически оценить то, что инструмент предлагает.

И это не просто красивая метафора – это подтверждённый исследованиями факт.

Дилемма прозрачности: говорить ли клиенту, что текст написал AI?
13 мин

Дилемма прозрачности: говорить ли клиенту, что текст написал AI?

Вы написали идеальное письмо клиенту. Тон точный, аргументы выстроены, даже шутка к месту. Проблема одна: писали не вы. Писал Claude. Или ChatGPT. Или Gemini – неважно.

Теперь вопрос: вы скажете об этом клиенту?

Интуиция подсказывает: «Конечно, нет. Какая разница, как написано, если написано хорошо?». Корпоративная этика шепчет: «Нужно быть прозрачным». А наука говорит нечто неожиданное: оба варианта разрушают доверие – но по-разному и с разными последствиями.

Лидер-марионетка: как AI незаметно убивает управленческую интуицию
10 мин

Лидер-марионетка: как AI незаметно убивает управленческую интуицию

Опытный профессионал открывает чат с AI. Задача тривиальна: отправить клиенту обновление статуса о переносе встречи. Делов на две минуты.

Но вместо того чтобы просто написать письмо, человек вступает в 8-раундовую дискуссию с алгоритмом. Он спрашивает: «Стоит ли мне отправлять это в среду или в четверг?», «А 11 утра или 15 часов?», «Я просто хочу подтверждения, потому что мое нутро подсказывает другое, но я боюсь ошибиться».

В итоге он отправляет то, что сказал AI, подавляя собственную интуицию.

8% родителей уже делегируют инстинкты AI. Вы тоже?
9 мин

8% родителей уже делегируют инстинкты AI. Вы тоже?

Представьте ситуацию: ваш трехлетний ребенок бьется в истерике на полу кухни из-за выключенного телевизора. Вы устали, у вас болит голова, и вы понятия не имеете, что делать.

Вместо того чтобы сделать глубокий вдох или позвонить маме, вы открываете чат с AI и пишете: «У него истерика ПРЯМО СЕЙЧАС, потому что я выключил мультики. Что мне делать? Просто скажи, что делать».

И AI отвечает. Не просто советом, а четким алгоритмом: «Держи границу. Скажи ему ровным голосом: “Телевизор выключен”. Не торгуйся. Сделай вот так…». Вы читаете эти слова с экрана, как актер читает сценарий, и механически повторяете их ребенку.

Сцена кажется спасительной? Возможно. Но исследователи называют это Action Distortion (искажение действий) – феномен, когда мы делегируем алгоритмам не просто задачи, а саму суть человеческих отношений и решений. И судя по новому исследованию «Who’s in Charge?», это происходит пугающе часто.

Это первая статья в серии разборов исследования «Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage» (Sharma et al., 2026). Во второй части – те же паттерны в профессиональной среде. В третьей, заключительной – практический чек-лист из 9 вопросов для самопроверки.

10 мин

Как подготовиться к встрече 1:1 с помощью Claude: 5 готовых промптов для менеджеров

За год толком не прибавилось информации – как на практике можно применять GenAI инструменты (ChatGPT, Claude, Deepseek и им подобные). В выигрыше разработчики, потому что для них больше всего выгоды в виде написания тонны кода. Но другие сферы – всё ещё идёт попытка практически понять границы применимости инструмента.