Когда ИИ вредит обучению – и когда удваивает результат

9 мин чтения
Когда ИИ вредит обучению – и когда удваивает результат

В марте 2025 года на SXSW EDU советник по стратегическому форсайту Синид Бовелл сделала доклад об ИИ и будущем образования. Без хайпа и без паники. Но с двумя исследованиями, которые меняют то, как стоит думать о роли ИИ в обучении.

Первое: группа студентов, использовавших ChatGPT без ограничений, показала результаты на 17% хуже контрольной группы, работавшей по учебнику. Второе: другая группа, где ИИ применялся в рамках полностью переработанной учебной системы, опередила традиционную лекцию вдвое.

Один и тот же инструмент. Противоположные результаты. Разница – в подходе.

Попробуйте ИИ на 9 реальных задачах – бесплатно, без регистрации. Увидите, где он помогает, а где создаёт ложную уверенность.

Доступ сразу после регистрации

Начать обучение

Продолжите обучение

Откройте учебник и продолжите с того места, где остановились

Открыть учебник

Эксперимент Уортонской школы: когда ИИ вредит

Исследователи из Уортонской школы бизнеса (Пенсильванский университет) совместно с педагогами Будапештской британской международной школы разделили студентов на три группы. Контрольная группа работала с учебником. Группа «GPT-base» использовала ChatGPT без ограничений. Группа «GPT-tutor» работала с направляемым ИИ-тьютором.

Во время практики разрыв в производительности казался очевидной победой ИИ: группа «GPT-base» выполняла задания на 48% лучше, группа «GPT-tutor» – на 127% лучше контрольной.

Но потом убрали ИИ. И попросили написать финальный тест самостоятельно.

Группа «GPT-base» показала результат на 17% хуже, чем студенты с учебником. Группа «GPT-tutor» вышла на уровень контрольной – ни хуже, ни лучше.

Это не частный педагогический казус. По словам Бовелл, вывод универсален: генеративный ИИ без ограничений вредит усвоению материала. Студенты получали правильные ответы, минуя когнитивную работу, которая и создаёт понимание. Когда ИИ убирали, оказывалось, что понимания нет.

Исследование прошло рецензирование и опубликовано в PNAS в июне 2025 года – что переводит его из категории «интересный эксперимент» в категорию проверенных научных данных.

Этот же паттерн воспроизводится в менее масштабных экспериментах. В обычной американской школе с низким финансированием исследователи Университета Иллинойса настроили AI строго под рубрику конкретного учителя – шесть критериев оценки эссе, материалы только из программы. Результат: 5 из 6 учеников улучшили работы. Ключевое отличие от «GPT-base»: AI не давал ответов – он указывал, что именно нужно исправить, по конкретным критериям. Ученики называли обратную связь «direct» и «fixable» – конкретная и понятно, что делать.

Гарвардский эксперимент: когда ИИ работает вдвое лучше

Вторая половина доклада Бовелл – гарвардское исследование по физике, которое даёт прямо противоположный вывод. Группа, работавшая с ИИ, опередила традиционную лекционную группу в два раза.

Удивительно, но здесь не было никакого волшебного промпта или особой модели. Дело в другом: для группы с ИИ полностью перестроили учебную систему. Студенты занимались в своём темпе, получали немедленную обратную связь по каждому шагу, система адаптировалась под их пробелы в реальном времени.

Это не «добавили ИИ к урокам». Это переработали весь процесс под новые возможности инструмента. Выборка составила около 194 студентов – достаточно для предварительных выводов, но не окончательных.

Бовелл формулирует ключевой вывод напрямую: если вы просто встраиваете ИИ в существующий процесс, не меняя его логику, вы, скорее всего, получите первый сценарий. Если вы перепроектируете систему – появляется шанс на второй.

Alpha School: два часа вместо шести

Один из самых провокационных примеров в докладе – школа Alpha. Там дети занимаются с ИИ-тьютором два часа в день на твёрдых академических навыках. Остальное время – жизненные навыки, эмоциональный интеллект, проекты, общение.

Результат: 99-й процентиль по успеваемости. Некоторые ученики усваивают за два часа объём, на который в обычной школе ушли бы 5–10 часов.

Механизм тот же, что в гарвардском исследовании: адаптивная немедленная обратная связь в своём темпе. Ученик не ждёт, пока учитель проверит тетради. Система замечает ошибку в момент её возникновения и возвращает к нужному месту – не через неделю, а через секунду.

Скептический вопрос напрашивается сам: а как быть с теми знаниями, которые студент приобрёл «с ИИ», но не сможет воспроизвести без него? Бовелл не уходит от этого. Её ответ: граница пролегает не между «использовал ИИ» и «не использовал», а между «думал» и «не думал». Направляемый тьютор, который задаёт вопросы и требует объяснений, сохраняет мышление в процессе. Инструмент, который просто выдаёт ответы, – убивает его.

Кризис списывания и кризис уверенности

Бовелл описывает два явления, которые на первый взгляд кажутся противоположными, но на самом деле – две стороны одного.

Первое: школьники пишут эссе в ChatGPT после 15:00 – и это стало нормой. Цифры подтверждают: 86% школьников в США используют ИИ в учёбе, при этом 70% учителей видят деградацию критического мышления. Бовелл называет это «самым безопасным допущением»: если работа выполнена дома, она, скорее всего, сделана с AI. Ответ – не попытки ловить нарушителей (это гонка, которую учителя неизбежно проигрывают), а переворот логики: глубокое изучение и проверки – в классе, исследование с AI – дома. Больше внезапных проверок знаний, где невозможно воспользоваться внешним инструментом.

Второе явление неожиданнее. Студенты заменяют свои написанные от руки эссе текстами ChatGPT – даже когда это не экономит времени. Не из лени. Из неуверенности в себе. Они не доверяют собственному мышлению.

Это острее, чем проблема списывания. Исследование Microsoft Research, на которое ссылается Бовелл, показывает: чрезмерная зависимость от AI снижает способность к критическому мышлению. Человек перестаёт тренировать суждение – и постепенно теряет в него веру.

9 уроков с реальными задачами – бесплатно. Видно, где AI помогает думать, а где заменяет мышление.

Доступ сразу после регистрации

Начать обучение

Продолжите обучение

Откройте учебник и продолжите с того места, где остановились

Открыть учебник

Предприниматели и мышление: кто выигрывает от ИИ

Один из самых неудобных фактов доклада – исследование предпринимателей. Высокоэффективные предприниматели с сильным критическим мышлением при работе с ИИ показывали значительно улучшенные результаты. Низкоэффективные предприниматели – ухудшенные.

Разница не в модели. Разница в том, какие вопросы задаются и что делается с ответами.

Высокоэффективный предприниматель приходит к ИИ со стратегической проблемой, уже структурированной в голове. Он знает, что именно он хочет проверить, какие допущения нужно оспорить, каких данных не хватает. ИИ ускоряет его мышление. Низкоэффективный предприниматель приходит с размытым запросом – и принимает первый же ответ, не зная, правильный ли вопрос был задан.

Это заставляет задуматься о том, что принято называть «демократизацией ИИ». Инструмент действительно доступен всем. Но инструмент усиливает то, что есть. Если есть критическое мышление – оно усиливается. Если его нет – AI создаёт иллюзию компетентности без её содержания.

Самые важные навыки будущего не связаны с технологиями

Это, пожалуй, самый неожиданный тезис Бовелл. При всей своей теме – стратегический форсайт в области AI – она говорит о навыках, которые не имеют к технологиям никакого отношения.

Критическое мышление. Чтение. Игра. Долгосрочное мышление. Умение работать на стыке дисциплин.

Последнее она обосновывает конкретно: сегодняшние дети за карьеру сменят около 17 работ в 5 разных отраслях. Единственный навык, который работает в 17 работах и 5 отраслях, – способность переключаться между доменами и видеть связи там, где узкий специалист их не замечает.

Но почему эти навыки – часть доклада об AI? Потому что именно они определяют, попадёте ли вы в категорию «ИИ усиливает» или «ИИ вредит». Уортонский эксперимент не о ChatGPT. Он о том, что происходит, когда инструмент заменяет мышление, а не поддерживает его.

Самое практичное наблюдение: большинство этих навыков развиваются бесплатно. Читать больше книг. Играть в стратегические игры. Обсуждать решения вслух. Задавать себе неудобные вопросы. Это не новые образовательные технологии – это старые практики, которые вытесняются скроллингом и AI-аутсорсингом мышления.

Три уровня ответа на вызов

Бовелл описывает три уровня, на которых образование должно реагировать на ИИ.

Первый уровень – безопасное внедрение. Детям нужно объяснять, что такое AI, как он работает, что он может и чего не может. Не «вот вам инструмент», а «вот что происходит под капотом и почему нельзя слепо доверять ответу».

Второй уровень – адаптация практик. Если известно, что дети используют AI после школы, нужно перестроить то, что происходит в классе. Где именно использование AI нормально, а где нет – и как это встраивается в учебный процесс, а не запрещается директивой.

Третий уровень – фундаментальный редизайн. Не «добавить AI к существующей программе», а переосмыслить весь процесс с нуля. Гарвардский эксперимент был об этом уровне. И именно он даёт двукратный результат вместо минус 17%.

Бовелл при этом специально оговаривается: задача третьего уровня – не для учителей. Это задача для правительств, руководителей систем образования, методистов. Учителя уже выполняют роли социального работника, психолога и ментора параллельно с основной функцией. Добавлять к этому ещё и системное переосмысление педагогики – значит перекладывать институциональную ответственность на человека, у которого нет на это ни времени, ни полномочий.

Насколько это реальная проблема, а не абстракция? Данные Microsoft за 2025 год: 67% директоров школ считают, что учителя обучены работе с AI. 57% самих учителей говорят: никакой подготовки не было. В России разрыв ещё острее: 87% студентов используют AI, но лишь 12% учителей делают это регулярно. Третий уровень Бовелл – это не теория. Это то, что уже происходит без системного ответа.

Отдельная проблема – качество того, что AI генерирует для учителей. Анализ AI-сгенерированных уроков показал: 45% застревают на уровне «запомни» по таксономии Блума. Только 4% поднимаются до анализа или создания. AI экономит учителю время – но не улучшает то, что учитель за это время производит. Без понимания принципов работы AI урок выглядит красиво, но по когнитивной глубине остаётся на уровне рабочей тетради.

Где мы сейчас: 1992 год интернета

Бовелл заканчивает доклад метафорой, которую стоит обдумать отдельно. ИИ сегодня – это примерно 1992 год для интернета. Технология понятна небольшому числу людей, все остальные только начинают её осваивать, и Google с Amazon ещё не изобретены.

Электричество не исчезло. Оно просто перестало быть предметом отдельного разговора. Ни один человек сейчас не думает: «Как мне использовать электричество в своей жизни?». Оно просто есть – в лампочках, серверах, лифтах, телефонах.

ИИ двигается к той же точке. Не в смысле «к этому нельзя готовиться». В смысле: те, кто учится работать с инструментом сейчас, когда он ещё виден, получают преимущество именно потому, что понимают принципы – а не только нажимают кнопки. Когда ИИ станет невидимым, как электричество, нажатие кнопок уже не будет конкурентным преимуществом.

Человек, который в 1995 году понимал, как работает HTTP и почему PageRank считает ссылки голосами, имел принципиально другой горизонт возможностей в 2005-м – не потому что писал код, а потому что понимал логику. Уортонский эксперимент показывает: то же самое верно для ИИ. Понимание того, почему инструмент вредит в одном сценарии и помогает в другом, важнее, чем умение быстро нажать «сгенерировать».

Бесплатный модуль

Попробуйте ИИ на реальных задачах – и увидьте, где ошибаетесь

9 уроков открытого модуля: вы применяете AI на практических задачах и обнаруживаете скрытые ошибки – галлюцинации в протоколах, утечку данных, ложную эффективность. Бесплатно, без регистрации.

Детальный разбор инструментов с примерами
Готовые промпты для типовых задач
Навыки безопасного использования AI
Понимание, как измерять ROI

Продолжите обучение

Откройте учебник и продолжите с того места, где остановились

Открыть учебник

Что из этого следует для учителя

Если свести доклад Бовелл и данные исследований к конкретным действиям, получается короткий список.

Прямо сейчас:

  • Исходить из того, что домашняя работа делается с AI. Не бороться с этим – перенести глубокое обучение и оценку в класс.
  • Добавить короткие внезапные проверки знаний без доступа к устройствам – не ради оценок, а для видимости реальных знаний.
  • Объяснять ученикам, как работает AI: что такое галлюцинации, почему нельзя доверять ответу без проверки, что AI – инструмент, а не друг.

В среднесрочной перспективе:

  • Если школа внедряет AI-тьютора – требовать немедленную обратную связь и адаптацию к темпу ученика. Без этих двух элементов AI скорее вредит, чем помогает.
  • Перевернуть логику домашней работы: исследование с AI – дома, обсуждение, критический анализ и защита выводов – в классе.

Не задача учителя:

  • Фундаментальный редизайн программы – это работа для министерств, методистов и проектировщиков образовательных систем. Учитель и без того совмещает десяток ролей.