Исследования

62% пользователей применяют ИИ на 1–2 задачи: данные Epoch AI / Ipsos (март 2026)

8 мин чтения

В ноябре 2025 года данные Stanford показали неожиданный факт: американцы используют AI чаще дома, чем на работе. Мы в mysummit.school разбирали это в отдельном материале – и тогда вывод был прямым: рабочий AI всё ещё догоняет личный.

Прошло четыре месяца. Epoch AI совместно с Ipsos провели новое исследование – и картина изменилась.

Читать полностью
62% пользователей применяют ИИ на 1–2 задачи: данные Epoch AI / Ipsos (март 2026)
Когда ИИ вредит обучению – и когда удваивает результат
9 мин

Когда ИИ вредит обучению – и когда удваивает результат

В марте 2025 года на SXSW EDU советник по стратегическому форсайту Синид Бовелл сделала доклад об ИИ и будущем образования. Без хайпа и без паники. Но с двумя исследованиями, которые меняют то, как стоит думать о роли ИИ в обучении.

Первое: группа студентов, использовавших ChatGPT без ограничений, показала результаты на 17% хуже контрольной группы, работавшей по учебнику. Второе: другая группа, где ИИ применялся в рамках полностью переработанной учебной системы, опередила традиционную лекцию вдвое.

Один и тот же инструмент. Противоположные результаты. Разница – в подходе.

ИИ экономит учителю 6 часов в неделю. Но 97% этого не замечают
11 мин

ИИ экономит учителю 6 часов в неделю. Но 97% этого не замечают

Опрос Gallup и Walton Family Foundation (2024–2025, репрезентативная выборка учителей США) зафиксировал впечатляющую цифру: преподаватели, регулярно использующие AI, экономят в среднем 5,9 часов в неделю – эквивалент шести полных рабочих недель за учебный год. Звучит как решённая проблема.

Но параллельный опрос Royal Society of Chemistry (2024, Великобритания) показывает другую картину: 44% учителей пробовали AI, но только 3% сообщили о реальном снижении нагрузки. Учитель математики из Ирландии объяснил разрыв точнее, чем любая статистика: «AI генерирует рабочие листы быстро, но их нужно тщательно проверять – и экономия времени оказывается меньше, чем казалось».

Кто прав? Мы уже разбирали кризис AI в образовании со стороны учеников – 86% школьников используют нейросети, но критическое мышление деградирует. Теперь – сторона преподавателей. За последние два года накопилось достаточно экспериментальных данных, чтобы ответить на этот вопрос не мнениями, а цифрами.

AI не делает вас тупее. Дело в том, как вы его используете
7 мин

AI не делает вас тупее. Дело в том, как вы его используете

Полтора года назад я написал заметку в личном блоге о том, что замечаю в работе коллег и в своей собственной: чем больше доверяешь AI, тем реже задаёшь себе вопрос «а это точно правильно?». Я тогда опирался на исследование Microsoft – оно показывало, что доверие к AI подавляет критическую оценку выдаваемых ответов. Аргумент казался мне сильным, но у него был очевидный изъян: корреляция, а не причинно-следственная связь.

В феврале 2026 года исследователи Anthropic Джуди Шэнь и Алекс Тамкин опубликовали эксперимент, который закрыл этот пробел. Рандомизированный контроль. Конкретные данные. И вывод, который, как мне кажется, неправильно понимают большинство людей, кто о нём читал.

Потому что это не история о том, что AI делает нас глупее. Это история о том, как именно мы его используем.

KazLLM и суверенный AI: гид для госслужащего Казахстана
11 мин

KazLLM и суверенный AI: гид для госслужащего Казахстана

11 февраля 2026 года на заседании правительства президент Токаев публично раскритиковал KazLLM. Модель, запущенную с большой помпой в декабре 2024-го, используют лишь 600 тысяч человек – 3% населения страны. Для сравнения: ChatGPT в Казахстане пользуются 2,6 миллиона человек. Президент был прямолинеен: KazLLM «не может конкурировать с ChatGPT».

Это заявление ставит вопрос ребром. Зачем Казахстану собственная языковая модель, если глобальные решения работают лучше? И если суверенный AI необходим – почему он проигрывает?

Ответ сложнее, чем кажется. Потому что KazLLM – это не «казахский ChatGPT». Это совершенно другой инструмент с другой задачей. И сравнивать их – всё равно что сравнивать национальную электростанцию с импортным бытовым прибором.

Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке
10 мин

Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке

“Зачем мне ваши курсы, если я могу просто спросить ChatGPT?”

Этот вопрос звучит в комментариях под каждым постом об обучении AI. Логика железная: интернет бесплатный, ChatGPT объяснит что угодно, YouTube полон туториалов. Зачем платить за курс, если вся информация уже доступна?

Вопрос отличный. Ответ на него – не тот, который ожидают услышать.

Потому что между “иметь доступ к информации” и “уметь с ней работать” – пропасть. Доступ к медицинским справочникам не делает вас врачом. Наличие кухонного ножа не делает вас шеф-поваром. А возможность задать вопрос ChatGPT не делает вас специалистом по AI. Как показывает исследование MIT о выборе, реальная сила специалиста – не в наличии инструмента, а в способности критически оценить то, что инструмент предлагает.

И это не просто красивая метафора – это подтверждённый исследованиями факт.

AI не ошибается системно – он просто хаотичен: исследование Anthropic
10 мин

AI не ошибается системно – он просто хаотичен: исследование Anthropic

Распространенный страх об искусственном интеллекте звучит так: AI начнет последовательно преследовать неправильные цели. Система оптимизации, которой дали не ту задачу, будет методично двигаться к ней, игнорируя человеческие ценности. Классический сценарий: AI-помощник менеджера, которому поручили “максимизировать производительность команды”, начнет систематически перегружать людей, потому что это технически увеличивает выработку.

Но исследователи Anthropic обнаружили другой паттерн. AI-системы не становятся последовательными злодеями с неправильными целями. Они становятся хаотичными – совершают ошибки, которые не вписываются ни в какую логическую схему. “Like a hot mess” – как выразились авторы исследования.

Удивительно, но чем дольше модель рассуждает, тем менее предсказуемыми становятся её ошибки. Это не про галлюцинации фактов – это про фундаментальную непоследовательность в принятии решений.