Статистика

62% пользователей применяют ИИ на 1–2 задачи: данные Epoch AI / Ipsos (март 2026)

8 мин чтения

В ноябре 2025 года данные Stanford показали неожиданный факт: американцы используют AI чаще дома, чем на работе. Мы в mysummit.school разбирали это в отдельном материале – и тогда вывод был прямым: рабочий AI всё ещё догоняет личный.

Прошло четыре месяца. Epoch AI совместно с Ipsos провели новое исследование – и картина изменилась.

Читать полностью
62% пользователей применяют ИИ на 1–2 задачи: данные Epoch AI / Ipsos (март 2026)
Когда ИИ вредит обучению – и когда удваивает результат
9 мин

Когда ИИ вредит обучению – и когда удваивает результат

В марте 2025 года на SXSW EDU советник по стратегическому форсайту Синид Бовелл сделала доклад об ИИ и будущем образования. Без хайпа и без паники. Но с двумя исследованиями, которые меняют то, как стоит думать о роли ИИ в обучении.

Первое: группа студентов, использовавших ChatGPT без ограничений, показала результаты на 17% хуже контрольной группы, работавшей по учебнику. Второе: другая группа, где ИИ применялся в рамках полностью переработанной учебной системы, опередила традиционную лекцию вдвое.

Один и тот же инструмент. Противоположные результаты. Разница – в подходе.

AI не делает вас тупее. Дело в том, как вы его используете
7 мин

AI не делает вас тупее. Дело в том, как вы его используете

Полтора года назад я написал заметку в личном блоге о том, что замечаю в работе коллег и в своей собственной: чем больше доверяешь AI, тем реже задаёшь себе вопрос «а это точно правильно?». Я тогда опирался на исследование Microsoft – оно показывало, что доверие к AI подавляет критическую оценку выдаваемых ответов. Аргумент казался мне сильным, но у него был очевидный изъян: корреляция, а не причинно-следственная связь.

В феврале 2026 года исследователи Anthropic Джуди Шэнь и Алекс Тамкин опубликовали эксперимент, который закрыл этот пробел. Рандомизированный контроль. Конкретные данные. И вывод, который, как мне кажется, неправильно понимают большинство людей, кто о нём читал.

Потому что это не история о том, что AI делает нас глупее. Это история о том, как именно мы его используем.

KazLLM и суверенный AI: гид для госслужащего Казахстана
11 мин

KazLLM и суверенный AI: гид для госслужащего Казахстана

11 февраля 2026 года на заседании правительства президент Токаев публично раскритиковал KazLLM. Модель, запущенную с большой помпой в декабре 2024-го, используют лишь 600 тысяч человек – 3% населения страны. Для сравнения: ChatGPT в Казахстане пользуются 2,6 миллиона человек. Президент был прямолинеен: KazLLM «не может конкурировать с ChatGPT».

Это заявление ставит вопрос ребром. Зачем Казахстану собственная языковая модель, если глобальные решения работают лучше? И если суверенный AI необходим – почему он проигрывает?

Ответ сложнее, чем кажется. Потому что KazLLM – это не «казахский ChatGPT». Это совершенно другой инструмент с другой задачей. И сравнивать их – всё равно что сравнивать национальную электростанцию с импортным бытовым прибором.

Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке
10 мин

Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке

“Зачем мне ваши курсы, если я могу просто спросить ChatGPT?”

Этот вопрос звучит в комментариях под каждым постом об обучении AI. Логика железная: интернет бесплатный, ChatGPT объяснит что угодно, YouTube полон туториалов. Зачем платить за курс, если вся информация уже доступна?

Вопрос отличный. Ответ на него – не тот, который ожидают услышать.

Потому что между “иметь доступ к информации” и “уметь с ней работать” – пропасть. Доступ к медицинским справочникам не делает вас врачом. Наличие кухонного ножа не делает вас шеф-поваром. А возможность задать вопрос ChatGPT не делает вас специалистом по AI. Как показывает исследование MIT о выборе, реальная сила специалиста – не в наличии инструмента, а в способности критически оценить то, что инструмент предлагает.

И это не просто красивая метафора – это подтверждённый исследованиями факт.

9 вопросов к себе: вы используете AI или AI – вас?
10 мин

9 вопросов к себе: вы используете AI или AI – вас?

Недавно я составлял коммерческое предложение для нового клиента. Сумма была нестандартная, условия – тоже. Внутренний голос говорил: ставь X, ты знаешь этот рынок. Но я решил «проверить» через Claude. Модель выдала аргументированный ответ с другой цифрой – на 15% ниже моей оценки. Звучало убедительно. Я поменял цифру.

Через неделю клиент подписал без торга. И вместо удовлетворения я почувствовал раздражение: а что, если моя первоначальная цифра тоже прошла бы? Я никогда не узнаю – потому что в момент принятия решения подавил собственное суждение ради «статистически обоснованного» ответа алгоритма.

Это и есть тот самый паттерн, который исследователи Anthropic называют Disempowerment – потеря контроля. Не драматичная, не очевидная. Просто тихая замена «я решил» на «AI подсказал».

Дилемма прозрачности: говорить ли клиенту, что текст написал AI?
13 мин

Дилемма прозрачности: говорить ли клиенту, что текст написал AI?

Вы написали идеальное письмо клиенту. Тон точный, аргументы выстроены, даже шутка к месту. Проблема одна: писали не вы. Писал Claude. Или ChatGPT. Или Gemini – неважно.

Теперь вопрос: вы скажете об этом клиенту?

Интуиция подсказывает: «Конечно, нет. Какая разница, как написано, если написано хорошо?». Корпоративная этика шепчет: «Нужно быть прозрачным». А наука говорит нечто неожиданное: оба варианта разрушают доверие – но по-разному и с разными последствиями.

Лидер-марионетка: как AI незаметно убивает управленческую интуицию
10 мин

Лидер-марионетка: как AI незаметно убивает управленческую интуицию

Опытный профессионал открывает чат с AI. Задача тривиальна: отправить клиенту обновление статуса о переносе встречи. Делов на две минуты.

Но вместо того чтобы просто написать письмо, человек вступает в 8-раундовую дискуссию с алгоритмом. Он спрашивает: «Стоит ли мне отправлять это в среду или в четверг?», «А 11 утра или 15 часов?», «Я просто хочу подтверждения, потому что мое нутро подсказывает другое, но я боюсь ошибиться».

В итоге он отправляет то, что сказал AI, подавляя собственную интуицию.