73% экспертов верят в AI – и только 23% обычных людей. Кто прав?

9 мин чтения
Stanislav Belyaev
Stanislav Belyaev Engineering Leader в Microsoft
73% экспертов верят в AI – и только 23% обычных людей. Кто прав?

73% исследователей искусственного интеллекта ожидают, что AI окажет позитивное влияние на рынок труда. Среди обычных людей так думают 23%. Пятьдесят процентных пунктов – это не разница во мнениях. Это два параллельных разговора, которые почти не пересекаются.

Stanford AI Index 2026 зафиксировал этот разрыв по нескольким направлениям: занятость, экономика, медицина. И везде одна картина – эксперты видят перспективу, общество видит угрозу. Кто-то из них неизбежно ошибается. Но прежде чем выбирать сторону, стоит разобраться, откуда берётся сам разрыв – и почему он растёт.

Это четвёртая статья из серии «Stanford AI Index 2026». В предыдущих мы разбирали парадокс массового внедрения, экономику моделей и неровный фронтир возможностей. Здесь – о том, что происходит, когда технология развивается быстрее, чем общество успевает её осмыслить.

Два мира, одни данные

Начнём с самой цифры. AI Index 2026 приводит результаты опросов, в которых AI-исследователей и широкую публику спрашивают одно и то же: ожидаете ли вы позитивное влияние AI на определённые сферы?

Разрыв восприятия: эксперты vs общество по трём категориям

По рынку труда – 73% против 23%. По экономике и медицине разрывы похожие. Это не ситуация «одни чуть оптимистичнее других». Это два непересекающихся множества: большинство экспертов верит в позитивный исход, большинство общества – нет. Причём речь не о маргинальных группах – это мейнстримные позиции в обеих выборках.

Можно, конечно, списать это на то, что «эксперты знают больше». Но это ленивый ответ. Эксперты знают больше о технических возможностях моделей – это правда. Но они далеко не всегда знают больше о том, как технология проникает в реальные рабочие процессы, как меняется рынок труда за пределами Кремниевой долины, и как выглядит внедрение AI в компании на 50 человек в Новосибирске или Дижоне. У экспертного оптимизма есть своя слепая зона – и она не меньше, чем у общественного скепсиса.

Почему эксперты оптимистичны

Для начала – отдадим экспертам должное. Их оптимизм не на пустом месте.

Данные о производительности устойчивы и воспроизводимы: рост от 14% до 26% в зависимости от сектора. Стоимость инференса продолжает падать – мы разбирали экономику моделей в отдельном материале серии, и там динамика впечатляет. Возможности моделей растут быстрее, чем успевают обновляться бенчмарки – хотя, как мы показали в статье о бенчмарках, рост на тестах и рост полезности – не одно и то же.

Эксперты видят вещи, которые ещё не дошли до массового пользователя. Они работают с моделями, которые появятся на рынке через полгода-год. Они видят, как agent-based системы начинают решать задачи, которые год назад считались невозможными. Они видят, как стоимость создания прототипа падает с недель до часов. С этой точки зрения, конечно, трудно не быть оптимистом.

Но вот что важно: эксперты оптимистичны по поводу возможностей технологии. А общество отвечает на вопрос о последствиях технологии – для себя, своей работы, своих детей. Это разные вопросы, даже когда формулировка анкеты одинаковая.

Сократить разрыв между возможностями и реальным использованием можно – но для этого нужен навык, а не вера.

Разрыв между тем, что AI может, и тем, что с ним делают – это вопрос навыка. Попробуйте 9 реальных задач менеджера бесплатно – без регистрации.

Доступ сразу после регистрации

Начать обучение

Почему общество скептично

У общественного скепсиса тоже есть основания – и они не сводятся к «люди не разбираются в технологиях».

Во-первых, инциденты. AI Index фиксирует 362 AI-инцидента за год – deepfakes, ошибки автоматизации, утечки данных, некорректные решения алгоритмов. Это не абстрактные риски из научных статей – это истории, которые попадают в новости. Человек, который прочитал про AI-сгенерированный фейк с политиком или ошибочно отклонённую страховую заявку, имеет все основания для осторожности.

Во-вторых, рынок труда. Мы разбирали данные о junior-позициях в первой статье серии: занятость среди американских разработчиков 22–25 лет снизилась почти на 20% с 2024 года. Для выпускника, который видит сокращение позиций в своей области, 73% экспертного оптимизма выглядят не убедительно, а оторванно от реальности.

В-третьих – и это, пожалуй, самое интересное – доверие к регуляторам. AI Index 2026 показывает, что общество не доверяет тем, кто должен защищать его интересы. США продемонстрировали самый низкий уровень доверия населения к своему правительству в вопросах регулирования AI – 31%. Страна, которая производит подавляющую долю AI-инструментов, меньше всех доверяет собственным властям в вопросе их контроля.

Это не паранойя. Это рациональная реакция на ситуацию, в которой технология развивается быстрее институтов. Когда правительство одновременно субсидирует AI-индустрию и обещает её регулировать, скепсис закономерен. Особенно если правительство при этом разворачивается от регулирования к дерегулированию, как произошло в США в 2025 году.

Евросоюзу доверяют больше – и глобально, и внутри. Но и здесь доверие далеко от безусловного.

Образование не успевает

Есть область, где разрыв между реальностью и институциональной реакцией виден особенно отчётливо. Это образование.

Образование отстаёт: 80% используют, 6% понимают правила

Цифры AI Index 2026 складываются в узнаваемый паттерн: более 80% американских студентов используют AI для учебных задач. Половина школ имеет хоть какую-то AI-политику. И всего 6% учителей говорят, что эта политика им понятна.

Перечитайте ещё раз. 80% – 50% – 6%. Студенты массово используют инструмент, для которого у половины школ нет правил, а там, где правила есть, их понимает один учитель из шестнадцати.

И ещё одна цифра, которая замыкает картину: по данным AI Index 2025, 80% знаний о генеративном AI люди получают за пределами формального образования. Из YouTube, подкастов, рабочих чатов, проб и ошибок – откуда угодно, кроме системного обучения. Формальное образование не просто отстаёт – оно почти не участвует.

При этом навыки в области AI-инжиниринга растут быстрее всего в ОАЭ, Чили и Южной Африке. Число AI-аспирантов в США и Канаде выросло на 22% за два года (2022–2024) – но прирост ушёл в индустрию, не в академию. Университеты готовят специалистов, которые немедленно уходят в корпорации. Те, кто мог бы учить следующее поколение, этого не делают – потому что Google и OpenAI платят в три раза больше.

Вклад open-source сообщества из развивающихся стран уже обгоняет Европу и приближается к уровню США. Знание распределяется не через институции, а через сети – и это одновременно воодушевляет и тревожит.

Вопрос не в том, учиться ли – а в том, где и как.

80% знаний об AI – из неформального образования. Курс MySummit.school: 9 реальных задач менеджера, результат с первого урока. Бесплатно, без регистрации.

Доступ сразу после регистрации

Начать обучение

Регулирование: одна технология, десять подходов

Если образование отстаёт, то регулирование – фрагментировано. И AI Index 2026 документирует это с хирургической точностью.

С одной стороны – EU AI Act, первый в мире комплексный закон об AI, чьи первые запреты вступили в силу в 2025 году. С другой – США, которые в том же 2025 году развернулись от регулирования к дерегулированию. Между ними – Япония, Южная Корея и Италия, каждая с собственным национальным законом. И множество развивающихся стран, принимающих национальные AI-стратегии.

Идея ‘AI-суверенитета’ становится центральным организующим принципом. Каждая страна хочет контролировать свою AI-инфраструктуру, свои данные, свои модели. Это логично с точки зрения национальной безопасности. Но это создаёт лоскутное одеяло из правил, которое для международного бизнеса выглядит примерно так: то, что разрешено в Дубае, запрещено в Брюсселе, неопределено в Вашингтоне и регулируется особым порядком в Токио.

Для менеджера, который работает с распределённой командой или международными клиентами, это практическая проблема. Какой AI-инструмент можно использовать для обработки данных европейских клиентов? Можно ли отправлять содержимое рабочих документов через американский API? Ответы зависят от юрисдикции, типа данных и – всё чаще – от конкретной модели.

Фрагментация регулирования усиливает разрыв в восприятии. Когда правила нечёткие, а подходы правительств противоречат друг другу, общество не получает внятного сигнала: «это безопасно, мы контролируем ситуацию». Вместо этого – шум, в котором каждый слышит подтверждение своих опасений.

Кто прав?

Итак. Эксперты видят падение стоимости, рост возможностей, устойчивые данные о производительности – и говорят: будет хорошо. Общество видит 362 инцидента, сокращение junior-позиций, правительства, которым не доверяет, и школы, которые не справляются – и говорит: мы не уверены.

Кто ближе к истине?

Я думаю, что оба – и ни один из них.

Эксперты правы в том, что технология работает и будет работать лучше. Возможности моделей растут. Стоимость падает. Продуктивность увеличивается – мы это видим на реальных данных, а не в маркетинговых обещаниях.

Общество право в том, что «технология работает» не означает «всё будет хорошо». Технология может работать и при этом ухудшать ситуацию для конкретных групп. Может повышать среднюю продуктивность и при этом увеличивать неравенство. Может создавать ценность и при этом разрушать институты, которые ещё не адаптировались.

Но настоящая проблема – не в том, кто прав. Настоящая проблема – в том, что разрыв между экспертным и общественным восприятием означает разрыв в знаниях. Эксперты оптимистичны потому, что знают, как работать с технологией. Общество скептично потому, что не знает. И этот разрыв не закроется сам – потому что формальное образование, как мы видели, почти не участвует.

Мы подробно разбирали тот же разрыв на данных Epoch AI: 62% используют AI поверхностно не потому, что инструменты плохие, а потому, что никто не показал, как использовать их глубоко. 80% знаний о GenAI приходит из неформальных источников. Школы не справляются. Университеты теряют кадры. Регуляторы фрагментированы.

В этой ситуации 50-процентный разрыв восприятия – не загадка. Это предсказуемый результат. Когда технология развивается быстрее институтов, те, кто внутри, видят возможности, а те, кто снаружи – угрозу. И единственный способ сократить разрыв – не убеждать скептиков в том, что «всё будет хорошо», а дать им навыки, которые превратят угрозу в инструмент.

Серия «Stanford AI Index 2026»

Это четвёртая статья основной серии. За четыре материала мы прошли от парадокса массового внедрения через экономику моделей и неровный фронтир возможностей к разрыву восприятия. Сквозной сюжет оказался одним и тем же: технология работает, но между «работает» и «приносит пользу конкретному человеку» – дистанция, которая определяется не бюджетом и не доступом, а навыком.

Внедрение AI достигло 88% организаций – но большинство пользователей застряли на поверхностном уровне. Знания об AI на 80% приходят извне формального образования, а разрыв в восприятии между экспертами и обществом остаётся на уровне 50 процентных пунктов.

В дополнительном выпуске серии мы подробно разбираем образовательный разрыв: почему 80% студентов уже используют AI, но формальное образование отстаёт на годы – и что с этим делать менеджеру.

Разрыв не закроется сам. Но для тех, кто готов его закрывать, окно открыто – и конкуренция за него пока удивительно невелика.

Специализация

Разрыв – это возможность

Stanford AI Index показывает: 80% знаний об AI приходит не из университетов. Курс MySummit.school построен для менеджеров, которые хотят перейти из 62% поверхностных пользователей в число тех, кто применяет AI системно. От реальных задач – к измеримому результату.

От pre-mortem до антикризисного плана
Переиспользуемые промпт-шаблоны
Сквозной кейс на реальном проекте
~300 часов экономии в год
Stanislav Belyaev

Stanislav Belyaev

Engineering Leader в Microsoft

18 лет в управлении инженерными командами. Основатель mysummit.school. 700+ выпускников в Яндекс Практикуме и Стратоплане.