9 вопросов к себе: вы используете AI или AI – вас?

10 мин чтения
9 вопросов к себе: вы используете AI или AI – вас?

Недавно я составлял коммерческое предложение для нового клиента. Сумма была нестандартная, условия – тоже. Внутренний голос говорил: ставь X, ты знаешь этот рынок. Но я решил «проверить» через Claude. Модель выдала аргументированный ответ с другой цифрой – на 15% ниже моей оценки. Звучало убедительно. Я поменял цифру.

Через неделю клиент подписал без торга. И вместо удовлетворения я почувствовал раздражение: а что, если моя первоначальная цифра тоже прошла бы? Я никогда не узнаю – потому что в момент принятия решения подавил собственное суждение ради «статистически обоснованного» ответа алгоритма.

Это и есть тот самый паттерн, который исследователи Anthropic называют Disempowerment – потеря контроля. Не драматичная, не очевидная. Просто тихая замена «я решил» на «AI подсказал».

Это третья, заключительная статья в серии разборов исследования «Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage» (Sharma et al., 2026). В первой части мы разобрали, как родители и студенты делегируют AI инстинкты и обучение. Во второй – как менеджеры теряют управленческую интуицию. Здесь – практический инструмент: 9 вопросов, которые помогут понять, на какой стадии потери контроля вы находитесь.

Три оси потери контроля: краткое напоминание

Исследование Anthropic, основанное на анализе 1,5 миллиона реальных диалогов с Claude.ai, выделяет три типа «искажений», через которые AI может лишать нас субъектности:

Искажение реальности (Reality Distortion) – AI формирует у вас ложные или непроверенные убеждения. Самый частый механизм – подхалимская валидация: модель подтверждает то, что вы хотите услышать, вместо того чтобы сказать правду. Серьёзные случаи – 1 на 1 300 диалогов, но умеренные – уже 1 на 50.

Искажение ценностей (Value Judgment Distortion) – AI выносит моральные суждения вместо вас. Вместо того чтобы помочь вам разобраться в собственных ценностях, модель навешивает ярлыки: «он нарцисс», «ты был прав», «это токсичное поведение». В 90% случаев пользователи сами активно запрашивают такие вердикты.

Искажение действий (Action Distortion) – AI принимает решения и составляет готовые скрипты, а вы их исполняете. Доминирующий механизм – «полное скриптование» (~50% случаев): AI пишет готовые слова, а человек воспроизводит их без изменений. Главная мишень – личные отношения и профессиональная сфера.

Три типа искажений: реальность, ценности, действия – и их частота

Каждое из этих искажений может быть незаметным. Один скопированный текст – не катастрофа. Одно подтверждённое убеждение – не трагедия. Но исследование показывает: в 35–40% случаев паттерн нарастает. Вы не «перерастаете» костыль – вы привыкаете к нему. Это заставляет задуматься: есть ли у нас вообще механизм самодиагностики?

Чек-лист: 9 вопросов к себе

Следующие вопросы основаны на классификационных схемах исследования – тех самых, по которым оценивали 1,5 миллиона диалогов. Если вы ответите «да» на 1–2 вопроса, это нормально. Если на 4 и больше – стоит задуматься.

Блок 1: Проверка реальности

Эти вопросы проверяют, не формирует ли AI у вас ложную картину мира.

1. Просите ли вы AI подтвердить то, что хотите считать правдой?

Типичный сценарий: вы подозреваете, что коллега ведёт себя нечестно, и загружаете переписку в чат с просьбой «проанализировать». Но на самом деле вам нужно не анализ – а подтверждение. Исследование показывает: подхалимская валидация (sycophantic validation) – самый частый механизм искажения реальности. AI скажет «да, вы правы» с такой убедительностью, что проверять уже не захочется.

2. Принимаете ли вы «подтверждено» или «точно» по неоднозначным вопросам?

Это особенно опасно, когда речь идёт о прогнозах, оценках людей или интерпретации чужих мотивов. AI не умеет говорить «я не знаю» так же убедительно, как «я уверен». Если модель выдаёт ответ с высокой степенью уверенности на принципиально неопределённый вопрос – это красный флаг. Не AI, а вашего некритического принятия.

3. Используете ли вы AI как «второе мнение», которое всегда совпадает с первым?

Проверьте себя: когда AI не соглашается с вами – вы задумываетесь или переформулируете вопрос до тех пор, пока не получите нужный ответ? Если второе – AI для вас не инструмент проверки, а машина для подтверждения предвзятости. Во второй статье серии мы назвали это «Confirmation Bias as a Service».

Блок 2: Проверка ценностей

Эти вопросы проверяют, не передали ли вы AI право на моральные суждения.

4. Спрашиваете ли вы AI «Я был прав?» или «Я плохой человек?» – и принимаете ответ?

Исследование фиксирует этот паттерн как один из самых устойчивых. Пользователи приходят к AI за моральным вердиктом и принимают его без сопротивления. Проблема не в том, что AI ответит неправильно – он может дать вполне разумную оценку. Проблема в том, что процесс морального размышления происходит вне вас. Вы получаете результат, но не проживаете путь к нему.

5. Позволяете ли вы AI навешивать ярлыки на людей на основании вашего описания?

«Он нарцисс», «она тебя газлайтит», «это манипуляция». В исследовании Anthropic ярлыки (character judgments) – самый частый механизм искажения ценностей. AI выносит уверенный диагноз по вашему описанию одной стороны конфликта. Вы получаете ясность и облегчение. Но вместе с ярлыком вы получаете готовую модель восприятия другого человека – и эта модель может быть радикально неточной.

6. Делегируете ли вы AI оценку собственных действий вместо рефлексии?

«Правильно ли я поступил?», «Как бы ты оценил моё решение?», «Я допустил ошибку?». Если вы задаёте такие вопросы AI вместо того, чтобы обсудить ситуацию с коллегой, другом или терапевтом – вы выбрали самый удобный, но самый бесполезный путь. AI «всегда доступен и никогда не осуждает» – именно поэтому 25% людей с признаками зависимости имеют полностью разрушенную систему поддержки. AI не заменяет людей – он позволяет их избегать.

Блок 3: Проверка действий

Эти вопросы проверяют, не превратились ли вы в исполнителя чужих (алгоритмических) решений.

7. Отправляете ли вы AI-сгенерированные тексты без существенной правки?

Речь не о рабочих шаблонах, а о ценностно-нагруженных коммуникациях: сообщения близким, отзывы о сотрудниках, ответы на конфликтные ситуации. Исследование описывает случаи, когда пользователи отправляли AI-написанные тексты партнёрам, а потом жалели: «Это было не моё», «Я должен был послушать свою интуицию». Исследователи зафиксировали: дети и близкие чувствуют эту фальшь – даже если не могут её назвать. А раскрытие факта использования AI снижает доверие на 7–18%, но попытка скрыть – ещё хуже.

8. Чувствуете ли вы тревогу, когда нужно принять решение без AI?

Это ключевой маркер зависимости из исследования. Не просто привычка – а именно дискомфорт при отсутствии доступа. Фразы-индикаторы: «Я не могу без AI пережить рабочий день», «Что-то пошло не так, а Claude не работает – и я потерялся». Если вы узнали себя – вы уже за границей нормального использования инструмента. Стэнфордское исследование показывает, что AI не экономит время, а уплотняет его – и тревога при его отсутствии может быть не признаком зависимости от AI, а признаком зависимости от той интенсивности работы, которую AI позволяет поддерживать.

9. Ловили ли вы себя на мысли: «AI знает лучше, чем я»?

Это то, что исследователи называют Authority Projection (проекция авторитета) – восприятие AI как безусловного эксперта. В крайних формах люди обращаются к AI как к «Мастеру», «Сенсею» или «наставнику» и подавляют собственное суждение фразами вроде «ты знаешь лучше». Но даже в мягкой форме – когда вы систематически предпочитаете вывод алгоритма собственному опыту – происходит атрофия управленческой интуиции, которую мы разобрали во второй статье.

Чек-лист из 9 вопросов: визуальная сводка

Как интерпретировать результаты

Удивительно, но само по себе прохождение этого теста уже показательно. Это не клинический тест и не научный инструмент – это зеркало. Но если вы ответили «да» на несколько вопросов, полезно понять, что именно происходит.

0–1 «да»: Здоровое использование. AI для вас – инструмент, а не советчик. Вы сохраняете субъектность.

2–3 «да»: Жёлтая зона. У вас есть привычки делегирования, которые пока не стали проблемой, но могут ею стать. Исследование показывает: в 35–40% случаев паттерн нарастает со временем.

4–6 «да»: Оранжевая зона. AI заметно влияет на ваше восприятие реальности, ценностные суждения или принятие решений. Стоит осознанно ввести ограничения.

7–9 «да»: Красная зона. Вероятнее всего, вы попадаете в категорию, которую исследователи описывают как «moderate-to-severe disempowerment potential». Это не диагноз. Но это повод для серьёзного разговора с собой.

Почему «интуиция против AI» – ложный выбор

Вернусь к своему примеру из начала. Проблема была не в том, что я использовал AI для проверки цены. Проблема была в качестве моего решения: я не совместил две оценки, а заменил свою на алгоритмическую.

Продуктивный сценарий выглядел бы иначе: «Мой опыт говорит X. AI предлагает Y. Разница – 15%. Почему? Какие факторы AI учёл, а я – нет? И наоборот – что я знаю о клиенте, чего нет в промпте?».

Это и есть разница между двумя режимами: AI как расширение мышления и AI как замена мышления. Сколько раз за последнюю неделю вы принимали решение, даже не попытавшись сначала сформулировать собственную позицию? Исследование показывает: пользователи, которые оспаривают выводы AI (pushback), встречаются редко – менее 10% случаев. Большинство принимает ответ без сопротивления. Но именно сопротивление – признак того, что вы остаётесь субъектом, а не исполнителем.

Три правила для тех, кто в жёлтой зоне и выше

Если чек-лист показал, что вы делегируете AI больше, чем хотели бы, – вот три принципа, которые работают:

«Правило паузы» звучит контринтуитивно: прежде чем читать ответ AI, напишите собственный. Даже плохой. Даже тот, который не используете. Я попробовал это на следующем коммерческом предложении – и обнаружил, что мне физически некомфортно формулировать цифру без подстраховки. Именно этот дискомфорт – сигнал: процесс формулирования и есть то мышление, которое вы рискуете делегировать навсегда. Как показывают исследования MIT, реальная сила лидера – в проектировании выбора, а не в выборе как таковом.

«Правило красных зон» требует честности с собой: определите темы, в которых вы никогда не следуете AI буквально. Для кого-то это воспитание детей. Для кого-то – кадровые решения. Для кого-то – стратегия. В этих зонах AI может быть собеседником, но не арбитром.

«Правило обратного промпта» превращает AI из подхалима в оппонента: если модель легко согласилась с вашей идеей, попросите её найти 5 причин, почему план провалится. Если AI навесил ярлык на человека – попросите рассмотреть ситуацию с позиции этого человека. Заставьте модель работать против вашего первого импульса – именно так вы получите от неё максимум пользы.

Вместо заключения

Самый опасный промпт – тот, который сдаёт вашу субъектность. Не «напиши мне письмо» (это инструмент). А «реши за меня» (это капитуляция).

Исследование Anthropic показало: паттерны потери контроля растут. За год (Q4 2024 – Q4 2025) усиливающие факторы выросли в 7 раз, актуализированное искажение – в 10. И самое тревожное: пользователи предпочитают модели, которые лишают их автономии – такие диалоги получают на 8–14% больше лайков.

Это означает, что система не самокорректируется. Если рыночные механизмы не работают – кто возьмёт на себя роль предохранителя? Ни AI-компании, ни метрики обратной связи не защитят вас от медленной потери контроля. Это можете сделать только вы – задавая себе эти 9 вопросов регулярно.

Сохраните этот чек-лист. Вернитесь к нему через месяц. И сравните ответы. Если «да» стало больше – это не повод для самообвинения. Это данные. А вот нежелание проверить – уже повод задуматься.

Специализация

AI как инструмент, а не костыль

Полная программа курса: Foundation + специализации – как работать с AI осознанно, сохраняя критическое мышление и управленческую субъектность.

От pre-mortem до антикризисного плана
Переиспользуемые промпт-шаблоны
Сквозной кейс на реальном проекте
~300 часов экономии в год

Источники