Claude

Claude Code недоступен? OpenCode работает в России – бесплатно

12 мин чтения

В марте 2026 года Lenny Rachitsky опубликовал статью с говорящим заголовком: «Everyone should be using Claude Code». Материал разлетелся по LinkedIn и Telegram-каналам, набрал сотни тысяч просмотров, и теперь каждую неделю кто-то из менеджеров спрашивает: как это попробовать?

Ответ неудобный. Claude Code официально недоступен в России и большинстве стран СНГ. Подписка Anthropic Max, которая его открывает, стоит $100 в месяц и требует карту, которую не всегда легко получить. Это создаёт странную ситуацию: один из самых обсуждаемых AI-инструментов года – физически за барьером для значительной части аудитории, которая о нём читает.

Есть прямая альтернатива. OpenCode – open-source проект, который делает ровно то же самое, работает с любыми моделями (включая доступные в России), и ставится за 15 минут.

Читать полностью
Claude Code недоступен? OpenCode работает в России – бесплатно
ИИ и ритм проекта: как менеджеру освободить 300 часов в год
12 мин

ИИ и ритм проекта: как менеджеру освободить 300 часов в год

Двенадцать часов в неделю. Столько времени типичный проектный менеджер тратит на отчёты, обновления планов, переписку со стейкхолдерами и отслеживание рисков. Это почти треть рабочего времени, которая уходит не на принятие решений, а на их оформление.

С ИИ это время сокращается до трёх часов. Но только при одном условии: ИИ должен быть встроен в операционный ритм работы, а не использоваться эпизодически – «когда вспомнишь».

Сравнение GenAI инструментов 2026: какой ИИ выбрать менеджеру
6 мин

Сравнение GenAI инструментов 2026: какой ИИ выбрать менеджеру

К марту 2026 года на рынке генеративного ИИ – десятки инструментов. Каждый производитель заявляет о лидерстве, а маркетинговые материалы соревнуются в громкости. Как менеджеру выбрать инструмент, который реально решает задачи?

Claude от Anthropic в 2026: обзор моделей, Artifacts, Cowork и применение для менеджеров
10 мин

Claude от Anthropic в 2026: обзор моделей, Artifacts, Cowork и применение для менеджеров

В начале 2026 года компания Anthropic представила флагманские модели Claude 4.6, которые закрепили лидерство компании в области глубокого анализа данных и агентской автоматизации. 5 февраля 2026 года был выпущен Claude Opus 4.6, а 17 февраля – Sonnet 4.6 – модели с беспрецедентным контекстным окном в 1 миллион токенов.

9 вопросов к себе: вы используете AI или AI – вас?
10 мин

9 вопросов к себе: вы используете AI или AI – вас?

Недавно я составлял коммерческое предложение для нового клиента. Сумма была нестандартная, условия – тоже. Внутренний голос говорил: ставь X, ты знаешь этот рынок. Но я решил «проверить» через Claude. Модель выдала аргументированный ответ с другой цифрой – на 15% ниже моей оценки. Звучало убедительно. Я поменял цифру.

Через неделю клиент подписал без торга. И вместо удовлетворения я почувствовал раздражение: а что, если моя первоначальная цифра тоже прошла бы? Я никогда не узнаю – потому что в момент принятия решения подавил собственное суждение ради «статистически обоснованного» ответа алгоритма.

Это и есть тот самый паттерн, который исследователи Anthropic называют Disempowerment – потеря контроля. Не драматичная, не очевидная. Просто тихая замена «я решил» на «AI подсказал».

8% родителей уже делегируют инстинкты AI. Вы тоже?
9 мин

8% родителей уже делегируют инстинкты AI. Вы тоже?

Представьте ситуацию: ваш трехлетний ребенок бьется в истерике на полу кухни из-за выключенного телевизора. Вы устали, у вас болит голова, и вы понятия не имеете, что делать.

Вместо того чтобы сделать глубокий вдох или позвонить маме, вы открываете чат с AI и пишете: «У него истерика ПРЯМО СЕЙЧАС, потому что я выключил мультики. Что мне делать? Просто скажи, что делать».

И AI отвечает. Не просто советом, а четким алгоритмом: «Держи границу. Скажи ему ровным голосом: “Телевизор выключен”. Не торгуйся. Сделай вот так…». Вы читаете эти слова с экрана, как актер читает сценарий, и механически повторяете их ребенку.

Сцена кажется спасительной? Возможно. Но исследователи называют это Action Distortion (искажение действий) – феномен, когда мы делегируем алгоритмам не просто задачи, а саму суть человеческих отношений и решений. И судя по новому исследованию «Who’s in Charge?», это происходит пугающе часто.

Это первая статья в серии разборов исследования «Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage» (Sharma et al., 2026). Во второй части – те же паттерны в профессиональной среде. В третьей, заключительной – практический чек-лист из 9 вопросов для самопроверки.

AI не ошибается системно – он просто хаотичен: исследование Anthropic
10 мин

AI не ошибается системно – он просто хаотичен: исследование Anthropic

Распространенный страх об искусственном интеллекте звучит так: AI начнет последовательно преследовать неправильные цели. Система оптимизации, которой дали не ту задачу, будет методично двигаться к ней, игнорируя человеческие ценности. Классический сценарий: AI-помощник менеджера, которому поручили “максимизировать производительность команды”, начнет систематически перегружать людей, потому что это технически увеличивает выработку.

Но исследователи Anthropic обнаружили другой паттерн. AI-системы не становятся последовательными злодеями с неправильными целями. Они становятся хаотичными – совершают ошибки, которые не вписываются ни в какую логическую схему. “Like a hot mess” – как выразились авторы исследования.

Удивительно, но чем дольше модель рассуждает, тем менее предсказуемыми становятся её ошибки. Это не про галлюцинации фактов – это про фундаментальную непоследовательность в принятии решений.

33 AI-модели для менеджера: зачем нам ваши оценки
9 мин

33 AI-модели для менеджера: зачем нам ваши оценки

За прошлый год на рынке появилось 33 новых AI-модели, претендующих на звание “лучшего помощника менеджера”. ChatGPT обновился до GPT-5.2, Claude выпустил Opus 4.5, Gemini добавил новую версию Pro, Yandex и Сбер анонсируют очередные улучшения, китайские модели выходят в OpenSource. Как выбрать инструмент, если каждый обещает революцию в производительности? Мы решили провести масштабное сравнительное исследование – но столкнулись с проблемой, которая может показаться парадоксальной.