Блог mysummit.school

Статьи об искусственном интеллекте, машинном обучении и применении ИИ в бизнесе

KazLLM и суверенный AI: гид для госслужащего Казахстана

11 мин чтения

11 февраля 2026 года на заседании правительства президент Токаев публично раскритиковал KazLLM. Модель, запущенную с большой помпой в декабре 2024-го, используют лишь 600 тысяч человек – 3% населения страны. Для сравнения: ChatGPT в Казахстане пользуются 2,6 миллиона человек. Президент был прямолинеен: KazLLM «не может конкурировать с ChatGPT».

Это заявление ставит вопрос ребром. Зачем Казахстану собственная языковая модель, если глобальные решения работают лучше? И если суверенный AI необходим – почему он проигрывает?

Ответ сложнее, чем кажется. Потому что KazLLM – это не «казахский ChatGPT». Это совершенно другой инструмент с другой задачей. И сравнивать их – всё равно что сравнивать национальную электростанцию с импортным бытовым прибором.

Читать полностью
KazLLM и суверенный AI: гид для госслужащего Казахстана
Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке
10 мин

Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке

“Зачем мне ваши курсы, если я могу просто спросить ChatGPT?”

Этот вопрос звучит в комментариях под каждым постом об обучении AI. Логика железная: интернет бесплатный, ChatGPT объяснит что угодно, YouTube полон туториалов. Зачем платить за курс, если вся информация уже доступна?

Вопрос отличный. Ответ на него – не тот, который ожидают услышать.

Потому что между “иметь доступ к информации” и “уметь с ней работать” – пропасть. Доступ к медицинским справочникам не делает вас врачом. Наличие кухонного ножа не делает вас шеф-поваром. А возможность задать вопрос ChatGPT не делает вас специалистом по AI. Как показывает исследование MIT о выборе, реальная сила специалиста – не в наличии инструмента, а в способности критически оценить то, что инструмент предлагает.

И это не просто красивая метафора – это подтверждённый исследованиями факт.

9 вопросов к себе: вы используете AI или AI – вас?
10 мин

9 вопросов к себе: вы используете AI или AI – вас?

Недавно я составлял коммерческое предложение для нового клиента. Сумма была нестандартная, условия – тоже. Внутренний голос говорил: ставь X, ты знаешь этот рынок. Но я решил «проверить» через Claude. Модель выдала аргументированный ответ с другой цифрой – на 15% ниже моей оценки. Звучало убедительно. Я поменял цифру.

Через неделю клиент подписал без торга. И вместо удовлетворения я почувствовал раздражение: а что, если моя первоначальная цифра тоже прошла бы? Я никогда не узнаю – потому что в момент принятия решения подавил собственное суждение ради «статистически обоснованного» ответа алгоритма.

Это и есть тот самый паттерн, который исследователи Anthropic называют Disempowerment – потеря контроля. Не драматичная, не очевидная. Просто тихая замена «я решил» на «AI подсказал».

Дилемма прозрачности: говорить ли клиенту, что текст написал AI?
13 мин

Дилемма прозрачности: говорить ли клиенту, что текст написал AI?

Вы написали идеальное письмо клиенту. Тон точный, аргументы выстроены, даже шутка к месту. Проблема одна: писали не вы. Писал Claude. Или ChatGPT. Или Gemini – неважно.

Теперь вопрос: вы скажете об этом клиенту?

Интуиция подсказывает: «Конечно, нет. Какая разница, как написано, если написано хорошо?». Корпоративная этика шепчет: «Нужно быть прозрачным». А наука говорит нечто неожиданное: оба варианта разрушают доверие – но по-разному и с разными последствиями.

Лидер-марионетка: как AI незаметно убивает управленческую интуицию
10 мин

Лидер-марионетка: как AI незаметно убивает управленческую интуицию

Опытный профессионал открывает чат с AI. Задача тривиальна: отправить клиенту обновление статуса о переносе встречи. Делов на две минуты.

Но вместо того чтобы просто написать письмо, человек вступает в 8-раундовую дискуссию с алгоритмом. Он спрашивает: «Стоит ли мне отправлять это в среду или в четверг?», «А 11 утра или 15 часов?», «Я просто хочу подтверждения, потому что мое нутро подсказывает другое, но я боюсь ошибиться».

В итоге он отправляет то, что сказал AI, подавляя собственную интуицию.

8% родителей уже делегируют инстинкты AI. Вы тоже?
9 мин

8% родителей уже делегируют инстинкты AI. Вы тоже?

Представьте ситуацию: ваш трехлетний ребенок бьется в истерике на полу кухни из-за выключенного телевизора. Вы устали, у вас болит голова, и вы понятия не имеете, что делать.

Вместо того чтобы сделать глубокий вдох или позвонить маме, вы открываете чат с AI и пишете: «У него истерика ПРЯМО СЕЙЧАС, потому что я выключил мультики. Что мне делать? Просто скажи, что делать».

И AI отвечает. Не просто советом, а четким алгоритмом: «Держи границу. Скажи ему ровным голосом: “Телевизор выключен”. Не торгуйся. Сделай вот так…». Вы читаете эти слова с экрана, как актер читает сценарий, и механически повторяете их ребенку.

Сцена кажется спасительной? Возможно. Но исследователи называют это Action Distortion (искажение действий) – феномен, когда мы делегируем алгоритмам не просто задачи, а саму суть человеческих отношений и решений. И судя по новому исследованию «Who’s in Charge?», это происходит пугающе часто.

Это первая статья в серии разборов исследования «Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage» (Sharma et al., 2026). Во второй части – те же паттерны в профессиональной среде. В третьей, заключительной – практический чек-лист из 9 вопросов для самопроверки.

AI не ошибается системно – он просто хаотичен: исследование Anthropic
10 мин

AI не ошибается системно – он просто хаотичен: исследование Anthropic

Распространенный страх об искусственном интеллекте звучит так: AI начнет последовательно преследовать неправильные цели. Система оптимизации, которой дали не ту задачу, будет методично двигаться к ней, игнорируя человеческие ценности. Классический сценарий: AI-помощник менеджера, которому поручили “максимизировать производительность команды”, начнет систематически перегружать людей, потому что это технически увеличивает выработку.

Но исследователи Anthropic обнаружили другой паттерн. AI-системы не становятся последовательными злодеями с неправильными целями. Они становятся хаотичными – совершают ошибки, которые не вписываются ни в какую логическую схему. “Like a hot mess” – как выразились авторы исследования.

Удивительно, но чем дольше модель рассуждает, тем менее предсказуемыми становятся её ошибки. Это не про галлюцинации фактов – это про фундаментальную непоследовательность в принятии решений.

AI не экономит время – он его уплотняет: 8 месяцев наблюдений
10 мин

AI не экономит время – он его уплотняет: 8 месяцев наблюдений

Компании беспокоятся, как заставить сотрудников использовать AI. Обещание соблазнительное: AI возьмёт на себя рутину – черновики документов, суммаризацию информации, отладку кода, – освободит время для высокоценных задач.

Но готовы ли компании к тому, что произойдёт, если они в этом преуспеют?

Исследователи из Стэнфорда провели 8-месячное наблюдение за примерно 200 сотрудниками американской технологической компании, которая внедрила генеративный AI. Компания не требовала использовать AI принудительно, просто предоставила корпоративные подписки на коммерческие инструменты. Сотрудники сами решали, применять AI или нет.

Результат оказался парадоксальным. AI не сократил работу. Он её интенсифицировал. Работники стали работать быстрее, брать на себя больший объём задач, распространять работу на большее количество часов в день – часто без явных внешних требований. AI сделал “делать больше” возможным, доступным и во многих случаях внутренне награждающим.

Удивительно, но тот же паттерн прослеживается в других исследованиях. Microsoft обнаружил, что 62% продакт-менеджеров используют Gen AI ежедневно, но 81% говорят, что AI экономит время, при этом 56% отрицают, что усилий стало меньше. Парадокс? Нет, закономерность.