AI-изображения в работе: между удобством и юридической реальностью

В первой части мы разобрали условия использования восьми ведущих платформ. Во второй части выяснили, что законодательство большинства стран не признает авторских прав за AI-контентом без творческого вклада человека.
Теперь возникает практический вопрос: как работать с этой неопределенностью? Платформы передают права, законы их не признают, а работу делать надо. Разберем, когда юридические риски реальны, а когда они скорее теоретические.
Парадокс практического использования
За последние два года я создал сотни AI-изображений для презентаций, статей, учебных материалов. Использовал семь разных платформ, работал с клиентами в России, Казахстане и ЕС. Юридических претензий не было ни разу. Парадокс в том, что теоретическая уязвимость (отсутствие авторских прав) редко материализуется в практические проблемы.
Почему? Потому что юридический статус контента имеет значение только в определенных контекстах. Внутренняя презентация для 20 человек под NDA не нуждается в защите авторским правом – защиту обеспечивает договор конфиденциальности. Маркетинговое изображение в Instagram живет две недели и исчезает из ленты – конкурент физически не успеет его скопировать и запустить аналогичную кампанию.
Реальные риски концентрируются в узких сценариях: продажа контента как продукта (курсы, книги, дизайн-услуги), ключевые визуальные активы бренда (логотипы, фирменный стиль), использование реалистичных изображений людей в публичном контексте. Все остальное – скорее теоретическая уязвимость, чем практическая угроза.
Стоит различать реальные риски и надуманные страхи. Большинство компаний переоценивают юридическую опасность AI-контента и недооценивают репутационные риски некачественного контента.
Контекст определяет риск
Работая над курсом для mysummit.school, я столкнулся с необходимостью создать 150+ иллюстраций. Бюджета на профессионального иллюстратора не было. Нанять фрилансера на 50 000 рублей – это месяц работы дизайнера, который мог бы потратить время на более критичные задачи (верстка, адаптация под разные устройства, работа с брендингом).
Решение оказалось простым: использовать AI для базовой генерации, дизайнер дорабатывает ключевые изображения (обложки модулей, hero-секции), остальное идет как есть. Юридический риск минимален – курс не продается как продукт (доступ бесплатный), изображения служат иллюстративной функцией, не являются ключевой ценностью.
Контекст использования определяет уровень приемлемого риска. Три сценария, три разных подхода.
Внутренние задачи: риск близок к нулю
Квартальная презентация для совета директоров. 15 слайдов с инфографикой, созданной в ChatGPT за 30 минут. Презентация показывается 20 людям под NDA. Даже если изображения теоретически в общественном достоянии, контекст использования защищен договором конфиденциальности. Риск копирования конкурентами нулевой – они не видят контент.
Удивительно, но многие менеджеры тратят время на поиск “юридически безопасных” решений для контента, который никогда не покидает периметр компании. Это пример ситуации, где формальная юридическая чистота не добавляет практической ценности. Любая платформа подойдет, даже бесплатные тарифы. OpenAI или Gemini – оптимальный выбор для быстрой генерации.
Публичный контент: риск управляемый
Рекламная кампания в Instagram с бюджетом 300 000 рублей. Серия из 10 постов, созданных в MidJourney Pro. Здесь ситуация сложнее – контент публичный, конкуренты его видят, теоретически могут скопировать.
Практическая реальность отличается от юридической теории. Конкурент не может использовать ваше изображение “как есть” – это будет слишком очевидное копирование, вызывающее репутационный скандал. Он может создать похожее изображение с аналогичным промптом – но это легально, и запретить невозможно независимо от того, есть ли у вас авторские права.
Ключевое различие: авторское право защищает от копирования конкретного файла, но не от воспроизведения концепции или стиля. Конкурент может законно создать “похожую визуализацию минималистичного офиса в скандинавском стиле” – стиль не защищается.
Риски здесь не юридические, а репутационные и операционные. Если изображение исчезнет из соцсетей через две недели (стандартный жизненный цикл поста в Instagram), риск копирования минимален – конкурент не успеет запустить аналогичную кампанию. Если это долгоживущий контент (баннер на сайте, постоянная реклама) – стоит инвестировать в доработку.
Рекомендация прагматичная: используйте платные тарифы (MidJourney, Gemini Advanced), сохраните копию условий использования на момент создания, зафиксируйте промпты и даты. Это не защита от копирования, но доказательство первичности и соблюдения условий платформы.
Продажа контента: риск требует митигации
Онлайн-курс за 25 000 рублей с 50 иллюстрациями. Здесь контекст меняется критически – вы продаете контент как продукт. Покупатель может предъявить претензии: “Изображения не принадлежат вам юридически, я требую возврата”.
Формально он прав. Юридически изображения в общественном достоянии. Практически это редко приводит к реальным проблемам (я не встречал ни одного случая возврата по этой причине), но риск существует.
Митигация через доработку и прозрачность. Генерируете базу в MidJourney Pro, дизайнер дорабатывает каждое ключевое изображение (добавляет текстуры, меняет композицию, интегрирует брендинг). В договоре прописываете: “Визуальные материалы курса созданы с использованием генеративного AI и доработаны командой дизайнеров. Покупатель получает лицензию на использование в рамках курса”.
Эта формулировка критически важна – вы предоставляете лицензию, а не передаете права (которых юридически не существует). Прозрачность защищает от претензий лучше, чем попытка скрыть использование AI.
Для этого сценария подходят платформы с четкими коммерческими условиями: OpenAI Business, MidJourney Pro (если выручка <$1M), xAI Business, Freepik Premium. Избегайте Kling AI (требует письменного разрешения для коммерческого использования) и ByteDance (сохраняет широкие права на контент).
Изучите практическое применение AI безопасно – открытый модуль для менеджеров
Без платёжных данных • Доступ сразу после регистрации
Документация как страховка
Распространенный совет гласит: “Документируйте все”. На практике документация нужна не всегда. Если вы создали изображение для внутренней презентации, которая живет две недели и исчезает – документировать нечего. Это излишняя бюрократия.
Документация имеет смысл для долгоживущего публичного контента или контента, который вы продаете. Там она выполняет три функции: доказательство первичности создания (если возникнет спор о том, кто первым использовал похожую концепцию), подтверждение соблюдения условий платформы (если клиент требует объяснений), демонстрация творческого вклада (если дорабатывали контент и хотите зарегистрировать авторские права).
Что документировать: дата создания, платформа и версия модели, полные тексты промптов, скриншоты сессий генерации, версия условий использования платформы на момент создания, ваши правки и доработки (файлы PSD со слоями, скриншоты до/после).
Формат простой – таблица в Excel или Notion. Дата, проект, платформа, модель, промпт, файл результата, правки, ссылка на сохраненные условия. Ничего сложного, но это может спасти вас в будущем, если возникнет спор.
Критически важный инсайт: документация влияет скорее на ваше ощущение юридической защищенности, чем на объективное снижение рисков. Если контент в общественном достоянии, никакая документация не дает авторских прав. Но она дает психологический комфорт и защиту от претензий клиентов, что имеет практическую ценность.
Маркировка: обязанность или перестраховка?
ЕС требует маркировки AI-контента, который может ввести в заблуждение. Штраф до €7,5M или 1,5% оборота. Казахстан требует маркировки по новому закону об AI (с января 2026). xAI запрещает выдавать AI-контент за созданный человеком. Россия и США пока не требуют обязательной маркировки.
Парадокс в том, что требование маркировки часто воспринимается как признание неполноценности контента. “Если я укажу, что изображение создано AI, читатели подумают, что я сэкономил на дизайнере”. Это психологический барьер, который не имеет рационального основания.
Исследования показывают, что прозрачность укрепляет доверие аудитории. Указание “Created with AI” воспринимается как честность, не как слабость. Особенно это актуально для образовательного контента (академическая честность требует раскрытия) и журналистики (этические стандарты).
Форматы маркировки простые: в подписях к изображениям (“Изображение создано с использованием AI (ChatGPT DALL-E 3)”), в копирайтах ("© 2026 Компания. Визуалы сгенерированы искусственным интеллектом"), в описаниях постов соцсетей.
Практический вопрос: всегда ли необходима маркировка? Если вы работаете с ЕС или Казахстаном – обязательна для контента, который может ввести в заблуждение. Для остальных юрисдикций – рекомендована, но не обязательна. Я маркирую весь публичный контент – это занимает 30 секунд и устраняет потенциальные претензии.
Доработка контента: когда это имеет смысл
Распространенное убеждение гласит: “Доработайте AI-контент вручную, и вы получите авторские права”. Это упрощение. Судебная практика пока формируется, четких критериев “существенности” вклада нет.
Прецедент “Zarya of the Dawn” показывает логику: человеческий вклад защищается, AI-генерация – нет. В феврале 2023 года Бюро по авторским правам США частично отменило регистрацию комикса Кристины Каштановой: она сохранила права на текст и компоновку страниц (её творческая работа), но не на изображения от MidJourney. Другой прецедент – “Théâtre D’opéra Spatial” – отказ в регистрации в сентябре 2023, несмотря на то что Джейсон Аллен написал 624 различных промпта и потратил 80+ часов на работу. Бюро решило, что выбор промптов и отбор результатов считается кураторством, не авторством.
Ключевое различие: кураторство не равно авторству. Даже если вы создали 900 вариаций промптов и потратили 80 часов на отбор идеального результата, это не делает вас автором изображения в глазах закона.
Что считается творческим вкладом? Композитинг нескольких AI-изображений в новую работу (вы создаете новую композицию), существенное редактирование (перерисовка элементов, изменение стиля), добавление уникальных элементов (текстуры, детали, эффекты), художественная обработка (ручная цветокоррекция, создание уникального визуального стиля).
Что НЕ считается творческим вкладом? Простая обрезка или изменение размера, наложение фильтров “в один клик”, коррекция яркости/контрастности без художественного замысла, удаление водяных знаков, конвертация форматов.
Практическое правило: если вы потратили более 30% времени на ручную доработку относительно общего времени создания, шансы на признание авторских прав выше. Но это не гарантия – решение принимает суд или регистрирующий орган.
Критически важный вопрос: всегда ли нужна доработка? Если контент используется внутренне или временно (маркетинговая кампания на две недели) – доработка не добавляет практической ценности. Если это ключевой визуальный актив бренда или продаваемый продукт – инвестиция оправдана.
Я дорабатываю примерно 20% AI-контента – обложки курсов, ключевые иллюстрации для статей, фирменные визуалы. Остальное идет как есть. Это баланс между юридической защитой и операционной эффективностью.
Хотите научиться эффективно работать с AI? Открытый модуль для менеджеров
Без платёжных данных • Доступ сразу после регистрации
Проверка уникальности: необходимость или паранойя?
AI-модели обучены на миллиардах изображений. Теоретически они могут воспроизвести элементы защищенных работ. Практический вопрос: как часто это происходит?
За два года работы с AI я проверил несколько сотен изображений через Google Image Search и TinEye. Точных копий не нашел ни разу. Частичная схожесть (отдельные элементы напоминают существующие работы) – примерно в 5% случаев. Схожесть в общем стиле, но не в деталях – почти всегда, но это нормально (стиль не защищается авторским правом).
Проверка уникальности имеет смысл для долгоживущего публичного контента. Инструменты простые: Google Image Search (обратный поиск), TinEye (специализированный сервис для поиска копий), визуальная проверка брендов и логотипов (чтобы случайно не воспроизвести элементы известных товарных знаков).
Что делать при совпадениях? Три сценария.
Высокая схожесть с защищенной работой – не используйте, перегенерируйте. Риск судебных претензий от правообладателей, даже если вы создали это случайно. Частичная схожесть (отдельные элементы) – доработайте изображение вручную, измените проблемные элементы. Схожесть в общем стиле, но не в деталях – можно использовать, стиль не защищается.
Практический инсайт: проверка уникальности занимает 2-3 минуты на изображение. Для 10 изображений это 30 минут. Если контент критичный (продаваемый продукт, ключевой визуальный актив) – время оправдано. Если это иллюстрация для внутренней презентации – излишняя перестраховка.
Изображения людей: зона максимальных рисков
Создание реалистичных изображений людей – единственная область, где я рекомендую осторожность независимо от контекста использования. Здесь юридические риски не теоретические, а вполне реальные.
Два сценария, разные риски
Сценарий 1: AI-клоны реальных людей
В социальных сетях набирает популярность практика создания “AI-версий” реальных людей. Человек берет публичные фотографии модели, блогера или знаменитости, обучает на них AI-модель и создает новый контент “в образе” этого человека. Иногда – откровенно выдавая за оригинал, иногда – с пометкой “AI-модель на основе [имя]”.
Юридические риски здесь критические:
Право на изображение (ст. 152.1 ГК РФ): Использование изображения гражданина требует его согласия. Это касается не только фотографий, но и любых узнаваемых изображений – включая AI-генерации. Реальный человек может потребовать удаления, компенсации морального вреда и возмещения убытков.
Нарушение условий платформ: OpenAI, MidJourney, Google прямо запрещают создание изображений конкретных людей без их согласия. Аккаунт могут заблокировать, а история генераций сохраняется.
EU AI Act: Создание синтетического контента, изображающего реальных людей, классифицируется как деятельность высокого риска. Требуется маркировка и, в большинстве случаев, согласие изображаемого лица.
Потенциальная уголовная ответственность: Если контент используется для обмана, мошенничества или создания компрометирующих материалов – это уже не гражданский спор. В России рассматривается законопроект, делающий использование AI отягчающим обстоятельством при совершении преступлений.
Ключевое заблуждение: “Фотографии публичные, значит, можно использовать”. Нет. Публичность фотографии не дает права создавать на ее основе новый контент, особенно коммерческий. “Вдохновиться стилем” и “обучить модель на фотографиях конкретного человека” – юридически принципиально разные действия.
Сценарий 2: Синтетические люди “с нуля”
Другой подход – генерировать полностью вымышленных людей. Промпт типа “professional woman, 30 years old, business casual” создает лицо, которого не существует в реальности. Казалось бы, безопаснее. Но риски остаются.
Проблема случайного сходства: AI обучен на миллиардах реальных фотографий. Иногда сгенерированное лицо оказывается похожим на реального человека – достаточно, чтобы тот узнал себя и предъявил претензии. Практический случай: компания создала рекламную кампанию с AI-моделями и не указала, что это синтетический контент. Через месяц реальный человек обнаружил сходство и подал в суд. Результат: репутационный скандал, судебные издержки, удаление кампании. Затраты превысили стоимость фотостока с model releases.
Репутационные риски: использование синтетических людей в рекламе без раскрытия может восприниматься как обман аудитории. “Почему компания не наняла реальных моделей? Что они скрывают?” – типичная реакция при раскрытии. Скандал с Levi’s в 2023 году показал это наглядно: попытка использовать AI-моделей “для разнообразия” вызвала волну критики от реальных моделей и аудитории.
Технические артефакты: AI до сих пор создает анатомические ошибки – странные пальцы, асимметричные черты, неестественные позы. Для критичного контента это выглядит непрофессионально.
Требования к маркировке
Разные юрисдикции предъявляют разные требования:
| Юрисдикция | Требование | Санкции |
|---|---|---|
| ЕС (AI Act) | Обязательная маркировка синтетических изображений людей | До €15M или 3% оборота |
| Казахстан | Маркировка AI-контента с января 2026 | Административные штрафы |
| Россия | Пока не обязательна, но рекомендована | – |
| США | Зависит от штата, федерального требования нет | Варьируется |
Практическая рекомендация: маркируйте всегда. Фраза “Изображение создано с использованием AI и не является фотографией реального человека” занимает одну строку и устраняет большинство претензий.
Безопасные альтернативы
Как я решаю эту проблему на практике:
Стилизация вместо фотореализма: Иллюстрации, минималистичные силуэты, абстрактные фигуры. AI отлично справляется со стилизованными изображениями, и юридических рисков практически нет.
Ракурсы без лиц: Руки на клавиатуре, вид со спины, размытые фигуры. Сохраняет “человеческий элемент” без рисков идентификации.
Фотостоки для критичного контента: Unsplash, Pexels, Shutterstock с model releases. Да, это стоит денег или времени на поиск, но юридически безопасно.
Прозрачность: Если использую синтетических людей – маркирую явно. Это не слабость, а профессионализм.
Я полностью избегаю реалистичных изображений людей в AI-генерации. Для маркетинга использую фотостоки, для иллюстраций – стилизованные изображения. Экономия на AI-генерации не стоит потенциального судебного иска от человека, который узнал в синтетическом лице свои черты.
Реальные кейсы: когда AI-контент становится проблемой
Теория – это хорошо, но что говорит практика? Вот несколько задокументированных случаев, которые показывают реальные риски использования AI-контента в бизнесе.
Deepfake-мошенничество: $25 миллионов за один видеозвонок
В январе 2024 года британская инжиниринговая компания Arup (создатели Сиднейской оперы и стадиона Etihad) потеряла $25 миллионов после deepfake-атаки. Сотрудник гонконгского офиса получил email якобы от CFO компании с просьбой о “конфиденциальной транзакции”. Когда он усомнился, его пригласили на видеоконференцию – где CFO и несколько коллег подтвердили запрос.
Все участники звонка, кроме жертвы, были AI-сгенерированными deepfakes. Сотрудник совершил 15 переводов на 5 разных счетов. Мошенничество обнаружили только когда он связался с головным офисом в Лондоне.
Роб Грейг, CIO Arup, отметил: “Это не кибератака в традиционном смысле – наши системы не были скомпрометированы. Это технологически усиленная социальная инженерия”. Расследование продолжается, арестов не было.
Российская практика: deepfake как объект авторского права
В России формируется собственная судебная практика по AI-контенту. В августе 2024 года Арбитражный суд Москвы вынес прецедентное решение: deepfake-видео с Киану Ривзом было признано объектом авторского права.
Суть дела: компания “Рефейс Технолоджис” создала deepfake-ролик, а “Бизнес-аналитика” использовала его без разрешения для рекламы. Ответчик утверждал, что deepfake не может быть объектом авторского права, поскольку создан нейросетью.
Суд не согласился: “Технология Deep-fake – это дополнительный инструмент обработки видеоматериалов, а не способ их создания”. Важно: исходный видеоряд был создан творческим трудом людей (сценарий, съемка, монтаж), а AI лишь обработал его. Компенсация составила 500 000 рублей.
По данным аналитиков, число судебных дел с использованием AI в России выросло на 39% за 4 года (с 112 в 2021 до 292 в 2024). Основные категории: мошенничество с deepfakes (12% уголовных дел), споры о правах на AI-контент (59% гражданских дел), обжалование автоматических штрафов.
AI-модели вместо реальных людей: скандал Levi’s
В марте 2023 года Levi’s объявила о партнерстве с Lalaland.ai для создания AI-моделей разных типов телосложения и оттенков кожи – якобы для “повышения разнообразия”. Реакция была мгновенной и негативной.
Критики назвали решение “ленивым”, “проблематичным” и “расистским”. Модели из числа меньшинств указали, что вместо найма реальных людей компания предпочла генерировать “fake non-white people”, лишая их работы. Джасмин Ратледж, темнокожая модель из Лос-Анджелеса: “Они говорят о разнообразии, но не хотят прилагать усилия, чтобы нанять реальных людей”.
Levi’s пришлось выпустить опровержение: AI-модели не заменят реальных моделей и не являются “средством продвижения разнообразия”. Урок: попытка сэкономить на найме разнообразных моделей с помощью AI обернулась репутационным кризисом.
Когда AI-маркетинг становится мошенничеством: Glasgow Willy Wonka
В феврале 2024 года в Глазго прошло мероприятие “Willy’s Chocolate Experience” – иммерсивное шоу по мотивам “Чарли и шоколадная фабрика”. Рекламные материалы, созданные AI, показывали фантастические шоколадные сады, реки из шоколада, гигантские конфеты.
Реальность: полупустой склад с несколькими картонными декорациями. На полицию поступили жалобы от родителей, требующих возврата £35 за билет. Организатор House of Illuminati использовал AI для всего: промо-изображений, текстов на сайте (с грамматическими ошибками), даже сценариев для актеров.
Актер Пол Коннелл, игравший Вонку, рассказал BBC: “Мне дали 15 страниц AI-сгенерированной чепухи. В конце монолога я должен был засосать злодея пылесосом. Я спросил, есть ли пылесос – мне сказали ‘мы еще не дошли до этого, импровизируйте’”.
Кейс стал вирусным и предупреждением: AI может создать красивую рекламу, но не может создать реальный продукт. Разрыв между обещанием и реальностью привел к полному краху репутации организаторов.
Sports Illustrated: фейковые авторы с AI-фотографиями
В ноябре 2023 года Futurism обнаружил, что легендарный Sports Illustrated публиковал статьи под именами несуществующих авторов с AI-сгенерированными фотографиями. “Drew Ortiz” и “Sora Tanaka” имели выдуманные биографии и headshots с сайта, продающего AI-изображения.
Источники внутри редакции подтвердили: “Контент абсолютно AI-сгенерирован, что бы они ни говорили”. После запроса Futurism все фейковые авторы исчезли с сайта без объяснений.
Профсоюз журналистов SI заявил, что “в ужасе” от отчета. Издатель Arena Group обвинил стороннего подрядчика AdVon Commerce, но репутационный ущерб был нанесен. Акции Arena Group упали на 22% за день.
Урок: даже если AI-контент технически допустим, попытка выдать его за человеческую работу без раскрытия разрушает доверие аудитории.
Парадокс юридической неопределенности
Ситуация с правами на AI-изображения парадоксальна. Платформы передают вам права, но законодательство их не признает. Вы “владеете” файлом, но не можете запретить копирование. Формальная юридическая уязвимость редко материализуется в практические проблемы.
Работая с AI-контентом два года, я ни разу не столкнулся с юридическими претензиями. Репутационные проблемы возникали дважды – оба раза из-за низкого качества сгенерированного контента, не из-за юридического статуса. Это показывает интересный паттерн: большинство компаний переоценивают юридические риски и недооценивают риски качества.
Критически важный вывод: контекст использования определяет реальный риск. Внутренние задачи (презентации, документы) – риск близок к нулю, используйте AI смело. Публичный контент (маркетинг, соцсети) – риск управляемый, используйте платные тарифы и документируйте процесс. Ключевые активы бренда (логотипы, фирменный стиль) – риск высокий, инвестируйте в доработку или традиционных дизайнеров. Продажа контента – риск требует митигации через доработку и прозрачность.
Относитесь к AI-изображениям как к удобному инструменту для быстрого создания контента, но не как к охраняемым активам. Если уникальность и защита критичны – инвестируйте в творческую доработку или традиционное создание. Законодательство будет меняться – следите за обновлениями, особенно если работаете на международных рынках.
Провокационный вопрос на заключение: действительно ли юридическая защита AI-контента необходима для большинства бизнес-задач, или это скорее психологический комфорт, чем практическая необходимость? Мой опыт показывает, что в 80% случаев формальная юридическая чистота не добавляет практической ценности – достаточно прагматичного управления рисками через контекст использования и прозрачность.
Полное руководство: все три части
Это третья часть руководства по правам на AI-изображения. Полная серия:
Что обещают AI-платформы – анализ условий использования OpenAI, Google, MidJourney, ByteDance, Alibaba, Kling AI, xAI, Freepik
AI-изображения и закон – законодательство России, Казахстана, США и ЕС о правах на AI-контент
Практическое руководство (эта статья) – опыт работы с AI-контентом и прагматичное управление рисками
Хотите освоить AI безопасно и эффективно?
Открытый модуль курса mysummit.school – практические техники работы с ChatGPT, Gemini, YandexGPT. Без платёжных данных, без регистрации.
Важное напоминание: Информация в статье актуальна на январь 2026 года и носит ознакомительный характер, основанный на личном опыте автора. Для юридически значимых решений консультируйтесь с квалифицированным юристом в вашей юрисдикции.

