Разбор 8 мин чтения

ИИ и авторское право: кто владеет тем, что создала машина?

Анализ правовой неопределенности вокруг ИИ-контента: 70+ судебных исков, три подхода к fair use, глобальные различия в законодательстве и практический чеклист для креаторов и бизнеса.

Введение

Генеративный ИИ создает изображения, тексты и музыку за секунды. Копирайт-законодательство писалось столетиями — для людей, кистей и печатных станков. Столкновение двух реальностей уже обходится индустрии в миллиарды долларов и ставит под угрозу любого, кто использует ИИ в коммерческих целях.

Правовая неопределенность — это не абстрактный юридический спор. Это конкретный финансовый риск. Фрилансер-дизайнер из Onchain Journals убедился в этом на собственном опыте: книжная обложка, созданная в Midjourney, привела к cease-and-desist (требование прекратить использование) от фотографа, чья работа предположительно попала в тренировочные данные модели. Итог: издательство отозвало книгу, обложку переделали без ИИ, а дизайнер заплатил $12 500 в рамках settlement (досудебного урегулирования) — и потерял клиента.

Эта статья — не пересказ одного случая. Это анализ системного кризиса на стыке технологий, права и бизнеса, основанный на 8 отраслевых источниках: от судебных обзоров Copyright Alliance до отчета Бюро авторских прав США (USCO).

«Я думал, ИИ-контент бесплатный»: 4 опасных заблуждения

По данным опроса Copyright Alliance (2024), 78% креаторов, использующих ИИ-инструменты, разделяют одни и те же ошибочные предположения. Каждое из них может стоить десятки тысяч долларов.

Заблуждение 1: «Если я создал с помощью ИИ — я владею результатом»

Нет. Американское авторское право требует human authorship (человеческого авторства). Бюро авторских прав США (USCO) с марта 2023 года явно указывает: работы, созданные целиком ИИ, не могут быть защищены копирайтом. Они находятся в общественном достоянии (public domain). Ни Midjourney, ни ChatGPT не предупреждают об этом при генерации.

Заблуждение 2: «ИИ-компании имеют законное право на тренировочные данные»

Нет — или, как минимум, это активно оспаривается в судах. На декабрь 2025 года в совокупных исках заявлено более $20 миллиардов возмещения ущерба. ИИ-модели тренировались на миллиардах изображений, статей, книг и музыки, скачанных из интернета — в подавляющем большинстве случаев без разрешения и без компенсации.

Заблуждение 3: «Если я модифицировал output — он мой»

Частично неверно. Добавление human creative input (творческого вклада человека) усиливает позицию заявителя — но сколько именно нужно? USCO отвечает: «case-by-case» (в каждом случае отдельно). На юридическом языке это означает: «мы сами не знаем — выясняйте в суде за $50 000–$150 000».

Заблуждение 4: «Если не похоже точь-в-точь — нет нарушения»

Опасно неверно. Нарушение авторских прав определяется не идентичностью, а substantial similarity (существенным сходством) — намеренно размытым стандартом. Именно на этом основании фотограф подал претензию к дизайнеру Onchain Journals: элементы обложки были не скопированы, а «достаточно похожи» на оригинальную фотографию.

Взрыв исков: 70+ дел к концу 2025 года

Если в конце 2024 года против ИИ-компаний было подано около 30 исков, то к концу 2025 года их число более чем удвоилось, превысив 70 дел — от классовых исков индивидуальных авторов до мультимиллиардных претензий медиаконгломератов.

Хронология:

  • Январь 2023: Первый иск — художники против Stability AI, Midjourney, DeviantArt (Andersen v. Stability AI)
  • Июль 2023: Getty Images подает в суд на Stability AI за тренировку на 12 млн изображений
  • Сентябрь 2023: Авторы (Сара Сильверман, Джон Гришэм) судятся с OpenAI и Meta
  • Март 2024: New York Times подает иск к OpenAI и Microsoft на сумму свыше $1 млрд
  • Июнь 2025: Disney, Universal подают иск против Midjourney (Warner Bros. присоединяется в сентябре) за воспроизведение персонажей Marvel и Star Wars
  • Декабрь 2025: 14 издательств (Conde Nast, Vox, The Atlantic, The Guardian) судятся с Cohere Inc. (оценка компании — $7 млрд)

Ключевые дела:

Bartz v. Anthropic — крупнейший settlement в истории ИИ-копирайта. В июне 2025 года суд N.D. California признал тренировку на книгах «exceedingly transformative» (чрезвычайно трансформативной) и fair use (добросовестным использованием). Однако хранение «центральной библиотеки» пиратских книг с Library Genesis получило отказ в защите. В сентябре 2025 года стороны урегулировали спор за $1,5 миллиарда — за 482 460 книг, что составляет примерно $3 000 за книгу. Глава Copyright Alliance Кит Купфершмид отметил: это доказывает, что «ИИ-компании могут позволить себе компенсировать правообладателей».

NYT v. OpenAI: Дело в стадии discovery (раскрытия доказательств). В ноябре 2025 года суд обязал OpenAI предоставить примерно 20 миллионов логов ChatGPT — прецедент, устанавливающий, что внутренние данные ИИ-систем подлежат раскрытию в суде.

Kadrey v. Meta (июнь 2025): Суд признал тренировку на законно приобретенных книгах fair use — самая мягкая позиция из трех ключевых решений. Но вопрос «сидинга» пиратских торрентов остается открытым и угрожает Meta массовыми штрафами.

Тренд: от исков к лицензионным сделкам. Музыкальная индустрия первой перешла от конфронтации к партнерству: Warner Music и UMG заключили лицензионные соглашения с Suno и Udio (конец 2025), создав модель opt-in для артистов. Текущие модели, обученные без лицензий, будут выведены из эксплуатации.

«Треугольник fair use»: три суда — три подхода

Концепция «Fair Use Triangle» (треугольника добросовестного использования), сформулированная юристами Internet Lawyer Blog, описывает три конкурирующие судебные позиции по вопросу — может ли тренировка ИИ на защищенных материалах считаться fair use.

Thomson Reuters v. ROSS Intelligence (Делавэр, февраль 2025): Самая жесткая позиция. Суд отклонил fair use для тренировки на проприетарных правовых заголовках Westlaw. Первый крупный отказ в fair use для ИИ-тренировки в США. Аргументация: коммерческое, конкурентное использование; отсутствие трансформативности; ущерб рынку лицензирования данных для ИИ.

Bartz v. Anthropic (N.D. California, июнь 2025): Средняя позиция. Тренировка на законно приобретенных материалах — fair use («quintessentially transformative»). Но тренировка на пиратском контенте — нет. Центральная библиотека книг с Library Genesis и Pirate Library Mirror создает отдельную ответственность.

Kadrey v. Meta (N.D. California, июнь 2025): Самая мягкая позиция. Законные источники + трансформативность = fair use. Однако судья предоставил развернутый анализ потенциального ущерба рынку копирайта, фактически создав «дорожную карту» для будущих истцов.

Вывод: Провенанс данных (происхождение тренировочных данных) определяет исход. Законно приобретенные данные можно защитить; пиратские — нельзя.

Кто автор? Человек, машина или никто

Вопрос «кому принадлежит ИИ-контент» упирается в фундаментальное требование: авторское право защищает только результат человеческого творчества.

Thaler v. Perlmutter (DC Circuit, март 2025): Апелляционный суд подтвердил — ИИ не может быть автором. Стивен Талер пытался зарегистрировать работу, созданную его «Creativity Machine», суд отказал: human authorship — «краеугольный камень» копирайта.

Zarya of the Dawn (2023): Комикс, созданный Крис Каштановой с Midjourney. USCO вынесло соломоново решение: текст и компоновка (человеческий вклад) — защищены; Midjourney-изображения — нет. Прецедент для гибридных человеко-ИИ работ.

«Кусок американского сыра» (февраль 2025): Кент Кирси (CEO Invoke) получил первый копирайт на ИИ-ассистированное изображение — A Single Piece of American Cheese. USCO сначала отклонило заявку, но изменило решение после просмотра видео рабочего процесса, документирующего ~35 итеративных правок. Ключевой фактор — не промпт, а подтвержденная серия творческих решений.

Отчет USCO (январь 2025) — второй из трех запланированных отчетов (первый вышел в июле 2024, третий ожидается позднее). На основании более 10 000 публичных комментариев Бюро определило четыре категории человеческого вклада:

  1. ИИ как инструмент — использование ИИ внутри человеческого творческого процесса. Не ограничивает копирайт.
  2. Промпты — ввод инструкций в ИИ. Недостаточно для авторства: «промпты отражают идею, но не контролируют выражение».
  3. Экспрессивные вводы (expressive inputs) — загрузка собственной работы (например, эскиза) и направление ИИ-модификаций. Потенциально защищаемо, если вклад «перцептивно различим» в финальном результате.
  4. Модификация и компоновка — человеческий отбор, курирование, аранжировка ИИ-выходов. Может составлять авторство, если достаточно креативно.

Практический вывод: Степень человеческого контроля и его документируемость определяют защищенность. Промпт — недостаточно. 35 задокументированных итераций — достаточно.

Мир без единых правил: US, UK, EU, Китай, Япония

Глобальная аудитория — локальные законы. Ни одна юрисдикция не решила вопрос окончательно, и правила радикально отличаются.

США: Human authorship обязательно. Промпты недостаточны. ИИ-контент без человеческого творческого вклада — public domain. Fair use для тренировки — под вопросом (три конкурирующих подхода).

Великобритания: ИИ-генерированные работы могут быть защищены копирайтом — автором считается «лицо, осуществившее необходимые приготовления для создания». Те же правила действуют в Индии, Ирландии, Новой Зеландии и Гонконге. Однако Getty v. Stability AI (UK, ноябрь 2025) принес неожиданный результат: суд в основном отклонил претензии Getty, поскольку истец не смог получить доказательства о тренировочных практиках Stability AI. Дело вызвало призывы к правительственному регулированию.

Европейский Союз: AI Act вступил в силу поэтапно: с февраля 2025 — запрет «неприемлемого риска» (социальный скоринг, манипулятивные системы); с августа 2025 — обязательное раскрытие тренировочных данных для провайдеров GPAI (general-purpose AI), требования к документации и прозрачности. Полная система для высокорисковых систем — к 2026–2027.

Китай: Суды защищают ИИ-контент при «достаточном человеческом участии». Пекинский интернет-суд (ноябрь 2023) признал копирайт на ИИ-изображения, демонстрирующие оригинальность и отражающие «интеллектуальное усилие человека». Обязательная маркировка ИИ-контента; компании несут ответственность за дезинформацию.

Япония: Самая либеральная позиция — тренировка на copyrighted data разрешена, если (1) материал не является пиратским и (2) не наносит «неразумного ущерба» правообладателю. На практике это означает широкую свободу для ИИ-разработчиков при условии законных источников.

Проблема для бизнеса: Если вы создаете контент для глобальной аудитории, непонятно, какой закон применяется, пока не появятся международные прецеденты.

Стиль-кража и Грег Рутковски: новый фронт

Польский цифровой художник Грег Рутковски стал символом проблемы «стилевого копирования». Анализ конца 2022 года показал: его имя появлялось в промптах Stable Diffusion более 93 000 раз. Его фирменный стиль фэнтези-арта стал воспроизводим любым пользователем, набравшим «in the style of Greg Rutkowski».

Может ли стиль быть защищен копирайтом? Короткий ответ — нет. Норман Рокуэлл не мог бы подать в суд на каждого, кто рисует в его манере.

Но вот где начинается опасная территория: если ИИ генерирует не просто «похожее по стилю», а нечто, имеющее substantial similarity (существенное сходство) с конкретной защищенной работой, — это уже потенциальное нарушение.

Именно это произошло в кейсе Onchain Journals. Адвокат фотографа не аргументировал «кражу стиля» — он утверждал, что ИИ-обложка является derivative work (производным произведением) от конкретной фотографии. И доказательств сходства было достаточно, чтобы урегулирование стало единственным практичным решением.

Индустрия лицензирования: от войны к сделкам

2025 год показал: ИИ-компании осознают, что fair use defense недостаточна в качестве долгосрочной стратегии. Формируется полноценный рынок лицензирования тренировочных данных.

Ключевые сделки:

КомпанияПартнерСумма / Условия
RedditOpenAI, Google~$70 млн/год от ИИ-лицензирования
ShutterstockНесколько ИИ-компаний$104 млн от AI deals (2024)
OpenAIFinancial TimesЛицензионная сделка, апрель 2024
OpenAIVox MediaЛицензионная сделка, май 2024
OpenAIThe AtlanticЛицензионная сделка, май 2024
OpenAIAPЛицензионная сделка, 2024–2025
GoogleRedditЛицензионная сделка, февраль 2024
Warner MusicSuno, UdioSettlement + opt-in лицензирование для артистов (конец 2025)
UMGUdioSettlement + лицензия; новый сервис с 2026

Музыкальная индустрия задает модель: сначала иск, потом лицензионное соглашение с opt-in механизмом для артистов. Модели, обученные без лицензий, выводятся из эксплуатации.

Контекст: Google уже заплатил штраф $250 млн во Франции (март 2024) за тренировку Gemini на новостных статьях без разрешения. Anthropic опубликовал Works List из 500 000+ книг, использованных в тренировке Claude. OpenAI оценивается в $500 миллиардов (сентябрь–октябрь 2025) — и это объясняет, почему правообладатели ведут борьбу так агрессивно.

Что делать уже сейчас: практический чеклист

Для креаторов

  • Не предполагайте владение. ИИ-output без существенного человеческого вклада = public domain в США. Для высокорисковых проектов оцените, оправдывает ли экономия времени юридическую экспозицию.
  • Документируйте процесс. Сохраняйте промпты, итерации, версии. Кейс Кента Кирси доказал: видео рабочего процесса с 35 правками может стать решающим аргументом при регистрации копирайта.
  • Добавляйте human creative input. Не ограничивайтесь генерацией — трансформируйте, перерисовывайте ключевые элементы, комбинируйте выходы. Незначительная цветокоррекция (как в кейсе Onchain Journals) недостаточна.
  • Раскрывайте использование ИИ клиентам. В ЕС и Китае это юридическое требование. Даже где это не обязательно — клиент, узнавший о cease-and-desist из письма адвоката, а не от вас, будет чувствовать себя обманутым.
  • Регистрируйте копирайт. В США только зарегистрированные работы дают право на компенсацию в рамках settlement.

Для бизнеса

  • Проведите аудит ИИ-инструментов. Какие инструменты используют сотрудники? Делятся ли они конфиденциальными данными с публичными моделями?
  • IP-индемнификация в вендорских контрактах. OpenAI и Microsoft предлагают enterprise-индемнификацию от IP-исков; Midjourney и многие другие — нет. Сравнивайте поставщиков.
  • Процессы проверки output. Обязательная проверка до публикации: детектирование плагиата, обратный поиск изображений, сканирование лицензий для кода.
  • Готовность к discovery. Суды уже требуют раскрытия логов ИИ-систем (20 млн записей в деле NYT v. OpenAI). Сохраняйте документацию об использовании ИИ.

Для ИИ-компаний

  • Провенанс данных — решающий фактор. Пиратские источники (Library Genesis, Z-Library, Sci-Hub, Books3) создают ответственность даже при признании fair use для самой тренировки.
  • Лицензируйте проактивно — это дешевле, чем settlement. Anthropic заплатил $1,5 млрд; упреждающее лицензирование обходится на порядки дешевле.
  • Готовность к discovery — логи тренировки, промпты, внутренние данные — все подлежит раскрытию в суде.

Страхование

Стандартное страхование ответственности обычно не покрывает IP-претензии. Рассмотрите E&O insurance (страхование профессиональных ошибок и упущений), специально покрывающее AI-related IP claims.

Рекомендованные статьи

Управление

Генеративный ИИ присваивает авторство наших работ. Это серьезная проблема

AI-детекторы ошибаются в 61% случаев для неносителей языка, Model Collapse деградирует модели, а эффект Данинга-Крюгера усиливается. Аналитический обзор на основе исследований 2024–2026.

7 мин чтения
Продажи

Ваши менеджеры тратят 65% времени не на продажи

Как ИИ-скоринг расставляет приоритеты в B2B-продажах, какие сигналы реально предсказывают сделку и почему это уже рабочий инструмент для российского рынка.

7 мин чтения
Ссылка скопирована