V
ИИ в процессах
Ссылка скопирована!
Разбор в ИИ в процессах · · 9 мин чтения

ИИ и авторское право: кто владеет тем, что создала машина?

70+ исков, $20 млрд требований, нулевая защита для ИИ-output — анализ кризиса на стыке технологий, права и бизнеса. Практический чеклист для креаторов и компаний.

#ai #copyright #legal #ip

Введение

Генеративный ИИ создаёт изображения, тексты и музыку за секунды. Копирайт-законодательство писалось столетиями — для людей, кистей и печатных станков. Столкновение двух реальностей уже обходится индустрии в миллиарды долларов и ставит под угрозу любого, кто использует ИИ в коммерческих целях.

Правовая неопределённость — это не абстрактный юридический спор. Это конкретный финансовый риск. Фрилансер-дизайнер из Onchain Journals убедился в этом на собственном опыте: книжная обложка, созданная в Midjourney, привела к cease-and-desist (требование прекратить использование) от фотографа, чья работа предположительно попала в тренировочные данные модели. Итог: издательство отозвало книгу, обложку переделали без ИИ, а дизайнер заплатил $12 500 в рамках settlement (досудебного урегулирования) — и потерял клиента.

Эта статья — не пересказ одного случая. Это анализ системного кризиса на стыке технологий, права и бизнеса, основанный на 8 отраслевых источниках: от судебных обзоров Copyright Alliance до отчёта Бюро авторских прав США (USCO).


«Я думал, ИИ-контент бесплатный»: 4 опасных заблуждения

По данным опроса Copyright Alliance (2024), 78% креаторов, использующих ИИ-инструменты, разделяют одни и те же ошибочные предположения. Каждое из них может стоить десятки тысяч долларов.

Заблуждение 1: «Если я создал с помощью ИИ — я владею результатом»

Нет. Американское авторское право требует human authorship (человеческого авторства). Бюро авторских прав США (USCO) с марта 2023 года явно указывает: работы, созданные целиком ИИ, не могут быть защищены копирайтом. Они находятся в общественном достоянии (public domain). Ни Midjourney, ни ChatGPT не предупреждают об этом при генерации.

Заблуждение 2: «ИИ-компании имеют законное право на тренировочные данные»

Нет — или, как минимум, это активно оспаривается в судах. На декабрь 2025 года в совокупных исках заявлено более $20 миллиардов возмещения ущерба. ИИ-модели тренировались на миллиардах изображений, статей, книг и музыки, скачанных из интернета — в подавляющем большинстве случаев без разрешения и без компенсации.

Заблуждение 3: «Если я модифицировал output — он мой»

Частично неверно. Добавление human creative input (творческого вклада человека) усиливает позицию заявителя — но сколько именно нужно? USCO отвечает: «case-by-case» (в каждом случае отдельно). На юридическом языке это означает: «мы сами не знаем — выясняйте в суде за $50 000–$150 000».

Заблуждение 4: «Если не похоже точь-в-точь — нет нарушения»

Опасно неверно. Нарушение авторских прав определяется не идентичностью, а substantial similarity (существенным сходством) — намеренно размытым стандартом. Именно на этом основании фотограф подал претензию к дизайнеру Onchain Journals: элементы обложки были не скопированы, а «достаточно похожи» на оригинальную фотографию.


Взрыв исков: 70+ дел к концу 2025 года

Если в конце 2024 года против ИИ-компаний было подано около 30 исков, то к концу 2025 года их число более чем удвоилось, превысив 70 дел — от классовых исков индивидуальных авторов до мультимиллиардных претензий медиаконгломератов.

Хронология:

  • Январь 2023: Первый иск — художники против Stability AI, Midjourney, DeviantArt (Andersen v. Stability AI)
  • Июль 2023: Getty Images подаёт в суд на Stability AI за тренировку на 12 млн изображений
  • Сентябрь 2023: Авторы (Sarah Silverman, John Grisham) судятся с OpenAI и Meta
  • Март 2024: New York Times подаёт иск к OpenAI и Microsoft на сумму свыше $1 млрд
  • Июнь 2025: Disney, Universal подают иск против Midjourney (Warner Bros. присоединяется в сентябре) за воспроизведение персонажей Marvel и Star Wars
  • Декабрь 2025: 14 издательств (Conde Nast, Vox, The Atlantic, The Guardian) судятся с Cohere Inc. (оценка компании — $7 млрд)

Ключевые дела:

Bartz v. Anthropic — крупнейший settlement в истории ИИ-копирайта. В июне 2025 года суд N.D. California признал тренировку на книгах «exceedingly transformative» (чрезвычайно трансформативной) и fair use (добросовестным использованием). Однако хранение «центральной библиотеки» пиратских книг с Library Genesis получило отказ в защите. В сентябре 2025 года стороны урегулировали спор за $1,5 миллиарда — за 482 460 книг, что составляет примерно $3 000 за книгу. Глава Copyright Alliance Кит Купфершмид отметил: это доказывает, что «ИИ-компании могут позволить себе компенсировать правообладателей».

NYT v. OpenAI: Дело в стадии discovery (раскрытия доказательств). В ноябре 2025 года суд обязал OpenAI предоставить примерно 20 миллионов логов ChatGPT — прецедент, устанавливающий, что внутренние данные ИИ-систем подлежат раскрытию в суде.

Kadrey v. Meta (июнь 2025): Суд признал тренировку на законно приобретённых книгах fair use — самая мягкая позиция из трёх ключевых решений. Но вопрос «сидинга» пиратских торрентов остаётся открытым и угрожает Meta массовыми штрафами.

Тренд: от исков к лицензионным сделкам. Музыкальная индустрия первой перешла от конфронтации к партнёрству: Warner Music и UMG заключили лицензионные соглашения с Suno и Udio (конец 2025), создав модель opt-in для артистов. Текущие модели, обученные без лицензий, будут выведены из эксплуатации.


«Треугольник fair use»: три суда — три подхода

Концепция «Fair Use Triangle» (треугольника добросовестного использования), сформулированная юристами Internet Lawyer Blog, описывает три конкурирующие судебные позиции по вопросу — может ли тренировка ИИ на защищённых материалах считаться fair use.

Thomson Reuters v. ROSS Intelligence (Делавэр, февраль 2025): Самая жёсткая позиция. Суд отклонил fair use для тренировки на проприетарных правовых заголовках Westlaw. Первый крупный отказ в fair use для ИИ-тренировки в США. Аргументация: коммерческое, конкурентное использование; отсутствие трансформативности; ущерб рынку лицензирования данных для ИИ.

Bartz v. Anthropic (N.D. California, июнь 2025): Средняя позиция. Тренировка на законно приобретённых материалах — fair use («quintessentially transformative»). Но тренировка на пиратском контенте — нет. Центральная библиотека книг с Library Genesis и Pirate Library Mirror создаёт отдельную ответственность.

Kadrey v. Meta (N.D. California, июнь 2025): Самая мягкая позиция. Законные источники + трансформативность = fair use. Однако судья предоставил развёрнутый анализ потенциального ущерба рынку копирайта, фактически создав «дорожную карту» для будущих истцов.

Вывод: Провенанс данных (происхождение тренировочных данных) определяет исход. Законно приобретённые данные можно защитить; пиратские — нельзя.


Кто автор? Человек, машина или никто

Вопрос «кому принадлежит ИИ-контент» упирается в фундаментальное требование: авторское право защищает только результат человеческого творчества.

Thaler v. Perlmutter (DC Circuit, март 2025): Апелляционный суд подтвердил — ИИ не может быть автором. Стивен Талер пытался зарегистрировать работу, созданную его «Creativity Machine», суд отказал: human authorship — «краеугольный камень» копирайта.

Zarya of the Dawn (2023): Комикс, созданный Крис Каштановой с Midjourney. USCO вынесло соломоново решение: текст и компоновка (человеческий вклад) — защищены; Midjourney-изображения — нет. Прецедент для гибридных человеко-ИИ работ.

«Кусок американского сыра» (февраль 2025): Кент Кирси (CEO Invoke) получил первый копирайт на ИИ-ассистированное изображение — A Single Piece of American Cheese. USCO сначала отклонило заявку, но изменило решение после просмотра видео рабочего процесса, документирующего ~35 итеративных правок. Ключевой фактор — не промпт, а подтверждённая серия творческих решений.

Отчёт USCO (январь 2025) — второй из трёх запланированных отчётов (первый вышел в июле 2024, третий ожидается позднее). На основании более 10 000 публичных комментариев Бюро определило четыре категории человеческого вклада:

  1. ИИ как инструмент — использование ИИ внутри человеческого творческого процесса. Не ограничивает копирайт.
  2. Промпты — ввод инструкций в ИИ. Недостаточно для авторства: «промпты отражают идею, но не контролируют выражение».
  3. Экспрессивные вводы (expressive inputs) — загрузка собственной работы (например, эскиза) и направление ИИ-модификаций. Потенциально защищаемо, если вклад «перцептивно различим» в финальном результате.
  4. Модификация и компоновка — человеческий отбор, курирование, аранжировка ИИ-выходов. Может составлять авторство, если достаточно креативно.

Практический вывод: Степень человеческого контроля и его документируемость определяют защищённость. Промпт — недостаточно. 35 задокументированных итераций — достаточно.


Мир без единых правил: US, UK, EU, Китай, Япония

Глобальная аудитория — локальные законы. Ни одна юрисдикция не решила вопрос окончательно, и правила радикально отличаются.

США: Human authorship обязательно. Промпты недостаточны. ИИ-контент без человеческого творческого вклада — public domain. Fair use для тренировки — под вопросом (три конкурирующих подхода).

Великобритания: ИИ-генерированные работы могут быть защищены копирайтом — автором считается «лицо, осуществившее необходимые приготовления для создания». Те же правила действуют в Индии, Ирландии, Новой Зеландии и Гонконге. Однако Getty v. Stability AI (UK, ноябрь 2025) принёс неожиданный результат: суд в основном отклонил претензии Getty, поскольку истец не смог получить доказательства о тренировочных практиках Stability AI. Дело вызвало призывы к правительственному регулированию.

Европейский Союз: AI Act вступил в силу поэтапно: с февраля 2025 — запрет «неприемлемого риска» (социальный скоринг, манипулятивные системы); с августа 2025 — обязательное раскрытие тренировочных данных для провайдеров GPAI (general-purpose AI), требования к документации и прозрачности. Полная система для высокорисковых систем — к 2026–2027.

Китай: Суды защищают ИИ-контент при «достаточном человеческом участии». Пекинский интернет-суд (ноябрь 2023) признал копирайт на ИИ-изображения, демонстрирующие оригинальность и отражающие «интеллектуальное усилие человека». Обязательная маркировка ИИ-контента; компании несут ответственность за дезинформацию.

Япония: Самая либеральная позиция — тренировка на copyrighted data разрешена, если (1) материал не является пиратским и (2) не наносит «неразумного ущерба» правообладателю. На практике это означает широкую свободу для ИИ-разработчиков при условии законных источников.

Проблема для бизнеса: Если вы создаёте контент для глобальной аудитории, непонятно, какой закон применяется, пока не появятся международные прецеденты.


Стиль-кража и Greg Rutkowski: новый фронт

Польский цифровой художник Грег Рутковски стал символом проблемы «стилевого копирования». Анализ конца 2022 года показал: его имя появлялось в промптах Stable Diffusion более 93 000 раз. Его фирменный стиль фэнтези-арта стал воспроизводим любым пользователем, набравшим «in the style of Greg Rutkowski».

Может ли стиль быть защищён копирайтом? Короткий ответ — нет. Норман Рокуэлл не мог бы подать в суд на каждого, кто рисует в его манере.

Но вот где начинается опасная территория: если ИИ генерирует не просто «похожее по стилю», а нечто, имеющее substantial similarity (существенное сходство) с конкретной защищённой работой, — это уже потенциальное нарушение.

Именно это произошло в кейсе Onchain Journals. Адвокат фотографа не аргументировал «кражу стиля» — он утверждал, что ИИ-обложка является derivative work (производным произведением) от конкретной фотографии. И доказательств сходства было достаточно, чтобы урегулирование стало единственным практичным решением.


Индустрия лицензирования: от войны к сделкам

2025 год показал: ИИ-компании осознают, что fair use defense недостаточна в качестве долгосрочной стратегии. Формируется полноценный рынок лицензирования тренировочных данных.

Ключевые сделки:

КомпанияПартнёрСумма / Условия
RedditOpenAI, Google~$70 млн/год от ИИ-лицензирования
ShutterstockНесколько ИИ-компаний$104 млн от AI deals (2024)
OpenAIFinancial TimesЛицензионная сделка, апрель 2024
OpenAIVox MediaЛицензионная сделка, май 2024
OpenAIThe AtlanticЛицензионная сделка, май 2024
OpenAIAPЛицензионная сделка, 2024–2025
GoogleRedditЛицензионная сделка, февраль 2024
Warner MusicSuno, UdioSettlement + opt-in лицензирование для артистов (конец 2025)
UMGUdioSettlement + лицензия; новый сервис с 2026

Музыкальная индустрия задаёт модель: сначала иск, потом лицензионное соглашение с opt-in механизмом для артистов. Модели, обученные без лицензий, выводятся из эксплуатации.

Контекст: Google уже заплатил штраф €250 млн во Франции (март 2024) за тренировку Gemini на новостных статьях без разрешения. Anthropic опубликовал Works List из 500 000+ книг, использованных в тренировке Claude. OpenAI оценивается в $500 миллиардов (сентябрь–октябрь 2025) — и это объясняет, почему правообладатели ведут борьбу так агрессивно.


Что делать уже сейчас: практический чеклист

Для креаторов

  • Не предполагайте владение. ИИ-output без существенного человеческого вклада = public domain в США. Для высокорисковых проектов оцените, оправдывает ли экономия времени юридическую экспозицию.
  • Документируйте процесс. Сохраняйте промпты, итерации, версии. Кейс Kent Keirsey доказал: видео рабочего процесса с 35 правками может стать решающим аргументом при регистрации копирайта.
  • Добавляйте human creative input. Не ограничивайтесь генерацией — трансформируйте, перерисовывайте ключевые элементы, комбинируйте выходы. Незначительная цветокоррекция (как в кейсе Onchain Journals) недостаточна.
  • Раскрывайте использование ИИ клиентам. В ЕС и Китае это юридическое требование. Даже где это не обязательно — клиент, узнавший о cease-and-desist из письма адвоката, а не от вас, будет чувствовать себя обманутым.
  • Регистрируйте копирайт. В США только зарегистрированные работы дают право на компенсацию в рамках settlement.

Для бизнеса

  • Проведите аудит ИИ-инструментов. Какие инструменты используют сотрудники? Делятся ли они конфиденциальными данными с публичными моделями?
  • IP-индемнификация в вендорских контрактах. OpenAI и Microsoft предлагают enterprise-индемнификацию от IP-исков; Midjourney и многие другие — нет. Сравнивайте поставщиков.
  • Процессы проверки output. Обязательная проверка до публикации: детектирование плагиата, обратный поиск изображений, сканирование лицензий для кода.
  • Готовность к discovery. Суды уже требуют раскрытия логов ИИ-систем (20 млн записей в деле NYT v. OpenAI). Сохраняйте документацию об использовании ИИ.

Для ИИ-компаний

  • Провенанс данных — решающий фактор. Пиратские источники (Library Genesis, Z-Library, Sci-Hub, Books3) создают ответственность даже при признании fair use для самой тренировки.
  • Лицензируйте проактивно — это дешевле, чем settlement. Anthropic заплатил $1,5 млрд; упреждающее лицензирование обходится на порядки дешевле.
  • Готовность к discovery — логи тренировки, промпты, внутренние данные — всё подлежит раскрытию в суде.

Страхование

Стандартное страхование ответственности обычно не покрывает IP-претензии. Рассмотрите E&O insurance (страхование профессиональных ошибок и упущений), специально покрывающее AI-related IP claims.


Источники

  1. Onchain Journals. “I Thought AI Output Was Free to Use. I Was Wrong.” Medium / Age of Awareness, December 7, 2025.
  2. Madigan, K. “AI Copyright Lawsuit Developments in 2025.” Copyright Alliance, January 8, 2026.
  3. Atrizadeh, S. “The Year in AI Law: 2025’s Biggest Legal Cases and What They Mean for 2026.” Internet Lawyer Blog, December 29, 2025.
  4. Brown, D.L. “AI War in the Courtroom: Copyright Disputes Spike in 2025.” Best Law Firms, December 12, 2025.
  5. Martensen IP. “A Practical Guide to Generative AI Copyright Risk.” Martensen IP, November 12, 2025.
  6. Epstein, M.O. et al. “Copyright Office Publishes Report on Copyrightability of AI-Generated Materials.” Skadden, February 4, 2025.
  7. Dilmegani, C. “Generative AI Copyright.” AIMultiple, January 21, 2026.
  8. Bondari, N. / Sinai, T. “AI, Copyright, and the Law.” USC IPTLS / Darrow AI, February–April 2025.
#ai #copyright #legal #ip

Рекомендованные статьи