Введение
Генеративный ИИ создаёт изображения, тексты и музыку за секунды. Копирайт-законодательство писалось столетиями — для людей, кистей и печатных станков. Столкновение двух реальностей уже обходится индустрии в миллиарды долларов и ставит под угрозу любого, кто использует ИИ в коммерческих целях.
Правовая неопределённость — это не абстрактный юридический спор. Это конкретный финансовый риск. Фрилансер-дизайнер из Onchain Journals убедился в этом на собственном опыте: книжная обложка, созданная в Midjourney, привела к cease-and-desist (требование прекратить использование) от фотографа, чья работа предположительно попала в тренировочные данные модели. Итог: издательство отозвало книгу, обложку переделали без ИИ, а дизайнер заплатил $12 500 в рамках settlement (досудебного урегулирования) — и потерял клиента.
Эта статья — не пересказ одного случая. Это анализ системного кризиса на стыке технологий, права и бизнеса, основанный на 8 отраслевых источниках: от судебных обзоров Copyright Alliance до отчёта Бюро авторских прав США (USCO).
«Я думал, ИИ-контент бесплатный»: 4 опасных заблуждения
По данным опроса Copyright Alliance (2024), 78% креаторов, использующих ИИ-инструменты, разделяют одни и те же ошибочные предположения. Каждое из них может стоить десятки тысяч долларов.
Заблуждение 1: «Если я создал с помощью ИИ — я владею результатом»
Нет. Американское авторское право требует human authorship (человеческого авторства). Бюро авторских прав США (USCO) с марта 2023 года явно указывает: работы, созданные целиком ИИ, не могут быть защищены копирайтом. Они находятся в общественном достоянии (public domain). Ни Midjourney, ни ChatGPT не предупреждают об этом при генерации.
Заблуждение 2: «ИИ-компании имеют законное право на тренировочные данные»
Нет — или, как минимум, это активно оспаривается в судах. На декабрь 2025 года в совокупных исках заявлено более $20 миллиардов возмещения ущерба. ИИ-модели тренировались на миллиардах изображений, статей, книг и музыки, скачанных из интернета — в подавляющем большинстве случаев без разрешения и без компенсации.
Заблуждение 3: «Если я модифицировал output — он мой»
Частично неверно. Добавление human creative input (творческого вклада человека) усиливает позицию заявителя — но сколько именно нужно? USCO отвечает: «case-by-case» (в каждом случае отдельно). На юридическом языке это означает: «мы сами не знаем — выясняйте в суде за $50 000–$150 000».
Заблуждение 4: «Если не похоже точь-в-точь — нет нарушения»
Опасно неверно. Нарушение авторских прав определяется не идентичностью, а substantial similarity (существенным сходством) — намеренно размытым стандартом. Именно на этом основании фотограф подал претензию к дизайнеру Onchain Journals: элементы обложки были не скопированы, а «достаточно похожи» на оригинальную фотографию.
Взрыв исков: 70+ дел к концу 2025 года
Если в конце 2024 года против ИИ-компаний было подано около 30 исков, то к концу 2025 года их число более чем удвоилось, превысив 70 дел — от классовых исков индивидуальных авторов до мультимиллиардных претензий медиаконгломератов.
Хронология:
- Январь 2023: Первый иск — художники против Stability AI, Midjourney, DeviantArt (Andersen v. Stability AI)
- Июль 2023: Getty Images подаёт в суд на Stability AI за тренировку на 12 млн изображений
- Сентябрь 2023: Авторы (Sarah Silverman, John Grisham) судятся с OpenAI и Meta
- Март 2024: New York Times подаёт иск к OpenAI и Microsoft на сумму свыше $1 млрд
- Июнь 2025: Disney, Universal подают иск против Midjourney (Warner Bros. присоединяется в сентябре) за воспроизведение персонажей Marvel и Star Wars
- Декабрь 2025: 14 издательств (Conde Nast, Vox, The Atlantic, The Guardian) судятся с Cohere Inc. (оценка компании — $7 млрд)
Ключевые дела:
Bartz v. Anthropic — крупнейший settlement в истории ИИ-копирайта. В июне 2025 года суд N.D. California признал тренировку на книгах «exceedingly transformative» (чрезвычайно трансформативной) и fair use (добросовестным использованием). Однако хранение «центральной библиотеки» пиратских книг с Library Genesis получило отказ в защите. В сентябре 2025 года стороны урегулировали спор за $1,5 миллиарда — за 482 460 книг, что составляет примерно $3 000 за книгу. Глава Copyright Alliance Кит Купфершмид отметил: это доказывает, что «ИИ-компании могут позволить себе компенсировать правообладателей».
NYT v. OpenAI: Дело в стадии discovery (раскрытия доказательств). В ноябре 2025 года суд обязал OpenAI предоставить примерно 20 миллионов логов ChatGPT — прецедент, устанавливающий, что внутренние данные ИИ-систем подлежат раскрытию в суде.
Kadrey v. Meta (июнь 2025): Суд признал тренировку на законно приобретённых книгах fair use — самая мягкая позиция из трёх ключевых решений. Но вопрос «сидинга» пиратских торрентов остаётся открытым и угрожает Meta массовыми штрафами.
Тренд: от исков к лицензионным сделкам. Музыкальная индустрия первой перешла от конфронтации к партнёрству: Warner Music и UMG заключили лицензионные соглашения с Suno и Udio (конец 2025), создав модель opt-in для артистов. Текущие модели, обученные без лицензий, будут выведены из эксплуатации.
«Треугольник fair use»: три суда — три подхода
Концепция «Fair Use Triangle» (треугольника добросовестного использования), сформулированная юристами Internet Lawyer Blog, описывает три конкурирующие судебные позиции по вопросу — может ли тренировка ИИ на защищённых материалах считаться fair use.
Thomson Reuters v. ROSS Intelligence (Делавэр, февраль 2025): Самая жёсткая позиция. Суд отклонил fair use для тренировки на проприетарных правовых заголовках Westlaw. Первый крупный отказ в fair use для ИИ-тренировки в США. Аргументация: коммерческое, конкурентное использование; отсутствие трансформативности; ущерб рынку лицензирования данных для ИИ.
Bartz v. Anthropic (N.D. California, июнь 2025): Средняя позиция. Тренировка на законно приобретённых материалах — fair use («quintessentially transformative»). Но тренировка на пиратском контенте — нет. Центральная библиотека книг с Library Genesis и Pirate Library Mirror создаёт отдельную ответственность.
Kadrey v. Meta (N.D. California, июнь 2025): Самая мягкая позиция. Законные источники + трансформативность = fair use. Однако судья предоставил развёрнутый анализ потенциального ущерба рынку копирайта, фактически создав «дорожную карту» для будущих истцов.
Вывод: Провенанс данных (происхождение тренировочных данных) определяет исход. Законно приобретённые данные можно защитить; пиратские — нельзя.
Кто автор? Человек, машина или никто
Вопрос «кому принадлежит ИИ-контент» упирается в фундаментальное требование: авторское право защищает только результат человеческого творчества.
Thaler v. Perlmutter (DC Circuit, март 2025): Апелляционный суд подтвердил — ИИ не может быть автором. Стивен Талер пытался зарегистрировать работу, созданную его «Creativity Machine», суд отказал: human authorship — «краеугольный камень» копирайта.
Zarya of the Dawn (2023): Комикс, созданный Крис Каштановой с Midjourney. USCO вынесло соломоново решение: текст и компоновка (человеческий вклад) — защищены; Midjourney-изображения — нет. Прецедент для гибридных человеко-ИИ работ.
«Кусок американского сыра» (февраль 2025): Кент Кирси (CEO Invoke) получил первый копирайт на ИИ-ассистированное изображение — A Single Piece of American Cheese. USCO сначала отклонило заявку, но изменило решение после просмотра видео рабочего процесса, документирующего ~35 итеративных правок. Ключевой фактор — не промпт, а подтверждённая серия творческих решений.
Отчёт USCO (январь 2025) — второй из трёх запланированных отчётов (первый вышел в июле 2024, третий ожидается позднее). На основании более 10 000 публичных комментариев Бюро определило четыре категории человеческого вклада:
- ИИ как инструмент — использование ИИ внутри человеческого творческого процесса. Не ограничивает копирайт.
- Промпты — ввод инструкций в ИИ. Недостаточно для авторства: «промпты отражают идею, но не контролируют выражение».
- Экспрессивные вводы (expressive inputs) — загрузка собственной работы (например, эскиза) и направление ИИ-модификаций. Потенциально защищаемо, если вклад «перцептивно различим» в финальном результате.
- Модификация и компоновка — человеческий отбор, курирование, аранжировка ИИ-выходов. Может составлять авторство, если достаточно креативно.
Практический вывод: Степень человеческого контроля и его документируемость определяют защищённость. Промпт — недостаточно. 35 задокументированных итераций — достаточно.
Мир без единых правил: US, UK, EU, Китай, Япония
Глобальная аудитория — локальные законы. Ни одна юрисдикция не решила вопрос окончательно, и правила радикально отличаются.
США: Human authorship обязательно. Промпты недостаточны. ИИ-контент без человеческого творческого вклада — public domain. Fair use для тренировки — под вопросом (три конкурирующих подхода).
Великобритания: ИИ-генерированные работы могут быть защищены копирайтом — автором считается «лицо, осуществившее необходимые приготовления для создания». Те же правила действуют в Индии, Ирландии, Новой Зеландии и Гонконге. Однако Getty v. Stability AI (UK, ноябрь 2025) принёс неожиданный результат: суд в основном отклонил претензии Getty, поскольку истец не смог получить доказательства о тренировочных практиках Stability AI. Дело вызвало призывы к правительственному регулированию.
Европейский Союз: AI Act вступил в силу поэтапно: с февраля 2025 — запрет «неприемлемого риска» (социальный скоринг, манипулятивные системы); с августа 2025 — обязательное раскрытие тренировочных данных для провайдеров GPAI (general-purpose AI), требования к документации и прозрачности. Полная система для высокорисковых систем — к 2026–2027.
Китай: Суды защищают ИИ-контент при «достаточном человеческом участии». Пекинский интернет-суд (ноябрь 2023) признал копирайт на ИИ-изображения, демонстрирующие оригинальность и отражающие «интеллектуальное усилие человека». Обязательная маркировка ИИ-контента; компании несут ответственность за дезинформацию.
Япония: Самая либеральная позиция — тренировка на copyrighted data разрешена, если (1) материал не является пиратским и (2) не наносит «неразумного ущерба» правообладателю. На практике это означает широкую свободу для ИИ-разработчиков при условии законных источников.
Проблема для бизнеса: Если вы создаёте контент для глобальной аудитории, непонятно, какой закон применяется, пока не появятся международные прецеденты.
Стиль-кража и Greg Rutkowski: новый фронт
Польский цифровой художник Грег Рутковски стал символом проблемы «стилевого копирования». Анализ конца 2022 года показал: его имя появлялось в промптах Stable Diffusion более 93 000 раз. Его фирменный стиль фэнтези-арта стал воспроизводим любым пользователем, набравшим «in the style of Greg Rutkowski».
Может ли стиль быть защищён копирайтом? Короткий ответ — нет. Норман Рокуэлл не мог бы подать в суд на каждого, кто рисует в его манере.
Но вот где начинается опасная территория: если ИИ генерирует не просто «похожее по стилю», а нечто, имеющее substantial similarity (существенное сходство) с конкретной защищённой работой, — это уже потенциальное нарушение.
Именно это произошло в кейсе Onchain Journals. Адвокат фотографа не аргументировал «кражу стиля» — он утверждал, что ИИ-обложка является derivative work (производным произведением) от конкретной фотографии. И доказательств сходства было достаточно, чтобы урегулирование стало единственным практичным решением.
Индустрия лицензирования: от войны к сделкам
2025 год показал: ИИ-компании осознают, что fair use defense недостаточна в качестве долгосрочной стратегии. Формируется полноценный рынок лицензирования тренировочных данных.
Ключевые сделки:
| Компания | Партнёр | Сумма / Условия |
|---|---|---|
| OpenAI, Google | ~$70 млн/год от ИИ-лицензирования | |
| Shutterstock | Несколько ИИ-компаний | $104 млн от AI deals (2024) |
| OpenAI | Financial Times | Лицензионная сделка, апрель 2024 |
| OpenAI | Vox Media | Лицензионная сделка, май 2024 |
| OpenAI | The Atlantic | Лицензионная сделка, май 2024 |
| OpenAI | AP | Лицензионная сделка, 2024–2025 |
| Лицензионная сделка, февраль 2024 | ||
| Warner Music | Suno, Udio | Settlement + opt-in лицензирование для артистов (конец 2025) |
| UMG | Udio | Settlement + лицензия; новый сервис с 2026 |
Музыкальная индустрия задаёт модель: сначала иск, потом лицензионное соглашение с opt-in механизмом для артистов. Модели, обученные без лицензий, выводятся из эксплуатации.
Контекст: Google уже заплатил штраф €250 млн во Франции (март 2024) за тренировку Gemini на новостных статьях без разрешения. Anthropic опубликовал Works List из 500 000+ книг, использованных в тренировке Claude. OpenAI оценивается в $500 миллиардов (сентябрь–октябрь 2025) — и это объясняет, почему правообладатели ведут борьбу так агрессивно.
Что делать уже сейчас: практический чеклист
Для креаторов
- Не предполагайте владение. ИИ-output без существенного человеческого вклада = public domain в США. Для высокорисковых проектов оцените, оправдывает ли экономия времени юридическую экспозицию.
- Документируйте процесс. Сохраняйте промпты, итерации, версии. Кейс Kent Keirsey доказал: видео рабочего процесса с 35 правками может стать решающим аргументом при регистрации копирайта.
- Добавляйте human creative input. Не ограничивайтесь генерацией — трансформируйте, перерисовывайте ключевые элементы, комбинируйте выходы. Незначительная цветокоррекция (как в кейсе Onchain Journals) недостаточна.
- Раскрывайте использование ИИ клиентам. В ЕС и Китае это юридическое требование. Даже где это не обязательно — клиент, узнавший о cease-and-desist из письма адвоката, а не от вас, будет чувствовать себя обманутым.
- Регистрируйте копирайт. В США только зарегистрированные работы дают право на компенсацию в рамках settlement.
Для бизнеса
- Проведите аудит ИИ-инструментов. Какие инструменты используют сотрудники? Делятся ли они конфиденциальными данными с публичными моделями?
- IP-индемнификация в вендорских контрактах. OpenAI и Microsoft предлагают enterprise-индемнификацию от IP-исков; Midjourney и многие другие — нет. Сравнивайте поставщиков.
- Процессы проверки output. Обязательная проверка до публикации: детектирование плагиата, обратный поиск изображений, сканирование лицензий для кода.
- Готовность к discovery. Суды уже требуют раскрытия логов ИИ-систем (20 млн записей в деле NYT v. OpenAI). Сохраняйте документацию об использовании ИИ.
Для ИИ-компаний
- Провенанс данных — решающий фактор. Пиратские источники (Library Genesis, Z-Library, Sci-Hub, Books3) создают ответственность даже при признании fair use для самой тренировки.
- Лицензируйте проактивно — это дешевле, чем settlement. Anthropic заплатил $1,5 млрд; упреждающее лицензирование обходится на порядки дешевле.
- Готовность к discovery — логи тренировки, промпты, внутренние данные — всё подлежит раскрытию в суде.
Страхование
Стандартное страхование ответственности обычно не покрывает IP-претензии. Рассмотрите E&O insurance (страхование профессиональных ошибок и упущений), специально покрывающее AI-related IP claims.
Источники
- Onchain Journals. “I Thought AI Output Was Free to Use. I Was Wrong.” Medium / Age of Awareness, December 7, 2025.
- Madigan, K. “AI Copyright Lawsuit Developments in 2025.” Copyright Alliance, January 8, 2026.
- Atrizadeh, S. “The Year in AI Law: 2025’s Biggest Legal Cases and What They Mean for 2026.” Internet Lawyer Blog, December 29, 2025.
- Brown, D.L. “AI War in the Courtroom: Copyright Disputes Spike in 2025.” Best Law Firms, December 12, 2025.
- Martensen IP. “A Practical Guide to Generative AI Copyright Risk.” Martensen IP, November 12, 2025.
- Epstein, M.O. et al. “Copyright Office Publishes Report on Copyrightability of AI-Generated Materials.” Skadden, February 4, 2025.
- Dilmegani, C. “Generative AI Copyright.” AIMultiple, January 21, 2026.
- Bondari, N. / Sinai, T. “AI, Copyright, and the Law.” USC IPTLS / Darrow AI, February–April 2025.