Писателей и композиторов предложили защитить от посягательств ИИ
Авторам могут дать возможность запрещать использование их произведений для обучения нейросетей
Авторы и правообладатели художественных произведений — книг, музыкальных композиций, песен — могут получить возможность устанавливать на свой контент специальные цифровые метки, которые не позволят использовать их труд для обучения моделей искусственного интеллекта. С таким предложением представителей креативной экономики согласились в Минцифры. Разработанный Правительством законопроект об ИИ предполагает возможность обучения моделей на открытой информации без автоматического нарушения авторских прав, а творцы рассчитывают на вознаграждение за сотрудничество с ИИ. В ситуации разбиралась «Парламентская газета».
ИИ штурмует чарты
Разработанный Правительством законопроект о регулировании в России искусственного интеллекта активно обсуждают на различных площадках. Несмотря на то, что документ анонсировали как рамочный и базовый и еще не внесли в Госдуму, эксперты уже сформулировали ряд претензий и поправок к нему. С некоторыми из них в кабмине согласились и уже доработали первоначальную версию. В частности, в обновленном тексте сняты жесткие ограничения по данным для обучения моделей. Разработчики смогут использовать любые доступные датасеты. Скорректировали подход к использованию публичных данных, закрепив возможность обучения моделей на открытой информации без автоматического нарушения авторских прав.
Последнее не понравилось создателям оригинального контента — композиторам, писателям, исполнителям, чей труд защищает законодательство об авторском праве. Уже сегодня половина от всех загрузок музыки на стриминговые платформы составляет сгенерированный контент, он же занимает 20 процентов мест в чартах. Такую статистику 28 апреля на круглом столе в Совете Федерации привел глава Национальной федерации музыкальной индустрии (НФМИ) Никита Данилов.
«Видим риски для креативной экономики, — сказал он. — Разработчики ИИ-систем смогут безвозмездно и без согласия субъектов креативной экономики обучать ИИ-модели на объектах интеллектуальной собственности, а затем на основе произведенного обучения создавать собственный контент с целью его последующей монетизации».
Возможен ли баланс
В НФМИ сослались на опыт регулирования ИИ в других странах. В Китае, к примеру, четко указано, что сервисы не должны нарушать интеллектуальные права, а образы артистов защищаются. В Казахстане использование произведений для обучения ИИ не относится к случаям свободного использования произведения в образовательных или научных целях.
Похожий подход планируют применять в России, сообщил директор правового департамента Минцифры Роман Кузнецов. У авторов появится возможность включать в свои произведения машиночитаемый запрет на их использование для обучения ИИ. Кузнецов отверг претензию главы НФМИ о зарождающейся «новой форме цифрового пиратства», объяснив, что пират — тот, кто копирует ранее созданное произведение и выдает его за свое, а нейросети, как и обычные композиторы и писатели, вдохновляются творчеством своих предшественников и на его основе создают что-то новое. «Идею нельзя запретить», — заключил представитель Минцифры.
Внимательнее отнестись к обсуждаемой проблеме, тем более что в мировой практике есть примеры ее решения, призвал член Комитета Совфеда по экономической политике Иван Евстифеев. «Нельзя обижать авторов, — сказал он. — Предполагаемый срок вступления в силу закона об ИИ — 1 сентября 2027 года. У нас еще есть время, чтобы доработать документ. Наша задача — услышать всех и найти баланс, чтобы не задушить развитие технологий и установить понятные для всех правила игры».
Маркировке не хватает технологии
Еще одна тема, которая волнует IT-гигантов, внедряющих в своих продуктах искусственный интеллект, касается маркировки сгенерированного контента. Она, согласно законопроекту кабмина, должна быть машиночитаемой. То есть площадки, где такой контент размещается, будут считывать маркировку и затем размещать ее для информирования пользователей. А процесс выявления дипфейков, не маркированных соответствующим образом, будет идти параллельно.
Технологии маркировки — это отдельная высокофинансовоемкая индустрия. Модерацию и маркировку могут позволить только крупные компании, отметила замдиректора проекта в сфере кибербезопасности Александра Шадюк. Блогеры и СМИ, по ее словам, к этому не готовы: ни денег, ни технологий, ни экспертизы для этого у них нет. «Соцсети должны осуществлять ежесекундную модерацию контента, но технологий распознавания у них нет, и даже судебная экспертиза не может на сто процентов определить дипфейк», — заключила эксперт, предложив рассмотреть маркировку только в рамках эксперимента.
Сенатор Иван Евстифеев такой подход поддержал, предложив использовать технологию экспериментального правового режима (ЭПР) там, где есть риски. Он также добавил, что в особо чувствительных сферах, таких как медицина и безопасность, необходим особый подход, то есть детальный разбор предлагаемой для использования ИИ-модели. В остальных случаях можно применять типовую оценку, что позволит ускорить вывод на рынок новых продуктов.
Ещё материалы: Иван Евстифеев






