В США предложен законопроект о раскрытии авторских прав для компаний ИИ

СуперСнимки
Подписчиков: 177
Перейти
Тайны и загадки Земли
Подписчиков: 417
Перейти
Новости звезд Голливуда
Подписчиков: 4
Перейти
Хроники нашей цивилизации
Подписчиков: 79
Перейти
Дух сайта
2026-03-16 15:45:24 +0100

В Конгрессе США был представлен двупартийный законопроект, который обязывает компании в области технологий раскрывать информацию о том, какие охраняемые авторским правом материалы они используют для обучения своих систем ИИ. Это может оказать значительное влияние на фотографов и создателей контента.

Сенаторы Адам Шифф от демократов и Джон Кертис от рRepublicans представили Закон о маркировке авторских прав и этическом отчетности в области ИИ, известный как Закон CLEAR. Предлагаемое законодательство потребует от компаний, занимающихся разработкой моделей ИИ, сообщать о том, когда охраняемые авторским правом материалы используются для обучения этих систем.

Если законопроект будет принят, это может повысить прозрачность относительно материалов, используемых для обучения генеративным системам ИИ, включая охраняемые фотографии. Закон CLEAR создаст обязательные требования к отчетности для разработчиков систем ИИ, которые используются для обучения на работах, защищенных авторским правом в США.

Компании будут обязаны представить уведомление в Бюро авторских прав, указывая охраняемые работы, использованные в обучающих наборах данных для своих моделей ИИ. Законодательство также потребует от компаний подать уведомление до выпуска новой модели ИИ для широкой публики, а также применяться с обратной силой для систем, которые уже доступны.

Учитывая это, компании должны будут подать уведомление не менее чем за 30 дней до коммерческого выхода генеративной системы ИИ. Для систем, уже доступных до вступления закона в силу, у компаний будет 30 дней на подачу уведомления после того, как Бюро авторских прав США установит правила раскрытия.

Бюро авторских прав США также будет обязано создать и поддерживать общедоступную базу данных, содержащую все уведомления. Это позволит общественности видеть, какие охраняемые работы были использованы для обучения конкретных моделей ИИ. Компании, которые не соблюдают требования к отчетности, могут столкнуться с гражданскими штрафами.

Законопроект также создаст дополнительную юридическую возможность для правообладателей. Владельцы прав смогут подать иски против разработчиков ИИ, которые не предоставили требуемое уведомление о том, что их работы были использованы в обучающих наборах данных.

«Хотя ИИ имеет потенциал улучшать нашу жизнь и менять то, как мы работаем и инновируем, нам нужен единый подход к внедрению мер безопасности, которые защитят работу и средства к существованию всех работников, включая артистов и создателей», — отметила Шифф.

«Конгресс должен помочь содействовать инновациям в области ИИ, но не без прозрачности и ответственности», — добавил Кертис. «Закон CLEAR находит правильный баланс, защищая интеллектуальную собственность создателей и создавая четкие ожидания для компаний. Прозрачность в том, как модели генеративного ИИ обучаются, поможет выстроить доверие общественности к новым технологиям и поддержать лучшее из американского творчества».

16 просмотров 0 комментариев 0 оценок

КОММЕНТАРИИ 0 Чтобы писать комментарии, пожалуйста авторизуйтесь или зарегистрируйтесь