Индия внедрила новые правила для социальных медиа, обязывая платформы удалять дипфейки и другой незаконный контент, созданный с помощью ИИ, в течение трех часов после получения предписания. Это значительное изменение в работе платформ в одной из крупнейших онлайн-экономик мира.
На днях Индия объявила о правилах, которые требуют от социальных медиа более быстрой реакции на незаконный контент, созданный с помощью искусственного интеллекта, и установила обязательное маркирование всего синтетического контента. Эти правила вступают в силу 20 февраля.
Законодательство может существенно повлиять на то, как компании в области технологий контролируют контент. В Индии насчитывается почти 1,02 миллиарда пользователей интернета и около 500 миллионов уникальных пользователей социальных медиа. Платформы социальных сетей теперь будут обязаны применять технические инструменты для обнаружения и маркировки дипфейков, верификации пользовательских данных и предотвращения создания или распространения запрещенного синтетического контента.
По данным TechCrunch, этот новый мандат является частью ряда изменений в правилах информационных технологий Индии, принятых в 2021 году. Поправки вводят дипфейки в рамки официального регулирования и требуют маркировки и отслеживания синтетического аудио и визуального контента. Время, отведенное платформам для выполнения предписаний, значительно сокращается.
Согласно обновленным правилам, социальные медиа должны реагировать на официальные запросы о удалении контента в течение трех часов. Некоторые срочные жалобы пользователей должны быть рассмотрены вдвое быстрее, за два часа. Это заменяет предыдущее время в 36 часов на удаление незаконного контента. Более короткий срок относится к дипфейкам и другому вредному контенту, созданному с помощью ИИ.
Поправки требуют от цифровых платформ применения "разумных и соответствующих технических мер" для предотвращения создания или распространения незаконного синтетического контента. Если такой контент не блокируется, он должен включать "постоянные метаданные или другие соответствующие механизмы происхождения".
Правила также устанавливают конкретные обязательства для социальных медиакомпаний. Пользователи должны сообщать о том, если контент был создан или изменен с помощью ИИ. Платформы обязаны использовать инструменты для проверки этих заявлений и четко маркировать материалы, созданные ИИ, чтобы пользователи могли сразу распознать их как синтетические. Например, изображения, созданные ИИ, могут быть помечены текстом, указывающим на их подделку.
Некоторые виды синтетического контента подлежат строгому запрету, включая обманчивые имитации, интимные изображения без согласия и материалы, связанные с тяжкими преступлениями. Компании, которые не выполнены требования, особенно если контент был обозначен властями или пользователями, рискуют потерять защиту в соответствии с индийским законодательством, что может увеличить их юридическую ответственность.

