На Apple подали в суд за отказ от системы обнаружения CSAM в iCloud

СуперСнимки
Наш телеграм-канал с лучшими фотографиями, статистикой, новостями и анонсами. Подписывайтесь, чтобы ничего не пропустить!
Подписчиков: 1963
Перейти в канал
Дух сайта
2024-12-09 20:15:18 +0100

Компания Apple оказалась в центре судебного разбирательства из-за отказа от реализации функции обнаружения материалов сексуального насилия в отношении детей (CSAM) в своем облачном сервисе iCloud. Эта история вызвана, в частности, необходимостью защиты прав детей и обеспечения безопасности пользователей.

Apple подала в суд за то, что отказалась от планов по сканированию фотографий iCloud на предмет материалов сексуального насилия в отношении детей, сославшись на проблемы безопасности и конфиденциальности.

Технологический гигант тихо отложил свой спорный план в декабре 2021 года, но теперь enfrenta иска, который утверждает, что Apple заставила жертв переживать свои травмы снова.

Изначально Apple объявила о добавлении функции сканирования CSAM во все свои устройства в августе 2021 года. Однако после сильной критики со стороны пользователей и экспертов в области конфиденциальности, компания признала, что внесла «смешение», и выпустила научный труд, который должен был лучше объяснить ее план по сканированию библиотек фотографий на наличие CSAM. Однако в конечном итоге проект так и не был реализован.

Согласно данным, иск был подан 27-летней женщиной в Федеральном суде Северного округа Калифорнии. Она утверждает, что ее родственник изнасиловал ее в детстве и делился ее изображениями в интернете. Женщина говорит, что полиция регулярно связывается с ней, даже почти каждый день, чтобы сообщить, что люди по-прежнему привлекаются к ответственности за владение этими изображениями.

По словам истца, отсутствие у Apple системы обнаружения CSCM означает, что компания продает дефективные продукты, которые наносят вред жертвам сексуального насилия над детьми. Иск требует изменить политику Apple и компенсировать группу из 2,680 жертв, которые считаются имеющими право на эти выплаты. Каждому из них положено не менее $150,000, что может означать для компании потенциальные убытки в размере $1.2 миллиарда, если присяжные признают ее виновной.

Apple, сообщается, выявляет меньше случаев CSAM, чем Facebook и Google, но защищает свою практику, ссылаясь на конфиденциальность пользователей. Группы за безопасность детей подвергли критике такую позицию компании.

В своем заявление Apple заявила, что «срочно и активно разрабатывает способы борьбы с этими преступлениями, не нарушая безопасности и конфиденциальности всех наших пользователей». Это дело поднимает важные вопросы о балансе между защитой детей и уважением к правам пользователей, что является актуальной темой как для профессионалов в фотографии, так и для широкой общественности.

47 просмотров 0 комментариев 0 оценок

КОММЕНТАРИИ 0 Чтобы писать комментарии, пожалуйста авторизуйтесь или зарегистрируйтесь