Компания Apple оказалась в центре судебного разбирательства из-за отказа от реализации функции обнаружения материалов сексуального насилия в отношении детей (CSAM) в своем облачном сервисе iCloud. Эта история вызвана, в частности, необходимостью защиты прав детей и обеспечения безопасности пользователей.
Apple подала в суд за то, что отказалась от планов по сканированию фотографий iCloud на предмет материалов сексуального насилия в отношении детей, сославшись на проблемы безопасности и конфиденциальности.
Технологический гигант тихо отложил свой спорный план в декабре 2021 года, но теперь enfrenta иска, который утверждает, что Apple заставила жертв переживать свои травмы снова.
Изначально Apple объявила о добавлении функции сканирования CSAM во все свои устройства в августе 2021 года. Однако после сильной критики со стороны пользователей и экспертов в области конфиденциальности, компания признала, что внесла «смешение», и выпустила научный труд, который должен был лучше объяснить ее план по сканированию библиотек фотографий на наличие CSAM. Однако в конечном итоге проект так и не был реализован.
Согласно данным, иск был подан 27-летней женщиной в Федеральном суде Северного округа Калифорнии. Она утверждает, что ее родственник изнасиловал ее в детстве и делился ее изображениями в интернете. Женщина говорит, что полиция регулярно связывается с ней, даже почти каждый день, чтобы сообщить, что люди по-прежнему привлекаются к ответственности за владение этими изображениями.
По словам истца, отсутствие у Apple системы обнаружения CSCM означает, что компания продает дефективные продукты, которые наносят вред жертвам сексуального насилия над детьми. Иск требует изменить политику Apple и компенсировать группу из 2,680 жертв, которые считаются имеющими право на эти выплаты. Каждому из них положено не менее $150,000, что может означать для компании потенциальные убытки в размере $1.2 миллиарда, если присяжные признают ее виновной.
Apple, сообщается, выявляет меньше случаев CSAM, чем Facebook и Google, но защищает свою практику, ссылаясь на конфиденциальность пользователей. Группы за безопасность детей подвергли критике такую позицию компании.
В своем заявление Apple заявила, что «срочно и активно разрабатывает способы борьбы с этими преступлениями, не нарушая безопасности и конфиденциальности всех наших пользователей». Это дело поднимает важные вопросы о балансе между защитой детей и уважением к правам пользователей, что является актуальной темой как для профессионалов в фотографии, так и для широкой общественности.