Тысячи жертв сексуального насилия подали коллективный иск против Apple, обвиняя компанию в неспособности сделать достаточно для предотвращения хранения и распространения материалов о сексуальном насилии над детьми (CSAM) в ее облачном сервисе хранения iCloud.
В интервью Одна из фигурантов иска, 27-летняя женщина, подвергшаяся насилию в детстве, рассказала New York Times, что ее родственник использовал iCloud для съемки видео и распространения изображений в Интернете. Она продолжает получать уведомления от правоохранительных органов о том, что этот материал до сих пор находят на различных устройствах.
В 2021 году Apple представила программу обнаружения CSAM. Используя технологию NeuralHash, компания планировала идентифицировать такие изображения в iCloud, но отказалась от программы из-за опасений правозащитников и экспертов по конфиденциальности, которые предупредили о рисках неправомерного использования. Истцы утверждают, что прекращение программы представляет собой «намеренное игнорирование безопасности детей».
В иске, поданном в Окружной суд США в Северной Калифорнии, утверждается, что Apple нарушила свои обещания защитить таких жертв, отказавшись от системы NeuralHash. В иске также утверждается, что Apple продает дефектную продукцию, которая наносит вред жертвам сексуального насилия над детьми. Компания кратко представила «получившие высокую оценку улучшенные разработки для защиты детей», но затем не смогла реализовать эти разработки или принять меры по обнаружению и ограничению CSAM.
Целью иска является изменение практики Apple и выплата компенсации потенциальной группе из 2680 жертв. По закону жертвы сексуального насилия над детьми имеют право на минимальную компенсацию в размере 150 000 долларов США. Это означает, что если суд признает Apple виновной, общая сумма иска с учетом обычного утроения ущерба может превысить 1,2 миллиарда долларов.
В течение многих лет Apple сообщала о меньшем количестве обнаружений CSAM, чем ее конкуренты, фиксируя лишь небольшую часть того, что обнаруживают Google и Facebook. В компании пояснили, что защищают конфиденциальность пользователей, поэтому ее доля обнаруженных материалов CSAM невелика. Однако правозащитники критикуют компанию за то, что она не делает больше для предотвращения распространения подобных материалов.