В начале августа Apple сообщила о том, что развернет новую систему NeuralHash, в США. Её задача — проверять iCloud пользователей, нет ли там запрещенного сексуального контента с детьми. Проект сильно критиковали эксперты по безопасности. Несмотря на то, что система обещает проверять фото только на определенную тематику, попытки обезличить анализ фото не отменяют главной проблемы — самого факта постоянного доступа к пользовательским файлам, отмечали специалисты.
В итоге сегодня компания сделала заявление:
В прошлом месяце мы объявили о планах внедрить функции, призванные помочь защитить детей от преследователей, которые используют средства коммуникации для привлечения и эксплуатации, и ограничить распространение материалов для сексуального насилия над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили, что нам нужно ещё несколько месяцев, чтобы собрать информацию и внести улучшения, прежде чем выпустить эти критически важные функции безопасности детей.
Apple
При этом компания не рассказала, с кем именно будет консультироваться по поводу внедрения новой системы, а также какую именно информацию соберет Apple.
Первоначально Apple объявила о нововведении 5 августа 2021 года, заявив, что они появятся позже в 2021 году. Новые функции включают обнаружение изображений сексуального насилия над несовершеннолетними, которые хранятся в iCloud Photos, и, отдельно, блокировку потенциально опасных сообщений, отправляемых детям.
Эксперты отрасли и известные имена, такие как Эдвард Сноуден, ответили на инициативу, отправив открытое письмо, в котором просили Apple не реализовывать эти функции. Эксперты считают, что функции могут использоваться для наблюдения за пользователями.
Читать далее
Ученые три года не могут поймать лиса Рэмбо. Он мешает выпустить в лес редких животных
Криптохудожники расскажут, как создавать NFT-искусство и коллекционировать криптоарт
Посмотрите на тяжелый ударный беспилотник, который несет оружие весом в тонну