;
Кейсы 9 августа 2021

Apple будет искать запрещенный контент в фотографиях пользователей: как это будет работать

Далее

Стало известно, что Apple будет сканировать фотографии пользователей на наличие запрещенного контента. Объясняем, как это будет работать и как к новой функции относятся эксперты по кибербезопасности и конфиденциальности.

С чего все началось?

Большинство облачных сервисов — Dropbox, Google, Microsoft и многие другие — уже сканируют пользовательские файлы на предмет содержания, которое может нарушать их условия обслуживания или быть потенциально незаконным, например, CSAM. Но Apple долгое время сопротивлялась сканированию файлов пользователей в облаке, давая им возможность шифровать свои данные до того, как они попадут на серверы Apple iCloud.

Apple развернет новую систему, которая называется NeuralHash, в США. Она появится в iOS 15 и macOS Monterey, выпуск которых запланирован на ближайшие месяц или два. Будет ли система развернута на международном уровне и когда, неизвестно. До недавнего времени такие компании, как Facebook, были вынуждены отключить свои инструменты обнаружения жестокого обращения с детьми по всему Европейскому Союзу. 

Как это будет работать?

Начнем в том, что в США есть специальная база изображений, ее собирают NCMEC и другие организации. NCMEC, или National Center for Missing & Exploited Children — это Национальный центр пропавших и эксплуатируемых детей, частная некоммерческая организация, созданная в 1984 году Конгрессом США. Стоит отметить, что Apple получает не сами изображения, а их хэши. Это специально сгенерированные строки, которые будут одинаковыми для одинаковых изображений и разными для разных, объясняет «Т — Ж».

Стоит отметить: особенность хэшей в том, что они не позволяют целиком восстановить исходный файл. Однако они дают возможность сравнить хэши двух файлов между собой. При этом алгоритм, который применяется в процессе, устойчив к манипуляциям с фотографиями. Что это значит? Например, даже если на фотографии поменять цвета или размер снимка, его хэш будет таким же, как у исходного файла.

Аналогичные хэши iPhone независимо от Apple вычисляет для всех фотографий пользователя. Алгоритм учитывает не конкретные пиксели, а именно содержание изображения.

Чтобы анализ сработал, «яблочные» устройства пользователей сами загрузят в iCloud вместе с фотографиями и ваучеры безопасности — в них будет храниться хэш фотографии и ее визуальная производная. При этом, Apple не объясняет, что это за производная. Скорее всего, это фрагмент снимка или его обработанная версия, которую при последних этапах анализа будет рассматривать сотрудник компании.

В ваучерах безопасности также будут храниться фрагменты специального ключа шифрования. При этом он генерируется на устройстве и с самого начала неизвестен Apple. Этим ключом зашифрованы хэш и визуальная составляющая снимка. Кстати, чтобы расшифровать данные, необходимо получить несколько фрагментов такого ключа.

Forbes отмечает, что всего одного совпадения хэша из галереи пользователя с хэшем из базы изображений со сценами насилия над детьми недостаточно, чтобы делать однозначные выводы. Чтобы избежать «ложного срабатывания», Apple устанавливает минимальное количество совпадений, которое необходимо, чтобы «дать делу ход». При этом количество таких совпадений неизвестно.

Если число совпадений будет достаточным, а также если хэш полностью идентичен (фотография действительно совпадает со снимком из базы), то расшифровка пройдет успешно. Если же хэш отличается, значит, картинка в базе NCMEC не найдена, и расшифровать «ваучер» не получится. То есть, как уверяет Apple, компания не получит доступ к фото, пока не найдет аналогичного в базе, отмечает «Медиазона».

Критика проекта

Специалисты по кибербезопасности предсказуемо встретили инициативу Apple с возмущением: многочисленные попытки обезличить анализ фото не отменяют главной проблемы — самого факта постоянного доступа к пользовательским файлам. Даже если файлы, которые анализирует алгоритм, загружаются в облачное хранилище, фактически пользователь не делится ими ни с кем.

Мэтью Грин, исследователь безопасности в Университете Джона Хопкинса, заявил Reuters, что желание Apple создать системы, сканирующие телефоны пользователей iPhone на предмет «запрещенного контента», может «сломать дамбу» и привести к тому, что правительство США «потребует этого от всех». Он также сказал Associated Press, что есть опасения, что на Apple может оказать давление со стороны других международных правительств, чтобы они сканировали для получения другой информации. Исследователь сообщил о новой технологии одним из первых в серии твитов.

Независимо от того, каковы долгосрочные планы Apple, они посылают очень четкий сигнал. По их (очень влиятельному) мнению, создавать системы, сканирующие телефоны пользователей на предмет запрещенного контента, безопасно. Такой сигнал они посылают правительствам, конкурирующим сервисам, Китаю, вам лично. Окажутся они правы или нет в этом вопросе, едва ли важно. Отныне ничего святого, теперь правительства [разных стран] будут требовать того же ото всех, а когда мы поймем, что это была ошибка, будет слишком поздно.

Мэтью Грин, профессор Университета Джонса Хопкинса

Зачем это надо?

В прошлом году Министерство юстиции США опубликовало набор «добровольных принципов», цель которых — заставить технологические компании, занимающиеся социальными сетями, делать больше для борьбы с сексуальной эксплуатацией и надругательством над детьми. Ведомство призвало компании создать тщательную систему для выявления и принятия немедленных мер против незаконного контента и сообщения о нем властям. Например, Microsoft уже создала photoDNA, чтобы помочь компаниям идентифицировать изображения сексуального насилия над детьми в интернете. У Facebook и Google уже есть системы для проверки потенциально незаконного контента. Также Facebook заявила, что работает над новыми инструментами, чтобы уменьшить распространение изображений сексуального насилия над детьми на своей платформе.

Согласно отчету Национального совета США по пропавшим без вести и эксплуатируемым детям, Facebook сообщил правоохранительным органам в 2020 году о 20 млн изображениях со сценами сексуального насилия над детьми. В это число входят отчеты как с платформ Facebook, так и с Instagram. В 2019 году таких фотографий было 16 млн.


Читать далее

Замедление вращения Земли вызвало выброс кислорода на планете

Астрономы заметили в далеком космосе необычные структуры

Посмотрите на наскальное искусство неандертальцев, которому более 60 тыс. лет

Загрузка...