Когда люди загружают фотографии или видео с собой и другими людьми в социальные сети, системы распознавания лиц узнают о нашей внешности и ее уникальных особенностях все больше. Алгоритмы нейронных сетей поглощают данные о том, как выглядит человек, где находится, какие люди нас окружают, и таким образом постоянно совершенствуются.
Чтобы обезопасить данные из социальных сетей, получаемые из изображений, исследователи U of T Engineering во главе с профессором Пархамом Аараби и аспирантом Авишеком Босе создали алгоритм для динамического разрушения систем распознавания лиц.
По словам Аараби, личная конфиденциальность — реальная проблема, потому что распознавание лиц становится все лучше. Исследователи просто придумали способ, с помощью которого можно помешать распознаванию, запоминанию и анализу лиц людей.
Ученые использовали глубокую методику обучения — состязательную тренировку — в которой два алгоритма ИИ противостоят друг другу. Одна нейросеть ученых работала для идентификации, вторая — пыталась нарушить распознавание лиц. Результатом является Instagram-подобный фильтр, который можно применять к фотографиям для защиты конфиденциальности. Его алгоритм изменяет конкретные пиксели на изображении, делая изменения, которые почти незаметны для человеческого глаза.
Аараби и Босе проверили систему на 600 людях разной этнической принадлежности с их фотографиями в разных условиях освещенности и окружающей среды. В итоге их система может уменьшить долю определения лиц, которые были первоначально обнаружены, со 100 % до 0,5 %.
В дополнение к отключению распознавания лиц новая технология также нарушает поиск на основе изображений, идентификацию лиц, оценку эмоций и этнической принадлежности и все другие атрибуты на основе внешности и мимики, которые могут быть извлечены автоматически. В скором времени ученые хотят сделать свою разработку общедоступной.