Распространение ИИ порождает ряд проблем с конфиденциальностью, о которых люди могут даже не знать. С другой стороны, он может помочь исправить ситуацию с проблемами конфиденциальности, уверяют эксперты по кибербезопасности Чжуюань Чэнь и Арья Гангопадхяй.
Риски секретности от ИИ проистекают не только из-за массового сбора персональных данных, но и из самих моделей глубоких нейронных сетей, которые обеспечивают большую часть современного искусственного интеллекта. Данные уязвимы не только из-за атак на базы данных, но и из-за «утечек» в моделях, на которых они были обучены.
Глубокие нейронные сети, представляющие собой совокупность алгоритмов, предназначенных для определения паттернов в данных, состоят из многих слоев. В этих слоях находится большое количество узлов, называемых нейронами, и нейроны из соседних слоев взаимосвязаны с ними. Каждый узел, а также ссылки между ними, кодируют определенные биты информации. Эти биты информации создаются, когда специальный процесс сканирует большие объемы данных для обучения модели.
Например, алгоритм распознавания лиц может быть обучен на серии селфи, чтобы он мог более точно предсказать пол человека. Такие модели очень точны, но они также могут хранить слишком много информации — фактически запоминая определенные лица в процессе обучения. Злоумышленники могут идентифицировать людей по данным обучения, исследуя глубокие нейронные сети, которые классифицируют пол на изображенном лице.
Одним из методов защиты, который придумали эксперты по машинному обучению, было добавление неопределенности в модели ИИ. Это было сделано, чтобы злоумышленники не могли точно предсказать, что будет делать модель. Будет ли он сканировать определенную последовательность данных? Или он запустит песочницу? В идеале вредоносная программа не будет знать и невольно разоблачит свои мотивы.
Другой способ улучшить конфиденциальность ИИ — исследовать уязвимости глубоких нейронных сетей. Ни один алгоритм не идеален, и эти модели уязвимы. Причина в том, что они очень чувствительны к небольшим изменениям в данных, которые читают.
Эти уязвимости могут быть использованы для улучшения конфиденциальности путем добавления «шума» в личные данные. Например, исследователи из Института информатики Планка в Германии разработали способы преобразования изображений Flickr в программное обеспечение для распознавания лиц. Изменения невероятно тонки, настолько, что их невозможно обнаружить человеческим глазом.
Еще один способ, которым ИИ может помочь смягчить проблемы с защитой информации — сохранить конфиденциальность данных при построении моделей. Одна из многообещающих разработок называется федеративным обучением. Именно его Google использует в своей интеллектуальной клавиатуре Gboard, чтобы предсказать, какое слово ввести следующим. Федеративное обучение строит окончательную глубокую нейронную сеть из данных, хранящихся на многих различных устройствах, а не в одном центральном хранилище данных. Основное его преимущество в том, что исходные данные никогда не покидают локальные устройства. Таким образом, конфиденциальность в некоторой степени все же защищена. Да, это не идеальное решение. Хотя локальные устройства выполняют некоторые вычисления, они не заканчивают их. Промежуточные результаты могут раскрыть некоторые данные об устройстве и его пользователе.
Федеративное обучение дает представление о будущем, в котором ИИ более уважительно относится к частной жизни. Продолжающиеся исследования могут найти больше способов, в которых ИИ станет частью решения, а не источником проблем с конфиденциальностью.
Читать также
Посмотрите, какие органы коронавирус атакует первыми и как это происходит
Кем был первый организм на Земле? Забудьте все, что знали о зарождении жизни
Посмотрите фотографии затмения, которые сняли по всему миру