ИИ поможет решить проблемы конфиденциальности, которые сам же и создал

Невероятные успехи искусственного интеллекта не были бы достигнуты без наличия огромного количества данных. А распространение ИИ в маркетинге и самообслуживании транспортных средств способствовало сбору все большего количества данных. Широкий спектр информации, порой конфиденциальной, собирается в огромные базы. Все это делает их заманчивыми целями, повышая риск нарушения конфиденциальности, сообщает The Conversation.

Распространение ИИ порождает ряд проблем с конфиденциальностью, о которых люди могут даже не знать. С другой стороны, он может помочь исправить ситуацию с проблемами конфиденциальности, уверяют эксперты по кибербезопасности Чжуюань Чэнь и Арья Гангопадхяй.

Риски секретности от ИИ проистекают не только из-за массового сбора персональных данных, но и из самих моделей глубоких нейронных сетей, которые обеспечивают большую часть современного искусственного интеллекта. Данные уязвимы не только из-за атак на базы данных, но и из-за «утечек» в моделях, на которых они были обучены.

Глубокие нейронные сети, представляющие собой совокупность алгоритмов, предназначенных для определения паттернов в данных, состоят из многих слоев. В этих слоях находится большое количество узлов, называемых нейронами, и нейроны из соседних слоев взаимосвязаны с ними. Каждый узел, а также ссылки между ними, кодируют определенные биты информации. Эти биты информации создаются, когда специальный процесс сканирует большие объемы данных для обучения модели.

Например, алгоритм распознавания лиц может быть обучен на серии селфи, чтобы он мог более точно предсказать пол человека. Такие модели очень точны, но они также могут хранить слишком много информации — фактически запоминая определенные лица в процессе обучения. Злоумышленники могут идентифицировать людей по данным обучения, исследуя глубокие нейронные сети, которые классифицируют пол на изображенном лице.

Одним из методов защиты, который придумали эксперты по машинному обучению, было добавление неопределенности в модели ИИ. Это было сделано, чтобы злоумышленники не могли точно предсказать, что будет делать модель. Будет ли он сканировать определенную последовательность данных? Или он запустит песочницу? В идеале вредоносная программа не будет знать и невольно разоблачит свои мотивы.

Другой способ улучшить конфиденциальность ИИ — исследовать уязвимости глубоких нейронных сетей. Ни один алгоритм не идеален, и эти модели уязвимы. Причина в том, что они очень чувствительны к небольшим изменениям в данных, которые читают.

Эти уязвимости могут быть использованы для улучшения конфиденциальности путем добавления «шума» в личные данные. Например, исследователи из Института информатики Планка в Германии разработали способы преобразования изображений Flickr в программное обеспечение для распознавания лиц. Изменения невероятно тонки, настолько, что их невозможно обнаружить человеческим глазом.

Еще один способ, которым ИИ может помочь смягчить проблемы с защитой информации — сохранить конфиденциальность данных при построении моделей. Одна из многообещающих разработок называется федеративным обучением. Именно его Google использует в своей интеллектуальной клавиатуре Gboard, чтобы предсказать, какое слово ввести следующим. Федеративное обучение строит окончательную глубокую нейронную сеть из данных, хранящихся на многих различных устройствах, а не в одном центральном хранилище данных. Основное его преимущество в том, что исходные данные никогда не покидают локальные устройства. Таким образом, конфиденциальность в некоторой степени все же защищена. Да, это не идеальное решение. Хотя локальные устройства выполняют некоторые вычисления, они не заканчивают их. Промежуточные результаты могут раскрыть некоторые данные об устройстве и его пользователе.

Федеративное обучение дает представление о будущем, в котором ИИ более уважительно относится к частной жизни. Продолжающиеся исследования могут найти больше способов, в которых ИИ станет частью решения, а не источником проблем с конфиденциальностью.

Читать также

Посмотрите, какие органы коронавирус атакует первыми и как это происходит

Кем был первый организм на Земле? Забудьте все, что знали о зарождении жизни

Посмотрите фотографии затмения, которые сняли по всему миру


Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Больше миллиона Гбит в секунду: японцы побили рекорд скорости передачи данных по оптоволокну
Новости
Хаос во благо: физики создали новый инструмент для квантового мира
Наука
Hugging Face выпустила недорогих человекоподобных роботов с открытым кодом
Новости
Китайский аккумулятор для электромобиля выдержал наезд 36-тонного танка
Новости
Воспитанники детских домов изучат основы работы с нейросетями
Новости
Четвероногий робот из Цюриха научился играть в бадминтон с людьми
Новости
В MIT раскрыли механизм набора веса из-за жирной пищи и как обратить его вспять
Наука
60 000 лет рядом: ученые выяснили, кто стал первым паразитом человека
Наука
Ректора Университета Иннополис избрали членом-корреспондентом РАН
Иннополис
В Корее робопса научили паркуру и бегу по стенам: посмотрите, что он может
Новости
Древний череп «человека-муравья» нашли в Аргентине
Наука
На селфи марсохода попал неожиданный объект: его заметили не сразу
Космос
Посмотрите на двух морских коньков, которых застукали за «поцелуем» в океане
Наука
Почти 10 000 роутеров Asus тайно заразили: как проверить свой и защититься
Новости
Ракета будет доставлять товары с AliExpress за час по всему миру: ее испытали в Китае
Новости
В России пригрозили «душить» иностранные сервисы: кто в опасности
Новости
Boston Dynamics усовершенствовала систему восприятия гуманоидного робота Atlas
Новости
Наклейка на лоб анализирует мозговые волны и предсказывает переутомление
Наука
Посмотрите на робота-трансформера, который меняет форму прямо в полете
Новости
Китай отправил миссию за образцами горных пород с квазиспутника Земли
Космос