Исследователи Университета Иллинойса объяснили, что один из самых больших недостатков обучения ИИ — последующая уязвимость модели к хакерским атакам. При этом большинство атак приходится на системы распознавания образов или реконструкции изображений. Это вызывает тревогу у чиновников, которые работают в сфере здравоохранения, где метод часто используется для реконструкции медицинских изображений. Если ИИ получит неправильное изображение, то он может ошибочно поставить диагноз пациенту.
Поэтому ученые предложили новый метод обучения систем глубокого обучения, чтобы сделать их более отказоустойчивыми и надежными в тех случаях, которые являются критическими с точки зрения безопасности.
Для этого ученые соединили нейронную сеть, отвечающую за восстановление изображений, с моделью, которая генерирует состязательные примеры (изображения, где меняется небольшая часть оригинала). Во время обучения один ИИ пытался обмануть другой, показывая ему картинки, которые незначительно отличаются от оригинала. Модель реконструкции же постоянно анализировала картинки и пыталась определить, оригинал это или отредактированная картинка.
В результате сеть нашла все отредактированные фотографии — этот результат лучше, чем у других нейронных сетей. Во время экспериментов ученые попытались вручную взломать систему и показать ей сотни версий отредактированных изображений, но все из них были отклонены.
Читать также:
Комета NEOWISE видна в России. Где ее увидеть, куда смотреть и как сделать фото
Выяснилось, что заставило цивилизацию майя покинуть свои города
На 3 день болезни большинство больных COVID-19 теряют обоняние и часто страдают насморком