Исследователи OpenAI и Google предложили новый способ обучения искусственного интеллекта. Он позволит застраховать персональные данные от взлома и гарантировать неприкосновенность личной информации.
В разработанной учеными системе обучения ИИ не имеет доступа к персональным данным, но работает так, словно он у него есть, пишет Quartz. Ян Гудфеллоу, исследователь OpenAI, сравнивает этот подход с обучением студентов-медиков: «За десятилетия работы у врачей накапливается много частных медицинских историй. Но они могут делиться знаниями со студентами, даже не рассказывая им эти истории».
В данном случае «студент» это алгоритм, который будет учиться подражать схеме принятия решений у алгоритмов-«учителей», не имея при этом доступа к той информации, которая была у них. «Учителя» существуют только для того, чтобы обучить «студента», дальше имеющаяся у них персональная информация нигде не будут использоваться. У одного алгоритма-«студента» может быть до 250 «учителей».
Вопросы тайны личной жизни и личных данных становится сегодня все более обсуждаемыми. Эксперты предполагают, что некоторые технологии, такие как аутентификация по мозговым импульсам, приведет к краху конфиденциальности. Между тем, новый подход поможет обеспечить своего рода неприкосновенность частной жизни.
Британский парламент призвал готовить школьников к конкуренции с ИИ
Мнения
Такие компании, как Google, смогут использовать эту технологию, к примеру, для обучения алгоритмов по распознаванию изображений. Современные исследователи так продвинулись в вопросе machine learning, что, по мнению экспертов, роботы сегодня обучаются эффективнее, чем живые школьники и студенты, и, возможно, учителям стоит начать перенимать опыт ученых, работающих с алгоритмами искусственного интеллекта.