Кейсы 5 октября 2017

DeepMind создала группу для изучения этических вопросов ИИ

Далее

Подразделение Google, занимающееся развитием ИИ, организует специальную группу, которая будет изучать моральные вопросы развития ИИ. Ее члены займутся исследованием того, как ИИ меняет мир, можно и нужно ли его контролировать и как обеспечить прозрачность его решений, пишет Engadget.

В зачаточном состоянии группа существует уже 18 месяцев. В ней числятся 8 постоянных сотрудников и 6 внештатных. Сейчас компания анонсировала, что штат до конца года будет увеличен до 25 человек. У команды будет шесть основных областей, на которых будут сосредоточены исследования: влияние ИИ на частную жизнь, его прозрачность и объективность в принятии решений; экономическое влияние; управляемость ИИ и подотчетность человеку; контроль рисков; изучение того, что для ИИ мораль и ценности; поиск способов, которыми ИИ сможет решать глобальные задачи.

Целью подразделения будет помочь людям из технической сферы создать ИИ, который будет работать на благо общества. Они должны будут сделать так, чтобы этику можно было применить на практике. Создание такого комитета говорит о серьезности, с которой в компании относятся к ИИ. При этом там понимают всю спорность таких разработок. От действий технологических гигантов сегодня зависит будущее планеты. А уже сейчас все эксперты сходятся во мнении, что ИИ все сильнее будет влиять на жизнь человека.

DeepMind принадлежат впечатляющие разработки в области искусственного интеллекта. Ее алгоритмы уже обыграли человечество в Го, они самостоятельно изучают языки, помогают решать медицинские задачи, и уже могут работать в самых разных областях. Шведский философ и эксперт в области искусственного интеллекта Ник Бостром считает DeepMind лидером в гонке по созданию человекоподобного ИИ. Сейчас, вероятно, и в Google поняли, что дошли до того момента, когда нужно решать и контролировать определенные этические моменты. Это говорит о том, что ИИ проходит очередную веху в своем развитии.

Приложение для ускоренного изучения языков бьет рекорды на Kickstarter

Не только в Google переживают о моральной и этической стороне ИИ. Споры об этом появились с момента появления такой концепции. Ученые ставят эксперименты и проводят опыты. И ждать будущего не нужно: уже сегодня автопилоты автомобилей должны решать, кого убить, а кого нет. На этом был основан известный эксперимент ученого из МТИ Ияда Рахвана: он предлагал человеку сыграть роль ИИ и сделать моральный выбор, например, между бабушкой и ребенком. Следит за моральными вопросами ИИ и одна из компаний Илона Маска — Open AI. Сам Маск и вовсе предлагал создать специальную полицию, которая будет следить за алгоритмами.