Технологии

Стивен Хокинг и Илон Маск поддержали новый кодекс ИИ

Далее

Ученый и предприниматель выступили в поддержку нового кодекса ИИ, представленного на Асиломарской конференции в Калифорнии. В документе описаны правила ведения исследований в области искусственного интеллекта, а также варианты решения этических вопросов и проблем, которые возникнут в будущем.

Новый свод законов для искусственного интеллекта получил название «Асиломарские принципы ИИ», так как был сформулирован на конференции в Асиломаре. Авторами документа выступили эксперты из Института будущего жизни (Future of Life Institute). Кодекс описывает основные правила изучения и внедрения ИИ, в частности автономного вооружения и самовоспроизводящихся интеллектуальных систем, сообщает Business Insider.

Кодекс делится на три части: исследования, этические вопросы и долгосрочная перспектива. В каждой из частей описаны принципы развития ИИ с пользой для общества. Авторы документа подчеркивают, что при разработке ИИ-систем ученые должны взаимодействовать с регулирующими органами и открыто делиться своими разработками с другими учеными, чтобы избежать «гонки искусственных интеллектов» и тайных разработок. Особенно это касается гонки ИИ-вооружений.

Ученые нашли доказательства того, что Вселенная — это голограмма

При поломке ИИ-системы должно быть понятно, почему это произошло, а сам факт поломки должен быть заметным. Вынесенные искусственным интеллектом суждения следует подвергать независимой оценке с участием человека. Кроме того, разработчики обязаны внушать ИИ человеческие представления о ценностях, правах, свободе, достоинстве и культурном разнообразии.

Кодекс также упоминает прибыль, которую способен принести ИИ. Как гласит 14-й принцип, «создаваемое ИИ экономическое процветание должно быть равномерно распределено так, чтобы нести пользу всему человечеству».

Самосовершенствующиеся системы необходимо контролировать особенно строго. В целом авторы кодекса советуют максимально внимательно отнестись к новым технологиям, которые могут «кардинально изменить ход жизни на Земле».

Маск начал выкапывать тоннель для борьбы с пробками у офиса SpaceX

Свод законов сформулировали по итогам серии дискуссий, в которых приняли участие глава DeepMind Демис Хассабис, эксперт по ИИ из Facebook Ян Лекун и предприниматель Илон Маск. Все они подписались под новыми принципами для развития ИИ. Всего проект поддержало 877 разработчиков в сфере искусственного интеллекта и робототехники и 1392 экспертов вне этой области, среди которых предприниматель Сэм Альтман, актер Джозеф Гордон-Левитт и ученый Стивен Хокинг.

Стивен Хокинг неоднократно выражал свое беспокойство в отношении стремительного прогресса технологий искусственного интеллекта. По мнению ученого, ИИ может стать самым худшим или самым лучшим явлением в истории человечества.

Геополимеры: экологически чистая и более прочная замена цемента

Глава Tesla и SpaceX Илон Маск также отмечал риски, связанные с неконтролируемым искусственным разумом. Он входит в число основателей проекта OpenAI, цель которого — создание условий для максимально безопасного развития ИИ. В частности эксперты OpenAI предлагают создать полицию искусственного интеллекта. Британские ученые поддерживают эту идею и предлагают ввести должность следователя по делам ИИ. Разработкой кодекса искусственного интеллекта также занимаются в Японии, России и в Европе.

Загрузка...