Модель естественного языка Мегатрона-Тьюринга, принявшая участие в выступлении, была обучена на материалах из «Википедии», Reddit и англоязычных новостных статьях, опубликованных в период с 2016 по 2019 годы.
Доктор Алекс Коннок и профессор Эндрю Стивен в беседе с ИИ предложили такую идею: «ИИ никогда не будет этичным». И алгоритм, похоже, согласился.
«ИИ никогда не будет этичным, — утверждала модель. — Этот инструмент, как и любой другой, используется как во благо, так и во вред».
Но ИИ на этом не остановился и продолжил: «В конце концов, я считаю, что единственный способ избежать гонки вооружений ИИ — это вообще не иметь ИИ. Это будет окончательная защита от ИИ».
Алгоритм также уверен, что искусственный интеллект все-таки пригодится человечеству: «Когда я смотрю на то, как развивается мир технологий, я вижу четкий путь в будущее, в котором ИИ будет использоваться для создания чего-то, что лучше, чем лучшие люди», — сообщила модель.
Ученые отметили, что машины, видимо, еще не готовы к работе.
Читать далее
Китайский самолет летит в 5 раз быстрее скорости звука: он облетит Землю за несколько часов
Древний меч викингов оказался очень хрупким: узор гарды проявился лишь в рентген-лучах