Разрабатывая чат-боты для ведения переговоров, исследователи из Лаборатории искусственного интеллекта Facebook (FAIR) еще в июне заметили, что они не только научились лгать, но и спонтанно разработали собственный нечеловеческий язык. Система кодовых слов была разработана для максимального повышения эффективности их общения.
За разговор на английском языке боты не получали вознаграждение, и у них не было оснований придерживаться его, поскольку это не способствовало их конечной цели стать более эффективными переговорщиками. Наоборот, боты имели множество стимулов, чтобы отклоняться от языка, так же, как сообщества людей с опытом создают сокращенные формы для более быстрого или эффективного обсуждения сложных идей.
По словам исследователей, они могли расшифровать новый язык без особых усилий, потому что он все еще был основан на английском. Однако теперь ученые не могли быть уверены, что их переводы на 100% правильны. «Важно помнить, что в мире не существует билингвов, одинаково владеющих человеческими и ИИ-языками», — говорит Дхрув Батра из FAIR. Этот новый язык также не служил цели исследования. «Наш интерес заключался в ботах, которые могли бы разговаривать с людьми», — говорит научный сотрудник FAIR Майк Льюис.
В конце концов, исследователи решили настроить ботов так, чтобы избежать ухода от английского языка.
Такое спонтанное развитие независимого языка напоминает о том, насколько мало мы все еще знаем об ИИ. Он, несомненно, мог бы помочь нам. Однако опасности, которые кроются в ИИ, заставляют многих экспертов громче говорить о них. Должны ли мы позволить ИИ разрабатывать диалекты, специфичные для конкретных задач с целью повышения производительности, зная, что мы не можем по-настоящему понять, о чем они говорят?
Исследователь ИИ Марк Ридл из Технологического института Джорджии считает, что ИИ, обученные оптимизации с помощью вознаграждений, в конечном итоге могут увидеть в людях угрозу их планам оптимизации. И в конечном итоге, избавиться от человека так, как они избавились от человеческого языка. Опасность, как говорит Илон Маск и Стивен Хокинг, заключается в том, что когда мы заметим настоящие риски со стороны ИИ, будет уже слишком поздно.
1 августа в 15:50 биткойн разделится на две криптовалюты
Кейсы
Процессы, проходящие внутри искусственного интеллекта, часто не поддаются описанию человеческим языком. По мнению японского нейробиолога Риото Канаи и его коллег, вместо того чтобы учить машины нашему языку, лучше дать им возможности создать свой.