Джон Джаннандреа, глава поискового бизнеса Google, не боится восстания разумных роботов. Вместо этого он обеспокоен предвзятостью алгоритмов машинного обучения, которые принимают миллионы решений каждую минуту.
«Настоящая проблема безопасности, если вам угодно так ее называть, состоит в том, что если мы дадим этим системам необъективные данные, они сами станут необъективны», — сказал Джаннандреа на конференции Google, посвященной отношениям между людьми и системами искусственного интеллекта.
Проблема наличия в машинном обучении систематической ошибки становится тем значительнее, чем больше технология проникает в такие области, как медицина или юриспруденция, и чем больше людей без технического образования начинают ее использовать. Некоторые эксперты считают, что алгоритмические ошибки уже наносят вред многим областям, и что почти никто не обращает на это внимания и не исправляет их.
«Важно, чтобы мы соблюдали прозрачность относительно данных, которые мы используем для обучения ИИ, и искали в них неточности, иначе мы создадим предвзятые системы, — говорит Джаннандреа. — Если кто-то пытается продать вам черный ящик, который ставит медицинский диагноз, а вы не знаете, как он работает или на каких данных его обучали, то я бы не стал ему доверять».
Разработан пистолет, который невозможно отследить
Технологии
К сожалению, недостаточно просто опубликовать использованные данные или алгоритмы. Большинство наиболее мощных систем машинного обучения сегодня настолько сложны, что даже внимательное изучение не принесет результатов. Для решения этой проблемы ученые работают над системами, которые могли бы создавать аппроксимации (упрощенного объяснения) для инженеров и конечных пользователей, сообщает MIT Technology Review.
Что же касается ИИ, способного захватить власть над людьми, об опасности которого предупреждает Илон Маск, то тут Джаннандреа настроен критически. «С чем я не согласен, так это с предположением, что мы внезапно перейдем к какой-то сверхинтеллектуальной системе, которая сможет обходиться без людей. Я понимаю, почему люди так обеспокоены этим, но думаю, что этому вопросу уделяют слишком много внимания. Я не вижу никакого технологического основания, почему это вообще должно произойти», — говорит он.
Японские города начали отключаться от централизованных энергосетей
Технологии
Платформу, которая поможет идентифицировать необъективность алгоритма, разработали в Институте Алана Тьюринга в Лондоне. Расовые и гендерные признаки нельзя игнорировать, но они должны рассматриваться в комплексе с другими факторами, а не определять решение алгоритма.