Алгоритмы постоянно принимают решения, которые влияют на наши жизни. Пора проводить независимые расследования действий ИИ, приведших к нарушению прав, а то и гибели людей, считают ученые.
Искусственный интеллект работает на службе у банков, полиции, частных компаний. Традиционно внутреннее устройство алгоритмов скрыто от посторонних глаз ради охраны интеллектуальной собственности. Поэтому не ясно, как именно ИИ принимает решения, не все из которых являются безобидными.
Например, каждую неделю более 1000 человек в аэропортах по ошибке причисляются алгоритмами к террористам. The Guardian пишет про пилота American Airlines, которого за год задерживали 80 раз. Тут же история про молодого диджея из Азии, которому отказывали в визе в Новую Зеландию, потому что алгоритм не мог поверить в то, что глаза парня на фото открыты. Автоматическая система по контролю за выплатой алиментов по ошибке прислала счет на $200 000 Волтеру Волмеру из США — его жена подумала, что муж ведет двойную жизнь и покончила жизнь самоубийством.
Группа ученых из Оксфорда и института Алана Тьюринга в Лондоне призывают дать возможность независимым организациям проводить расследования в отношении алгоритмов. Если человек заявляет о дискриминации со стороны ИИ, специально обученный следователь должен разобраться в ситуации. Предложение ученых не говорит о полном раскрытии всех технических секретов и ноу-хау. Создатели алгоритмов как минимум должны четко объяснить, на чем основаны решения ИИ. Будь то отказ в выдаче паспорта и кредита или решения автопилота, приведшие к аварии. Следователь должен видеть последовательность принятых перед тем или иным происшествием решений, чтобы понимать полную картину.
Маск расскажет о «нейронном кружеве» в феврале
Идеи