У ИИ есть огромное количество потенциальных стратегий, из которых система выбирает одно верное. Также в этом пуле существуют потенциально опасные алгоритмы, которые могут повлечь за собой излишние издержки и даже штрафы. Неправильный выбор ИИ может привести даже к бойкоту от потенциальных клиентов, если они узнают причину ошибки.
Таким образом, в условиях, когда решения все чаще принимает ИИ без вмешательства человека, существует глобальная причина выяснить, при каких обстоятельствах система даст сбой или сделает неправильный выбор, чтобы полностью исключить этот риск.
Математики вводят такое понятие, как «неэтичный принцип оптимизации» (Unethical Optimization Principle), и высчитывают формулу для оценки его воздействия.
Предложенный нами «неэтичный принцип оптимизации» может быть использован для того, чтобы помочь регуляторам, сотрудникам компаний и другим найти проблемные алгоритмы, которые могут быть скрыты для большим количеством альтернативных решений. Можно ожидать, что в будущем процесс оптимизации столкнется с нелогичными и неверными стратегиями своих систем. Наша проверка должна показать, где может возникнуть потенциальная ошибка в системе.
Роберт Маккей из Математического университета Уорика
Маккей также добавил, что новая проверка, возможно, заставит переосмыслить работу ИИ в больших стратегических пространствах.
Читать также
Парад планет — 2020: где смотреть, когда произойдет и что об этом говорит наука
Выяснилось, что заставило цивилизацию майя покинуть свои города
Посмотрите на Crew Dragon с неожиданного ракурса: этот снимок сделал астронавт