Кейсы 31 июля 2017

DARPA создаст ИИ-детектор «псевдонаучного бреда»

Далее

Антрополог и сотрудник исследовательского подразделения DARPA Адам Рассел попросил всех желающих помочь агентству создать технологию распознания научных знаний в потоке безосновательной псевдонаучной ерунды при помощи новейших машинных алгоритмов и методов анализа больших данных, сообщает Wired.

Речь идет о создании алгоритма проверки научной достоверности, прежде всего, социологических исследований. Например, таких, которые претендуют на то, чтобы объяснить, как люди относятся к ИИ, автоматизации или введению БОД. Самому Расселу название «детектор бреда» не нравится, хоть он и признает, что определенный смысл в нем есть. «Я глубоко верю в настоящую науку. Нельзя утверждать, что мы ничего не знаем о мире», — говорит он.

Интерес Министерства обороны США, научным подразделением которого является DARPA, к социальным наукам легко объяснить — военным важно понимать, как работает общественное сознание, почему одни организации или целые государства сохраняют стабильность, тогда как другие разваливаются. Военные также хотят узнать, как люди взаимодействуют с машинами, прежде чем машины станут умнее и распространятся повсеместно.

Цукерберг и Маск обменялись взаимными претензиями об отношении к ИИ

К сожалению, просто довериться научным исследованиям по социологии, нельзя — мешает кризис воспроизводимости результатов исследований, особенно в психологии и социологии. Ученые не могут повторить тот же эксперимент и получить те же результаты повторно. Еще есть проблема сознательной подгонки результатов ради получения грантов и публикаций. Но на этом проблемы не заканчиваются. «Если вы спросите ряд социологов, как работает такая-то организации, то получите не просто 20 различных ответов, но ответы, несравнимые друг с другом, — говорит Дункан Уоттс, социолог из Microsoft Research. — Вы читаете одну статью, потом другую, в их заголовках есть одинаковые слова, но разный метод анализа, разные теоретические конструкции, совершенно разная причинно-следственная связь».

Таким образом, заключает Рассел, в общественных науках — экономике, социологии, антропологии — нет необходимых стандартов, и DARPA собирается их создать. И объявляет конкурс на разработку машинного алгоритма в рамках проекта «Уровни достоверности в общественных и поведенческих науках».

В результате агентство надеется собрать воедино все идеи и технологии научной проверки достоверности — как привычный мета-анализ, экспертную оценку и статистические методы, так и новые — объем цитирования в сети и коэффициент динамического взаимодействия, чтобы на их основе разработать ИИ-алгоритм быстрого присвоения «уровня достоверности научных трудов и статей».

Новый белковый препарат возвращает силу пожилым людям

Роль соцсетей, в частноти Facebook в распространении ложной информации и фейков и их вляние на политическую жизнь стран активно обсуждается в СМИ. Исследователи из МИТ и Гарварда считают, что Facebook и Twitter замешаны в самом крупном медиа-провале 2016 года. По их мнению, соцсети позволили вырасти новостным «пузырям».