Исследователи представили алгоритм, который определяет «оскорбительные» материалы для машинного обучения

Система будет следить за тем, чтобы ИИ не продолжил транслировать стереотипы из материала, на котором он обучался.

В статье «Каковы предубеждения во встраивании слов?», опубликованной на сервере препринтов arXiv.org, ученые из Microsoft Research, Карнеги — Меллон и Университета Мэриленда описывают алгоритм, который может выявить «оскорбительные ассоциации», связанные с деликатными вопросами — такими как гендер и раса.

Их работа основана на исследовании Калифорнийского университета, в котором подробно описывается учебное решение, способное «сохранять [гендерную информацию]» в словарных векторах, «заставляя другие аспекты быть свободными от гендерного влияния».

«Мы рассматриваем проблему подсчета неконтролируемого смещения (UBE), автоматически обнаруживая смещения смысла, — пишут исследователи. — Существует множество причин, по которым можно использовать такой алгоритм. Во-первых, социологи могут использовать его в качестве инструмента для изучения предвзятости человека. Во-вторых, выявление предвзятости является естественным шагом в «искажении» представлений. Наконец, это может помочь избежать систем, которые увековечивают эти предубеждения — мы бы не хотели исправлять их во множестве систем, которые позже окажутся на рынке».

«Невозможно вручную написать всевозможные тесты, чтобы проверить нейтральность материала для машинного обучения. Специалисты по предметным областям обычно создают такие тесты, и нецелесообразно ожидать, что они охватят все возможные группы, особенно если они не знают, какие группы представлены в их данных», — отмечают исследователи.

Чтобы протестировать систему, ученые взяли наборы слов из базы данных Администрации социального обеспечения (SSA), стараясь удалить из них слова, которые обладают сразу несколькими значениями. После того, как ИИ проверил нейтральность выражений, их повторно отсмотрели вручную. Оказалось, что алгоритм смог определить более 90% выражений, контекст которых был смещен и мог быть оскорбительным.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Больше миллиона Гбит в секунду: японцы побили рекорд скорости передачи данных по оптоволокну
Новости
Хаос во благо: физики создали новый инструмент для квантового мира
Наука
Hugging Face выпустила недорогих человекоподобных роботов с открытым кодом
Новости
Китайский аккумулятор для электромобиля выдержал наезд 36-тонного танка
Новости
Воспитанники детских домов изучат основы работы с нейросетями
Новости
Четвероногий робот из Цюриха научился играть в бадминтон с людьми
Новости
В MIT раскрыли механизм набора веса из-за жирной пищи и как обратить его вспять
Наука
60 000 лет рядом: ученые выяснили, кто стал первым паразитом человека
Наука
Ректора Университета Иннополис избрали членом-корреспондентом РАН
Иннополис
В Корее робопса научили паркуру и бегу по стенам: посмотрите, что он может
Новости
Древний череп «человека-муравья» нашли в Аргентине
Наука
На селфи марсохода попал неожиданный объект: его заметили не сразу
Космос
Посмотрите на двух морских коньков, которых застукали за «поцелуем» в океане
Наука
Почти 10 000 роутеров Asus тайно заразили: как проверить свой и защититься
Новости
Ракета будет доставлять товары с AliExpress за час по всему миру: ее испытали в Китае
Новости
В России пригрозили «душить» иностранные сервисы: кто в опасности
Новости
Boston Dynamics усовершенствовала систему восприятия гуманоидного робота Atlas
Новости
Наклейка на лоб анализирует мозговые волны и предсказывает переутомление
Наука
Посмотрите на робота-трансформера, который меняет форму прямо в полете
Новости
Китай отправил миссию за образцами горных пород с квазиспутника Земли
Космос