1,6 Гб детской литературы использовал Facebook для тренировки своего ИИ. Программа училась понимать сказки и предсказывать, какое слово было опущено в том или ином предложении.
Книги, взятые в благотворительном фонде «Проекта Гутенберг», теперь доступны для научной общественности и даже исследователей из других компаний, желающих улучшить способности своих приложений.
«Сложнее всего компьютеру понимать язык. Человеку не трудно угадать, чем закончить предложение, но для машины это гораздо сложнее. Исторически, компьютеры обладают способностью предсказывать простые слова, предлоги «на», «в» и глаголы «бежать» или «есть». Но не так хорошо дело обстоит с существительными типа «шар», «стол» или именами людей. По этой причине наша команда научила компьютер смотреть на контекст предложения и гораздо точнее предсказывать эти сложные слова — имена существительные и собственные — которые часто являются самой главной частью высказывания. Предсказания компьютера были точнее всего, когда он принимал во внимание правильное количество релевантных слов в контексте — не слишком много и не слишком мало. Мы называем это «принципом Златовласки», — рассказал Марк Цукерберг.
Раньше Facebook уже делала общедоступным свой код для искусственного интеллекта и даже делилась дизайном своих серверов ИИ. Подробнее об исследовании Facebook «Children’s Book Test» здесь.