Новый суперкомпьютер DGX-1 (передан в пользование компанией Nvidia) оптимизирован для глубокого обучения, нацеленного на потребление огромных массивов данных. Он поможет исследователям быстрее получать результат и обработать больше информации. При грубом сравнении, вычисления, которые обычно занимают 250 часов на обычном компьютере, требуют всего 10 часов на DGX-1.
«Глубокое обучение — специфический класс моделей, поскольку при увеличении объема данных модели всегда начинают работать лучше», — говорит Андрей Карпати, специалист OpenAI.
Искусственный интеллект — будущее систем безопасности
Технологии
Ученые хотят понять, может ли робот научиться понимать язык людей, взаимодействуя с ними в реальном мире? Для ускорения работы они используют суперкомпьютер и новостной сайт Reddit, который, по словам Карпати, сможет поглотить и переварить не месяцы текстов и обсуждений, а целые годы.
Кроме того, ученые тренируют роботов мыть посуду и пишут алгоритмы, с помощью которых компьютер научился бы играть в различные видеоигры, пишет MIT Technology Review.
OpenAI была основана в 2015 году с фондом в $1 млрд, полученным от Илона Маска (Tesla, SpaceX) и Сэма Альтмана (Y Combinator), для проведения открытых исследований в области ИИ.