Технология стартапа Affectiva использует компьютерное зрение и глубокое обучение для анализа невербальных проявлений эмоций в визуальном материале. С ее помощью компьютеры могут понять выражение лица человека на видео. Компания получила $14 млн в очередном раунде инвестиций.
Сперва алгоритм Affectiva разбивает найденное видео на категории, потом составляет карту мимики по числу эмоциональных состояний — радость, грусть, увлеченность, удивление, возбуждение и пр. Со временем она должна научиться распознавать и более сложные состояния. Например, стартап надеется точно понимать выражения надежды, воодушевления и разочарования.
В процессе сбор информации были обнаружены интересные закономерности. Некоторые выражения лица оказались общими для всех регионов и групп населения, а некоторые — уникальными. Например, вежливая улыбка, не выражающая радости, присуща жителям Юго-Восточной Азии и Индии, но редко встречается в Европе, Африке или Америках.
Среди клиентов стартапа — разработчики компьютерных игр Unilever, Kellogg’s, Mars и CBS. Студия Flying Mollusk создает с его помощью игру-триллер, в которой уровень сложности и события меняются в зависимости от того, спокоен ли игрок или напуган.
Маркетинговые и рекламные компании также используют Affectiva для опросов целевых групп. Теперь им не обязательно просить респондентов описать свои эмоции, программа определяет их по лицу, пишет TechCrunch.