Когда камеры научились распознавать эмоции и как это работает теперь
Изучать маркеры эмоций ученые начали задолго до появления искусственного интеллекта — в 1970-е. Конечно, тогда о связи эмоций с нейросетями речи не шло. Эмоции были предметом научного интереса психологов: ученые Пол Экман и Уоллес Фризен собрали все возможные варианты мимических движений в единую систему, с помощью которой любое выражение лица можно было разбить на отдельные составляющие. Определенный набор мимических единиц соответствовал какой-либо эмоции.
Современные алгоритмы устроены похожим образом: система обрабатывает потоковые изображения, а затем искусственный интеллект ограничивает точками области глаз, губ, носа, бровей. Потом нейросеть анализирует положение этих точек и сопоставляет их с шаблоном эмоции. В конечном счете нейросеть запоминает, что удивлению соответствуют округлившиеся глаза, испугу — приоткрытый рот, а усталости или грусти — опущенные уголки губ.
Об умении нейросетей работать с эмоциями всерьез заговорили уже в «нулевых», когда стало ясно, что за системами распознавания лиц будущее. И хотя обучить компьютер сканировать эмоции сложнее, чем просто искать лицо, за пару десятков лет направление Facial Emotion Recognition сильно шагнуло вперед. Уже в 2020 году аналитики Mordor Intelligence оценили рынок распознавания эмоций в $19,9 млн.
При этом большая часть FER-рынка будет приходиться на Северную Америку из-за присутствия на континенте таких стран, как США и Канада. Именно в них расположены крупнейшие розничные рынки с высоким спросом на подобные решения.
Для чего это надо
Первые решения, основанные на системе распознавания эмоций, зародились в индустрии развлечений. К примеру, в 2015 году Micrisoft разработал приложение, которое угадывало настроение человека: пользователь «скармливал» ему фотографии, а программа анализировала эмоцию по микроэкспрессиям лица на изображении. Алгоритм анализировал восемь базовых состояний — презрение, злость, отвращения, страха, счастья, грусти, удивления или спокойствия, а потом распределял условные баллы между ними.
Сейчас область применения таких решений куда шире, чем можно вообразить. В ритейле устройства с функцией распознавания лиц могут оценивать не только пол, возраст и этническую принадлежность покупателя, но и его эмоции в момент покупки. В 2017 году этим воспользовался мировой лидер Walmart, который установил умные камеры на кассовых линиях, чтобы наблюдать за настроением посетителей. Если система находила расстроенного покупателя, — менеджер магазина тут же узнавал об этом из уведомлений.
Распознавание эмоций — сервис, который в ходу не только у гигантов отрасли вроде Walmart. Ivideon сотрудничает более чем с 1000 ритейлеров, среди которых есть небольшие супермаркеты и несетевые магазины. Порядка 15% из них, не имея больших показателей по выручке и многоплановых маркетинговых кампаний, все равно проявляют интерес к функции Facial Emotion Recognition, чтобы лучше изучить клиента.
Рекрутинг
Еще одна область, в которой технология детекций эмоций оказалась востребованной, — рекрутинг. Крупные компании внедряют искусственный интеллект для контроля поведения и психологического состояния сотрудников. Камеры с видеоаналитическими модулями, установленные в офисе, могут определять признаки стресса у работников и предупреждать об этом кадровые службы. К примеру, китайская компания Taigusys разработала программу, которая анализирует выражения лица человека и на основе полученных данных создает подробные отчеты о его ментальном состоянии. Такие решения сегодня также развивают Limeaid, VirginPulse, Glint, Ultimate Software и другие компании.
FER-технологии также позволяют корпорациям оценить эффективность телевизионной рекламы. Американская компания Affectiva создала приложение, которое сканирует видео людей и по отдельным кадрам формирует представление о его эмоциях в момент трансляции рекламного ролика. С помощью искусственного интеллекта можно оценить реакцию на любой продукт. Например, Disney использует алгоритмы машинного обучения для того, чтобы понять, нравятся ли зрителям мультики, которые создает компания.
Медицинские учреждения тоже применяют FER для определения эмоций пациентов в приемных. Это помогает врачам отдать приоритет тем больным, которые чувствуют себя хуже, и раньше вызвать их на прием. Но есть и более экспериментальные способы внедрения разработок. В 2018 году ученые, используя технологию распознавания эмоций, открыли новый метод терапии для детей с аутизмом. С помощью очков дополненной реальности Google Glass и специального приложения для смартфона больной ребенок мог узнать, какие чувства испытывают окружающие.
В школах и других образовательных учреждениях «эмоциональные» технологии внедряются для контроля психологического здоровья учащихся и могут служить базой для предупреждением актов насилия и буллинга. На таможне в аэропортах такие системы помогают сотрудникам спецслужб определить человека с высоким уровнем тревоги и нервозности, что зачастую указывает на его причастность к контрабанде. В 2019 году интеллектуальные системы для этих целей активно начал внедрять Китай.
Читает не только по глазам: может ли ИИ сканировать мысли человека
Несмотря на то, что камеры кажутся всевидящим оком, есть вещи, которые им пока не под силу. Например, камеры не умеют читать мысли и определять скрытые эмоции. Но есть и хорошая новость: распознать скрытое недовольство и разочарование можно по голосу. Уже несколько программ обрабатывают аудиоинформацию и анализируют паралингвистические сигналы, интонацию, темп и тембр речи говорящего. Потом искусственный интеллект переводит данные на язык эмоций. Такие решения уже используются крупными брендами в маркетинговых исследованиях.
Устройство для чтения мыслей — тоже вполне реальная технология. Пока такие устройства не применяются широко, но научные разработки уже ведутся в этой области. В этом направлении продвинулась компания Meta (Facebook), которая в прошлом году в совместно с Калифорнийским университетом в Сан-Франциско (UCSF) представила нейрокомпьютерный интерфейс (BCI), распознающий слова и целые фразы, которые хотел сказать человек: подключенные к мозгу электроды считывают сигналы и преобразуют их в текст.
В 2019 году Neuralink вместе с Илоном Маском презентовала аналогичное устройство Link. Этот микрогаджет размером с небольшую монету с помощью крошечных проводов тоньше человеческого волоса предполагают «вшивать» в мозг человека. Ожидается, что устройство будет передавать информацию об активности центров мозга и переводить мысли человека в текст, который можно транслировать на компьютер или телефон.
Чувства и разум: сможет ли искусственный интеллект обрести эмпатию
Пока умные устройства работают только с чужими эмоциями. Но уже вовсю поговаривают, что близок тот день, когда роботы и сами будут испытывать чувства. Правда, речь в данном случае идет не о любви и ненависти, а об эмпатии — способности сочувствовать и сопереживать.
Конечно, на биохимическом уровне это невозможно, поскольку искусственный интеллект лишен органов чувств. Однако роботов вполне реально обучить реагировать на психологическое состояние человека. Современные технологии доказывают: машины умеют понимать эмоции с помощью чисел даже лучше, чем сами люди.
Читать далее
Наука будущего: какие разработки молодых ученых были отмечены в Москве в 2021 году
Ученые придумали, как отправить корабль на Марс за 45 дней с помощью лазера
Астрономы сфотографировали черную дыру в центре спиральной галактики