Кейсы 30 июня 2022

Голосовой помощник Alexa заговорит голосами умерших: чем обернется эта технология

Далее

В Amazon заявили, что работают над обновлением, которое позволит цифровому помощнику Alexa имитировать любой голос, даже голос умершего члена семьи.

С помощью такой технологии можно легче пережить утрату или, наоборот, впасть в нездоровую зависимость, говорят эксперты. 


Тамара Кавенетт, президент психологического общества, говорит, что это нормально испытывать горе после потери любимого. Исследования показывают, что, если человек начинает снова переживать и возвращаться к воспоминаниям, связанным с потерей, это может быть полезно.

«Поэтому вполне возможно, что горю можно помочь, если поговорить с симуляцией умершего человека. С другой стороны, это может помешать кому-то смириться с потерей и двигаться дальше», — сказала она.

Стирает ли искусственный интеллект границы между реальным и цифровым миром? 

На ежегодной конференции Amazon компания показала видео, на котором ребенок спрашивает: «Alexa, а можно мне бабушка дочитает “Волшебника страны Оз”?». Голос пожилой женщины, имитирующий бабушку ребенка, начинает читать.

Обновленной системе будет достаточно 1 мин человеческого голоса, чтобы научиться его пародировать. Пока что неизвестно, когда Amazon запустит эту функцию, заявил Рохит Прасад, старший вице-президент и главный научный сотрудник Amazon. 

«Мы, несомненно, живем в золотую эру искусственного интеллекта, где наши мечты и научная фантастика становятся реальностью», — сказал Прасад. По его мнению, человеческие качества, такие как сочувствие и понимание, стали еще важнее во время пандемии, «когда многие из нас потеряли тех, кого мы любим».

«ИИ не может устранить боль от потери, но может продлить воспоминания», — сказал он.

Есть ли люди, которые уже «общались» так с умершими?

Идея использовать ИИ таким образом не нова. Тамара Кавенетт говорит, что привлекательность этой технологии очевидна. Но она предупредила, что это может повлиять на естественные процессы и даже исказить память скорбящего человека о своем близком.

«Люди могут начать взаимодействовать только с ИИ, в ущерб реальной дружбе и связям. Поэтому технология потенциально полезна, но к ней следует подходить с большой осторожностью. Эту область ранее никто не исследовал», — сказал Кавенетт.

Например, Джеймс Влахос заявил, что эта технология оказала на него терапевтический эффект, после того, как у него умер отец. В течение нескольких месяцев Влахос записывал истории о жизни своего отца после того, как в 2017 году у него обнаружили рак. Он превратил их в интерактивный ИИ под названием Dadbot, который говорит голосом своего отца.

«Это не заменило моего отца, но ИИ помог мне вспомнить о нем в те моменты, когда это было нужно», — сказал Влахос, основатель Herefter AI, ABC.

В 2020 году газета San Francisco Chronicle опубликовала статью о 33-летнем писателе-фрилансере Джошуа Барбо, который использовал чат-бота для общения со своей девушкой Джессикой. Она умерла в 2012 году от редкого заболевания печени.

В Южной Корее VR-технологии помогли женщине встретиться с дочерью Найон, которая умерла в семилетнем возрасте от лейкемии. Разработчики создали цифровую модель девочки для документального фильма «Я встретила тебя». Понадобилось восемь месяцев, множество фотографий и реальная маленькая актриса, которая поделилась своими движениями, чтобы Найон и ее мать смогли встретиться.

А в 2018 году Евгений Куйда создал чат-бота из старых текстовых сообщений своего друга Романа Мазуренко. «Я не ожидал, что это будет так волнительно. Обычно мне очень трудно проявлять эмоции или горевать, поэтому я в основном старалась избегать этого», — сказал он тогда.

В чем проблема ИИ, который говорит любым голосом?

С другой стороны, Microsoft заявила, что ограничит использование программного обеспечения, имитирующего голос человека, так как эту функцию можно использовать для мошенничества. Microsoft потребует от компаний подавать заявки и получать разрешение на создание искусственных голосов. В мае 2022 года компания начала наносить на звуки голоса водяные знаки с помощью неслышимого сигнала, чтобы идентифицировать злоупотребление.

«У этой технологии есть огромный потенциал, и в то же время с помощью нее можно легко ввести человека в заблуждение», — заявила главный ответственный сотрудник Microsoft по ИИ Наташа Крэмптон.

С помощью нее технологии можно создать клона, который будет говорить голосом определенного человека. Мошенники смогут использовать его, чтобы вводить в заблуждение сотрудников крупных корпораций и обычных людей. 

Эта технология также может привести к целому ряду этических проблем, например, когда данные людей используют без их согласия.

Чем это опасно с психологической точки зрения?

«Существует риск того, что корпорации попытаются воспользоваться печалью и тоской, которую испытывают многие люди, потерявшие близких», — сказал Кавенетт. Поэтому, по ее словам, если человек грустит, ему скорее полезно обратиться к психологу, чем к ИИ.

С другой стороны, если у кого-то есть триггер в виде этого погибшего, но дорогого человека. То он просто не можем пережить все необходимые стадии до конца.

В клиническом же случае у человека разовьется зависимость от этого виртуального включения и общения с умершим родственником. Тогда у него вообще теряется связь с реальностью, говорит клинический психолог Анастасия Шавырина рассказывает.

Возможно, такие технологии все-таки могут иметь терапевтический эффект, если оставшийся в живых что-то не договорил или сохранил обиду на умершего. Подобный контакт способен принести пользу, но при условии, что рядом будет психолог.

Кавенетт отметила, что в состоянии здорового горя мы представляем или вспоминаем наших близких на основе того, что мы знали о них при жизни.

«Наши воспоминания о близких — это важное наследство, которое они оставляют после себя», — подытожила она. 

Читать далее:

Посмотрите на небесный «Титаник», который будет работать на ядерной энергии

В НАСА поняли, как искать жизнь на Марсе: эксперимент показал, где она может быть

Астрономы нашли планеты, которые отличаются от Земли, но пригодны для жизни