Исследование провела компания Deeptrace, которая специализируется на кибербезопасности. Она обнаружила в интернете 14 698 поддельных видеороликов по сравнению с 7 964 в декабре 2018 года.
В компании отметили, что 96% роликов были порно, часто там использовались лица знаменитостей. В остальных случаях материалы имели отношение к юмору или политике.
Хотя во многих deepfake-видео манипулировали лицами американских и британских актеров, исследователи обнаружили, что южнокорейские певцы также часто становились героями поддельных видео. Исследователи уверены, что deepfake становится глобальным явлением.
В докладе подчеркивается потенциал использования этих технологий в политических кампаниях. Но в настоящее время реальная опасность заключается в использовании технологии для мести и шантажа.
Руководитель аналитического отдела Deeptrace Генри Айдер отмечает, что уровень этих видео пока очень низкий. «Дискуссии о deepfake сводятся к политике или мошенничеству, но никто не говорит, что поддельные порновидео — это уже реальное и актуальное явление, причиняющее вред многим людям».