ИИ может отбросить СМИ на 100 лет назад

С таким мнением выступил ученый Ян Гудфеллоу из Google Brain. Он рассказал, что ИИ приближается к уровню, когда сможет с легкостью фальсифицировать любые фотографии или видеоролики. Как только это произойдет, визуальный новостной контент сильно обесценится –все то, что раньше служило неопровержимым доказательством, может перестать вызывать доверие, пишет Technology Review.

Гудфеллоу говорит, что сейчас занимается подобными проектами в Google Brain. По большей части, это генеративно-состязательные сети — понятие, которое он сам описал в 2014 году. Это специальные алгоритмы машинного обучения, которые построены на соперничестве двух нейросетей. Одна воссоздает различные модели, а вторая проверяет их подлинность. В ходе такого соперничества модели получаются все совершеннее. И уже сейчас такие сети способны создавать фотографии, подлинность которых человек не способен установить.

Фейки создавались и раньше, но для действительно качественной подделки требовались огромные ресурсы. ИИ может кардинально изменить ситуацию. Алгоритмы делают процесс фальсификации доступным и гораздо более быстрым. При этом они не стоят на месте и постоянно изучают, как сделать результат своей работы еще более достоверным. Из-за этого Гудфеллоу считает, что скоро в медиа и новостной среде появится огромное число таких качественных подделок, что смогут одурачить очень большое число людей.

Бороться с этим сложно, поэтому, по его мнению, люди просто станут более скептически настроенными. Кто-то вовсе перестанет потреблять фото и видеоконтент, потому что полностью потеряет к нему доверие. «Исторически сложилось, что мы полагаемся на видео как на доказательство того, что событие действительно произошло», — рассказал он во время выступления. Но с новыми технологиями, возможно, придется что-то менять. По словам Гудфеллоу, были времена в истории, когда люди справлялись без новостей с видео- и фотоматериалами. Возможно, придется вновь вернуться в эти времена.

«Нет сомнений, что мир готов к промышленной роботизации»

Как только ИИ взялся за редактирование фотографий, сразу же возникли опасения в том, что когда-нибудь дело дойдет и до создания подделок. Пока строились предположения, алгоритмы научили подделывать не только изображения, но и голоса конкретных людей. Так что под угрозой не только визуальные новости, но радиоэфиры.

Подписывайтесь
на наши каналы в Telegram

«Хайтек»новостионлайн

«Хайтек»Dailyновости 3 раза в день

Первая полоса
Глава OpenAI публично высказался после запуска DeepSeek
Новости
В России запустят в серийное производство контроллеры «ПЛК-Эльбрус»  
Новости
Гнев может повысить креативность, но с оговорками: новое исследование  
Новости
Только 10% людей могут управлять этими мышцами: как они работают
Наука
Этот гормон подавляет голод: прорыв ученых в борьбе с ожирением
Наука
Технологию безопасного управления роем дронов разработали в MIT
Новости
Препарат от рака может стать ключом к полному уничтожению ВИЧ
Наука
Этот продукт делает мужчин привлекательнее: выяснилось, что увеличивает шансы на свидание
Наука
Гравитационные волны могут открыть новый способ связи в космосе
Космос
Американские ученые утверждают, что скопировали принцип работы DeepSeek за $30
Новости
Астрофизики впервые наблюдали детали нити космической паутины
Космос
Квантовая физика оказалась более странной, чем считалось: что показал новый эксперимент 
Наука
ИИ вместо любви: мужчины готовы жениться на виртуальных партнершах  
Новости
Чипсы Lay’s признали опасными для здоровья: о каком «вкусе» речь 
Новости
Японский лунный модуль показал с орбиты «самую отдаленную точку Земли»
Космос
Nvidia раскрыла характеристики GeForce RTX 5070 и 5070 Ti
Новости
Выяснилось, сколько длилась самая долгая DDoS-атака на российские ресурсы в 2024 году
Новости
Топ-5 необычных ИТ-профессий, которые будут актуальны в ближайшем будущем
Мнения
Первый видеозвонок через спутник между обычными смартфонами прошел успешно
Новости
ИИ от Google помогла хакерам из России 
Новости