Дипфейки как новый социальный тренд

Это видео, фото и аудио со знаменитостями, которые выглядят как настоящие. Появились и стали широко распространяться дипфейки с развитием технологий дизайна с помощью нейросетей. 

Если вы откроете раздел Reels в известной соцсети или TikTok, то без труда найдете сотни видео, где Киану Ривс танцует в кухне, используя поварешку в качестве микрофона или воспроизводит нехитрый танец. Эти ролики настолько реалистичные, что может закрасться сомнение, а действительно, не стала ли звезда Голливуда качать соцсети, участвуя в челленджах и снимая тиктоки. Но нет, это просто очередной дипфейк, каких уже даже не сотни, а тысячи и десятки тысяч.

У дипфейков множественные моральные, юридические и политические последствия, о чем легко догадаться, если цифровое видео, выглядящее как подлинное, ставит под сомнение деловую репутацию продукта, компании или направлено на раскрытие личной, частной информации о популярной личности. Дипфейки воскрешают тех, кто давно покинул этот мир, например когда технологии дополненной реальности помогли не только закончить начатую серию Форсажа с погибшим актером Полом Уильемом Уокером в роли Брайена О Конора, но и снять еще несколько серий с эпизодическими вставками с актером полностью построенными на дипфейках. 

За последние десять лет технологическая отрасль сосредоточила внимание на разработке все более крутых технологий искусственного интеллекта (ИИ), чтобы ускорить процессы, которые ранее требовали участия человека или были бы вообще невозможны. Результаты были впечатляющими, поскольку алгоритмы искусственного интеллекта проникли во все: от поисковых систем до устройств с виртуальными помощниками (например, умные колонки). Изучая огромное количество информаци в Интернете, и вводимые разработчиками данные, технологии искусственного интеллекта постоянно становятся умнее, а результаты их работы — реалистичнее. Однако способность этого типа технологий учиться на поступающей информации все чаще используется в злонамеренных целях, особенно для распространения дезинформации в социальных сетях.

Ни одна новейшая технология искусственного интеллекта не представляла такой серьезной угрозы подлинности информации в соцсетях, как дипфейки. Этот тип ИИ функционирует, обрабатывая видео- и аудиоданные одного или нескольких людей, чтобы изучить их внешний вид и манеры движения, мимику и повадки, которые затем используются для создания очень реалистичного фальшивого видео с участием объекта дипфейка. 

Что касается знаменитостей или политиков, которые, как правило, имеют большое количество видео- и аудиозаписей, общедоступных в Интернете, программы дипфейков имеют гораздо больше данных для работы и, таким образом, могут создавать все более убедительные медиа с изображением селебрити. Хотя концепция замены лиц на видео и фото со знаменитостями вовсе не нова, нейронные сети, создающие дипфейки, делают это в разы реалистичнее и быстрее.

Технология дипфейков может принести пользу кино, рекламе и другим отраслям. Однако нельзя игнорировать большую угрозу, которую дипфейки представляют для общества. Во-первых, распространение дезинформационных дипфейков может угрожать людям, поскольку они могут быть использованы в качестве шантажа. В более общем плане дезинформационная способность дипфейков представляет особенно серьезную угрозу легитимности источников новостей и политических субъектов. Дипфейки могут применяться как настоящее психологическое оружие, которое можно использовать для изменения убеждений определенных онлайн-сообществ. Кроме того, доступ к программам для создания дипфейков, таким как FakeApp, означает, что создание и дальнейшее распространение таких видео становится все проще для обывателя.

Хотя дипфейки, вероятно, будут играть важную роль в распространении дезинформации в Интернете, разрабатываются и методы борьбы с распространением подобного контента. 

Что касается дипфейков, созданных для личного шантажа (тенденция, начавшаяся еще в 2017 году), многие соцсети вообще запретили размещать такой контент. Но они то и дело появляются и запускают волну скандалов и обсуждений. 

Следующий шаг по цензурированию лежит в выявлении дипфейков с целью их запрета с помощью специальных программ. Такой софт определяет является ли видео дипфейком, анализируя, содержит ли оно визуальные следы или «артефакты искажения», которые часто приписывают несовершенству алгоритмов ИИ, создающих дипфейки. Многие ученые и разработчики ИИ предлагают следовать такой модели , поскольку современные программы по производству дипфейков создают визуальные артефакты, которые могут легко идентифицировать противодействующие программы ИИ. 

Однако по мере совершенствования технологии, необходимо будет разработать новые методы. И как бы с дипфейками не боролись, этот социальный тренд очень мощный и восходящий, скорее всего, он будет набирать обороты в будущем. 

Если вам понравилась статья — поделитесь!
Эта запись была опубликована в рубрике Контент, Новости. Добавить в закладки ссылку.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *