ТЕХНОЛОГИИ И ЖИЗНЬ
ПРОЕКТ ВЕСТИ.RU

Приложение для подмены лиц на видео возглавило чарты и спровоцировало скандал

Китайское дипфейк-приложение Zao, благодаря которому пользователи могут сделать себя главным героем фильма, сериала или интернет-мема всего за несколько секунд, вышло в лидеры местного App Store. Новинка для подмены лиц вышла в прошлую пятницу, уже к 1 сентября возглавила топ бесплатных развлекательных iOS-приложений в Китае.

От аналогов Zao отличает скорость и удобство использования. Чтобы стать кинозвездой, достаточно снять селфи, после чего программа автоматически "вклеит" его вместо лица актера популярного фильма или ТВ-шоу. А чтобы видеоподделка была максимально качественной, можно сделать серию снимков, на которых пользователь моргает, кивает и открывает рот. Вот как это выглядит:

На обработку видеофрагмента у Zao уходит около десяти секунд. Загружать собственные ролики в приложение нельзя, а только выбирать из сотен доступных. Например, можно "сыграть" роль Кита Харингтона из "Игры Престолов", Леонардо Ди Каприо из "Титаника" или Джима Парсонса из "Теории большого взрыва". Вероятно, поэтому Zao работает так быстро: преднастроенным нейросетевым алгоритмам не нужно полностью перерисовывать картинку.

Однако уже вскоре после релиза хит оказался в центре скандала. В условиях пользовательского соглашения говорилось, что компания-разработчик Momo оставляет за собой все права на смонтированный ролик. Это давало ей возможность передавать создаваемый в Zao контент третьим лицам, а также использовать его в рекламных и других целях.

На волне возмущений оценка Zao в китайском App Store быстро упала до 1,9 "звезды" из пяти, а пользователи оставили свыше 4 тысяч гневных отзывов, передает Bloomberg. Под давлением общественности Momo изменила условия соглашения, оговорив, что не будет использовать генерируемый пользователями контент в любых целях, кроме как для улучшения работы приложения. Помимо этого, если пользователь удалит загруженный им контент, компания также удалит его со своих серверов.

Технология "дипфейка" широко используется для создания реалистичных порнографических роликов с участием знаменитостей, в которых те никогда не снимались, или фальшивых выступлений крупных политических деятелей. Летом были зафиксированы первые случаи, когда злоумышленники вооружились технологиями искусственного интеллекта для обмана пользователей, создавая убедительные видеоподделки с наложением лиц и голосов известных людей.