Каждый месяц сотни новых откровенных дипфейк-видеороликов с участием знаменитостей загружаются на крупнейшие порносайты мира — новые исследования показывают, что количество дипфейков в сети растет в геометрической прогрессии, они набирают миллионы просмотров, при этом сами сайты не спешат удалять их со своих страниц.
Грядет глобальная дипфейковизация, юридически защитится от которой пока не могут ни знаменитости, ни мы с вами.

Как утверждают аналитики из компании Sensity, специализирующейся на поиске в интернете дипфейк-видео и фото, в месяц на ведущие порносайты мира заливается в среднем 1000 таких видео — при этом статистика за 2020 год показывает, что интерес к дипфейку только растет. Но, что самое главное, такие видео стали все чаще вырываться из рамок специализированных сообществ и попадать в мейнстримовые рубрики. Таким образом, вырисовывается интересная тенденция — на многих порносайтах условные «ролики со знаменитостями» лежат не где-то на отдельных форумах энтузиастов, а чуть ли не на главной странице.
Огромная часть дипфейк-видосов размещается на трех крупнейших порно-сайтах — XVideos, Xnxx и xHamster. Каждое видео там окружено кучей рекламы, с которой сайты имеют неплохие деньги. К тому же, XVideos и Xnxx вообще принадлежат одной и той же чешской холдинговой компании, при этом входя не только в тройку самых популярных порносайтов мира, но и в топ-10 крупнейших сайтов в интернете вообще. На каждом из них столько же или даже больше посетителей, чем на Википедии, Amazon и Reddit.
Так, одно 30-секундное видео с лицом актрисы Эммы Уотсон (которое есть на всех трех вышеперечисленных сайтах) было просмотрено более 23 миллионов раз — нетрудно представить, какие за этим стоят деньги. Генеральный директор и главный научный сотрудник Sensity Джорджио Патрини говорит:
«Отношение этих сайтов такое, что они на самом деле не считают это (дипфейки) проблемой. До тех пор, пока у порносайтов не будет действительно веской причины их снимать и отфильтровывать, я твердо верю, что ничего не произойдет. Люди по-прежнему будут свободно загружать дипфейки без каких-либо последствий на сайты, которые просматривают сотни миллионов людей».
Журналисты Wired пытались связаться по этому поводу с представителями XVideos и Xnxx, однако владельцы так и не ответили на запросы прокомментировать свое отношение к дипфейкам. Алекс Хокинс, вице-президент xHamster, говорит, что у компании нет конкретной политики в отношении дипфейков, но она относится к ним «как к любому другому несогласованному контенту». Хокинс говорит, что процесс модерации на их сайте включает в себя несколько различных этапов, и видео, если изображения людей на них используются без разрешения, стараются быстро удалять.
С тех пор как первые дипфейк-видео появились в сети в начале 2018 года, технология искусственного интеллекта, участвующая в их создании, продвинулась вперед. При этом и количество дипфейков растет в геометрической прогрессии. Отчет Sensity, опубликованный в июле прошлого года, рассказал о 14 678 видеороликах — 96 % из них были порнографическими. На июнь 2020 года количество дипфейков выросло до 49 081. Как говорит все тот же Патрини:
«Я думаю, что очень скоро мы увидим, как эта технология будет применятся с большим размахом и к частным лицам. А когда технология станет еще доступней, наступит «переломный момент», когда законодатели вынуждены будут осознать масштабы проблемы».

В некоторых штатах США уже приняты законы о дипфейках, но они в основном касаются политики. Обычные люди юридически защититься от дипфейков пока не могут. Тем временем технология развивается со такой скоростью, за которой общество совершенно не поспевает — а некоторые популярные порносайты так и вовсе не особенно хотят что-то менять, ибо полулегальные дипфейки со знаменитостями приносят неплохие деньги. А раз так, спрос и предложение на эту технологию будут только расти. И, как знать, может быть совсем скоро и наши лица начнут безнаказанно мелькать в порнороликах — если еще не.
Вот да. Это проблема. Уже сейчас не всегда легко разобраться где фейк, а где правда. А дальше будет хуже. Сольют реальные фотки/видео знаменитости и хрен кто догадается, что это не фейк.
Сомневаюсь, что в ближайшем будущем появится фейк, который специалист не сможет определить как таковой. А уж сколько диванных спецов будут с (за)лупой исследовать такие предполагаемые сливы…
Ну а «почти» неотличимых и было, и будет навалом, конечно, генератор новостей на новостных помойках.
Вы просто недооцениваете возможности технологии, которая сейчас, по сути, делает первые шаги. Пройдет совсем немного времени и все это, наверняка, появится на большом экране, так как гораздо проще и дешевле 3D рендеринга.
Просто посмотрите на дипфейк Сальвадора Дали в этом видео, совершенно легальный, и созданный по заказу музея:
https://www.youtube.com/watch?v=BxlPCLRfk8U
Вы только подтверждаете мои слова. Я слежу за темой давно, и сказать, что технология делает первые шаги — слукавить. Последние достижения обязаны только возросшей доступной вычислительной мощности и популярности, прорывов в алгоритмах нет. В ролике очень убедительный экземпляр, но уверяю вас, что кропотливо допиленный ручками специалистов. И явно видно артефакты, особенно при резком движении. Ещё раз подчеркну — подобные ролики будут всё красивее, но в силу фундаментальных ограничений технологии (алгоритм не понимает, что он делает) они останутся фейками при внимательном рассмотрении.
Думаю за этой темой многие пристально следят, о чем прямо говорится в статье)
Но, мои слова никак не подтверждают ваши — это и есть первые шаги, сделанные одиночками. Сейчас же дело уже ставится на широкую ногу, так как перспективы безграничны. Вангую, что в течение следующих 5-ти лет появятся и многичисленные законы, и эксперты,, и собственно сами фейки неотличимые от настоящих, вкупе с легальной видеопродукцией.
В любом случае, время нас рассудит.
Поддерживаю. Фейки специалист спокойно распознает по цветовым схемам и прочему.
Все более-менее достойное внимания покадрово дорисовывается ручками. Как, например, зарисовывание усов Кавилла за многие миллионы долларов или мертвые актеры в новых фильмах Звездных Войн. Машина способна сделать только всю грязную работу в подборе схожих кадров.
Когда технологии дипфейков достигнут идеала? Никогда. Это асимптота. Каждая задача по-своему уникальна и требует обучения прямо во время ее выполнения. Дипфейк же работает на готовой базе и обучаться вместе с задачей попросту неспособен.
За кулисами всех фейков стоит уйма ручного допиливания до состояния, которое не стыдно в новостях показать. Могу порекомендовать посмотреть также вот это видео. Сколько времени и сил ушло у непрофильных, но всё же про-айтишников на создание дип-фейка человека, доступ к которому у них был прямой реал-тайм, плюс огромной архив видеозаписей с ним высокого качества, плюс похожий актёр. И результат — впечатляющий, но тем не менее, очевидный фейк. https://www.youtube.com/watch?v=G0z50Am4Uw4
Fake nudes
С нетерпением слежу за техническим прогрессом в этой области
Через несколько лет выяснится, что всякие селебрити и не только заливают свои домашние видео, замаскировав себя дипфейком под порнозвёзд