Дипфейк - новая технология отменяющая реальность

Тип статьи:
Авторская

В 2017-м году разразился порно-скандал. В Интернете появилось откровенное видео известной актрисы Галь Гадот (фильмы «Бэтмен против Супермена» — сборы почти 900 млн.долл., «Чудо-женщина» — 821 млн.долл., «Лига справедливости» — 657 млн.долл., а также 4-6 серии «Форсаж» — общие сборы серии 5,7 млрд.долл.)

Сам по себе факт съёмок актрис в порно не является чем-то совсем удивительным. Некоторые с этого начинали карьеру.

Особенность в том, что порно было свежее. Зачем уже не юной девочке, а очень популярной и успешной актрисе это было нужно?! Правда в том, что Галь Гадот никогда не снималась в этом порно. Её лицо с помощью особой технологии «прилепили» к лицу порно-актрисы. Технология называется «дипфейк» или «глубокая подделка». Не исключено, что новая технология разом обесценит представления о об оригинале и подделке, и окажет огромное влияние на наше социальное, экономическое, политическое и даже геополитическое будущее в самое ближайшее время.

Давайте сначала укажем и на позитивные возможности глубоких подделок. Это, конечно, сфера кино или компьютерных игр.

Например, зритель будет сам выбирать актёров или персонажей игр, которых он хочет увидеть на экране. Даже будет возможно вставить себя самого, своих друзей или родственников на все главные и неглавные роли. Это выглядит так забавно, что глубокие подделки вполне могут занять свою нишу. Другой вариант — «омолодить» престарелого актёра или «оживить» умершего. Примеры этого уже есть, правда, пока только в экспериментальных роликах.

Вскоре после порно-скандала с Галь Гадот, уже в сентябре 2018-го года, Конгресс США делает запрос главе разведывательного сообщества США (глава всех 17-ти спецслужб). В письме изложено требование предоставить ответ по следующим вопросам:

А) Каковы возможности по вмешательству иностранных государств, спецслужб или физ.лиц во внутренние дела США с помощью технологии глубокой подделки.

Б) Какие известные или потенциальные варианты применения технологии.

В) Какие существуют технологии распознавания дипфейка и какие технологии должны быть разработаны, а также выгоды, ограничения или недостатки распространения таких технологий.

Г) Необходимость отслеживания развития и применения технологии дипфейка.

Д) Рекомендации по предоставлению дополнительных полномочий или финансовых ресурсов для работы по теме.

Е) Разработка рекомендаций Конгрессу.

Ё) Любая другая полезная информация.

Вскоре после обращения Конгресса США из открытого доступа исчезли все программные продукты, которые позволяли создавать глубокие подделки. Все… кроме одного, который вроде бы принадлежит русскому разработчику. Почему не зачистили?

Я не настаиваю, но всё же на ум приходит аналогия:

Наверное, многие знают историю с академиком Г.Н. Флёровым. Вскоре после начала Великой Отечественной войны он обратил внимание на то, что в зарубежной научной прессе перестали выходить научные публикации, посвящённые делению ядер урана. Причём исчезли даже те публикации, выход которых был анонсирован. Из этого наблюдения будущий академик сделал вывод, что США вплотную приблизились к созданию атомного оружия. Благодаря такой проницательности Г.Н. Флёрова СССР вовремя активизировал собственные разработки атомного оружия и сумел через некоторое время догнать США.

Ситуация с зачисткой программ по созданию дипфейков чем-то напоминает то, что обнаружил академик Флёров.

Конечно, во множестве делают примитивные подделки. Их можно распознать по по неестественным мимическим движениям, по «усреднённому» цвету лица, отсутствию моргания, по нестыкующимся друг с другом частям лица и т.д. Однако технологии совершенствуются и очевидные недостатки быстро устраняются. Уже созданы дипфейки такого уровня, что их практически невозможно распознать даже опытному человеку. Поэтому сегодня основное направление в распознавании дипфейков — специализированные программные средства.

«Майкрософт», «Фейсбук» и «Амазон» объявили конкурс Deepfake Detection Challenge по обнаружению дипфейков. (потратили 10 млн.долл., призовой фонд 1 млн. долл.) Конкурсантам удавалось распознать около 65% дипфейков, что было подано как неудовлетворительный результат.

Однако оценка зависит от того, с какой стороны смотреть. Ведь по условиям конкурса подделки для создавали организаторы конкурса. Т.е. с этой точки зрения у «Майкрософта», «Фейсбука» и «Амазона» безусловный успех! Они обладают уже настолько высокоэффективными технологиями дипфейка, что подделки не могут надёжно распознать даже лучше команды со всего мира.

Кстати, к вопросу об утечке кадров. В конкурсе победил программист из Минска, а 3-е место заняла российская команда.

Больше всего глубоких подделок — 96% — это порно. Но особую опасность дипфейки представляют в политике и геополитике. Достаточно вспомнить, насколько легко делаются провокации даже с примитивным арсеналом «доказательств». Например, в провокации с отравлением Скрипалей. Тогда ограничились показом кадров «ГРУшников», бродящих по аэропорту и Солсбери и выводом, что это были русские «хайли-лайкли». В итоге из многих стран были высланы десятки российских дипломатов.

А представьте себе, что появятся дипфейки, где некие «агенты Кремля» будут зафиксированы прямо на месте преступления? Высылкой дипломатов дело не ограничится. Это вообще может быть поводом для объявления не санкций, а войны.

В связи с особой опасностью глубоких подделок власти некоторых стран уже ввели ряд ограничений. Так, в Китае запрещена публикация таких материалов без специальной и хорошо различимой отметки. В США законом штата Калифорния запрещено использование дипфейков в политике.

В России соответствующего нормативного регулирования нет. Это значит, что безнаказанно можно вбрасывать что угодно и не отвечать за это. С учётом приближающихся выборов в Гос.Думу в 2021-м году, а также с учётом того, что интернет находится под плотным контролем зарубежных сил, стоит задуматься.

17.08.2020
70

Комментарии

Нет комментариев. Ваш будет первым!