Технологии Deepfake позволяют похитить внешность любого человека, а затем сделать его героем или, наоборот, подставить и разрушить репутацию

Американские и европейские ученые совместно разработали и опубликовали в открытом доступе так называемый код Deepfake. Это программа, в которую можно загрузить видеозапись речи человека. Искусственный интеллект изучит его внешность, голос и мимику и смоделирует суперреалистичное видео, на котором тот же человек говорит, но совсем другие вещи.

С одной стороны – теперь любой пользователь Сети может сделать, например, видеооткрытку, где любимая телезвезда поздравляет кого-то с днем рождения, а с другой – можно взять и сфабриковать, например, заявление президента ядерной державы о начале Третьей мировой войны.

«Я бы хотел и дальше уверять вас в том, что наша миссия – соединять людей. Но это не так. Мы просто хотим научиться предсказывать ваше поведение. Спектр научил меня, как манипулировать вами и собирать личную информацию о вас и ваших близких абсолютно бесплатно» — заявляет фальшивый Марк Цукерберг на просторах YouTube

Если бы это был настоящий Цукерберг, то такое циничное откровение вызвало бы сначала шок и гнев в обществе, а затем, скорее всего, привело бы к падению акций компаний – империя бы пошатнулась. Facebook пришлось бы долго восстанавливать репутацию. Однако на самом деле это была не атака видеоклона, а всего лишь предупреждение от британского художника Bill Posters. Урок о возможностях цифровой пропаганды.

«Когда вокруг столько хейтеров, меня это вообще не волнует. Потому что трафик, который я получаю от них, обогатил меня. Превзойдя все мои ожидания» — признается ненастоящая Ким Кардашьян

И это урок номер два – отличить видеофейк от настоящей модели сложно. Фраза «лучше один раз увидеть, чем сто раз услышать» больше не актуальна. Глазам теперь верить нельзя.

Новая реальность такова, что сделать косметическую видеопересадку внешности можно даже с помощью телефона, а представьте, что может сделать серьезная программа с помощью искусственного интеллекта.

Технологии Deepfake позволяют похитить внешность любого человека, а затем сделать его героем или, наоборот, подставить и разрушить репутацию. Нэнси Пелоси, спикер Палаты Представителей, стала одной из первых жертв новой цифровой реальности. «Доброжелатели» выставили ее политиком, склонной злоупотреблять спиртными напитками.

Deepfake не только замедлила скорость голоса Пелоси, но и синхронизировала движение мышц лица. Именно поэтому все выглядело органично – отличить подделку вряд ли смогла бы даже сама спикер. До выхода опровержения фальшивое видео уже успели посмотреть миллионы пользователей социальных сетей.

«Контент и новости тут же попадают в социальные сети. Это может сделать каждый. Все, что нужно – просто взять видео любого политика и затем вложить в его уста все, что угодно. Затем распространить, заявив, это видео было снято тайно» — объяснил доцент кафедры информатики в Университете Южной Калифорнии Хао Ли

Скандал в Малайзии – как подтверждение. Журналисты получили странное видео от неизвестного человека – якобы в одной постели оказались министр Мохамед Али со своим помощником. Оба мужчины заявили, что это фейковое видео. Однако как доказать свою правоту в эпоху таких цифровых возможностей. Быстрее закончится политическая карьера, чем расследование.

«До сих пор подобные вещи использовали, в основном, для развлечений, шантажа, личной мести. Особенно женщинам, которые расстроили каких-то мужчин. Однако есть опасения, в том числе и у сообщества по вопросам национальной безопасности, что подобные видео также могут использовать для фальсификации определенных приказов или чтобы заставить людей сомневаться в командах, которые они получают. И в самом худшем варианте это может привести к началу конфликта» — считает политолог Ричард Вайц

Сценарий может быть разный. Скажем, некий президент ядерной державы неожиданно выпускает обращение в Twitter – короткое видео. Условный текст: «Я принял решение нанести превентивный удар». Что будет дальше – паника, провокация, реальный ответный удар – не известно. Например, между Россией и США есть каналы связи, и подобный сценарий маловероятен, но все же опасность серьезного глобального конфликта теоретически существует.

«У нас есть опасения по поводу стран, у которых нет такой защитной коммуникационной системы. Я говорю о таких странах, как Индия, Пакистан, Северная Корея и так далее. Плюс другое опасение – можно сфабриковать, как сбивают дрон» — добавил Вайц

«Угроза будет все больше и больше. Мы живем в глобальной деревне, в которой все друг с другом общаются. Однако для этой коммуникации необходимо обеспечить безопасность. И это должна быть глобальная безопасность, а не только национальная» — заявил президент Совета по кибербезопасности Ханс-Вильгельм Дюнн

Выборы – удобное время для появления подобных фальшивых видео. Это политическое оружие сильнее компромата. Ведь кандидатам придется доказывать, что вот этот человек на экране – лишь украденная личность. У него моя внешность, мой голос. Однако все ли избиратели поверят такому объяснению?

«Это может быть опасно. Если это будет использовано во время выборов. Ведь быстро невозможно проверить – это настоящий компромат или подделка» — сказал бывший агент ЦРУ Феликс Родригес

Проверить фейк сложно, но все-таки пока еще можно – с помощью специальной технологии. Сотрудники калифорнийского университета разработали программу, которая может отличить оригинал от «самозванца». Например, где фальшивый Обама, а где – настоящий. Для этого система анализирует десятки видео с выступлениями бывшего президента Америки, изучает движение мышц лица – всю персональную геометрию.

«Вот эти синие точки – 68 позиций на лице. Зеленые лазерные линии отмечают, куда смотрит человек, когда он говорит. А эти синие коробки фиксируют движения головы. Таким образом, мы делаем трекинг. И так мы обрабатываем каждое видео. А затем мы анализируем, как разные части лица движутся вместе. Что, скажем, происходит, когда Обама открывает рот. В смысле, что происходит с его головой в этот момент» — объяснил научный сотрудник факультета компьютерных наук Калифорнийского университета в Беркли Шрути Агарвал

Есть и полезные моменты в появлении новой технологии. Например, роли в кино могут вечно играть одни и те же любимые актеры, даже после своей смерти. Или же можно смотреть старые фильмы, «меняя» звезд. Скажем, если надоел Терминатор в исполнении Шварценеггера, то запускаем в картину Сталлоне.

Эксперты говорят, что через год или два распознать фальшивое видео не смогут даже профессионалы. Еще одна угроза – сам искусственный интеллект. Пока фейки делают люди, а что будет, когда их начнет создавать алгоритм по собственному желанию?

«Потенциально – негативные последствия в кибермире очень велики. И мы, люди, должны контролировать технологии. Однако что касается цифрового мира, то он отличается от всего остального. Цифровой мир может жить сам по себе. Это означает – искусственный интеллект, машинное обучение. В прошлом человек всегда держал руку на кнопке управления. А сейчас теоретически возможно, что именно машины будут держать ее под контролем. Что плохо для меня и для вас» — поделился расследователь, ведущий эксперт по киберпреступности Миша Гленни

Киберугроза 2.0 неотвратима – новые технологии доступны всем. Это не ядерный клуб великих держав. Поэтому мировой кризис или даже конфликт может вызвать хакер-самоучка, проживающий, скажем, на острове Маврикий.

Сейчас читают

Архивы