2019/09/03 16:21:42

DeepFake

DeepFake (от deep learning – «глубокое обучение» и fake – «подделка») – метод синтеза человеческого изображения на основе искусственного интеллекта. Он используется для объединения и наложения существующих изображений на видео.

Системы распознавания лиц - это автоматическая локализация человеческого лица на изображении или видео и, при необходимости, идентификация личности человека на основе имеющихся баз данных. Интерес к этим системам очень велик в связи с широким кругом задач, которые они решают.

Содержание

2019

Выпуск приложения Zao

В начале сентября 2019 года стало известно о выходе приложения Zao, которое, используя искусственный интеллект, позволяет вставить лицо пользователя в сцену из фильма. Подробнее здесь.

У энергетической компании выманили $243 тыс., используя ИИ для подделки голоса

В начале сентября 2019 года преступники выманили у британской энергетической компании $243 тыс., выдав себя за исполнительного директора с помощью искусственного интеллекта для подделки голоса.

Генеральный менеджер неназванной энергетической компании подумал, что разговаривает по телефону со своим боссом, руководителем немецкой материнской компании. "Босс" попросил его отправить средства венгерскому поставщику. По словам страховой компании Euler Hermes Group SA, преступник заявил, будто запрос был очень срочным, и попросил менеджера перевести деньги в течение часа. Euler Hermes отказался назвать компанию-жертву.

Преступники выманили у британской энергетической компании $243 тыс.
Преступники выманили у британской энергетической компании $243 тыс.

Эксперт по мошенничеству из страховой компании Euler Hermes Рюдигер Кирш (Rüdiger Kirsch) сообщил, что пострадавший менеджер узнал слабовыраженный немецкий акцент своего босса и общий тон голоса по телефону. Сразу после звонка менеджер передал деньги венгерскому поставщику и снова связался с боссом, чтобы сообщить о выполненном задании. Вскоре глава компании и его подчиненный осознали, что стали жертвой мошенничества и обратились в полицию.

Специалист по кибербезопасности ESET Джейк Мур (Jake Moore) в конце августа 2019 года заявил, что в ближайшем будущем мы столкнемся с чудовищным ростом киберпреступлений. DeepFake способен подставить лица знаменитостей и общественных лиц в любое видео, но для создания убедительного изображения требуется не менее 17 часов записей с этим человеком. Чтобы подделать голос, требуется куда меньше материала. По мере увеличения вычислительной мощности компьютеров такие подделки становится создавать все проще.

Чтобы снизить риски, напоминает Мур, необходимо не только информировать людей о том, что подобные имитации возможны, но и включать специальные методы проверки до перевода денег, например, двухфакторную идентификацию.[1]

В США начинают сажать за распространение порно с подменой лиц

В начале июля 2019 года в Виргинии был принят закон, запрещающий распространение порнографии с подменой лиц. Это первый штат в США, где была подобная инициатива.

В Соединённых Штатах и других странах распространена так называемая порноместь — размещение в интернете материалов открыто сексуального характера без согласия изображённого на них человека. Как правило, такие материалы размещаются бывшими партнёрами в порядке мести или хакерами, получившими несанкционированный доступ к таким материалам. С развитием технологий искусственного интеллекта и простых инструментов для качественного редактирования фото- и видеоконтента порноместь всё чаще начала осуществляться путём наложения лица на порноактёра.

В начале июля 2019 года в Виргинии был принят закон, запрещающий распространение порнографии с подменой лиц
В начале июля 2019 года в Виргинии был принят закон, запрещающий распространение порнографии с подменой лиц

Начиная с 1 июля 2019 года, любой, кто распространяет или продаёт фальшивые фотографии и видеоролики сексуального характера с целью «шантажа, домогательства или запугивания» в Виргинии может быть оштрафован на сумму до $2500. Также предусмотрен тюремный срок до 12 месяцев.

Виргиния стала первым американским штатом, сделавшим так называемый deepfake вне закона. Подобные инициативы к июлю 2019 года готовятся и в других штатах. Например, Нью-Йорк рассматриваемый законопроект, запрещающий создание «цифровых копий» людей без их согласия, а в Техасе 1 сентября 2019 года вступит в силу закон об ответственности за распространение контента сексуального характера с подменой лиц.

«
Мы должны перестроить наши устаревшие и разрозненные законы, в том числе уголовные, за парализующие и опасные для жизни последствия угроз, и признать значительный вред поддельного порно, — считает профессор Клэр МакГлинн (Clare McGlynn) из Даремского университета.
»

По словам экспертов, выявить поддержку становится всё сложнее даже в видеороликах.[2]

Запущен сервис, раздевающий женщин на фотографии за 30 секунд

В конце июня 2019 года стало известно о запуске сервиса DeepNude, который позволяет раздеть девушку на фотографию. Имя разработчика приложения неизвестно, однако в его Twitter-блоге говорится, что продукт развивает «небольшая команда» из Эстонии. Подробнее здесь.

Московский ИИ-центр Samsung создал нейросеть, ожививший портрет Достоевского

В мае 2019 года исследователи из центра искусственного интеллекта компании Samsung в Москве представили нейросеть, способную «оживлять» статичные изображения лиц. Работа системы описана в материалах, опубликованных на портале arXiv.org.

Искусственный интеллект оживил портрет Достоевского — анимацию прислали в пресс-службе Samsung
Искусственный интеллект оживил портрет Достоевского — анимацию прислали в пресс-службе Samsung

Нейросеть фиксирует движения и мимику человеческого лица на видео, а после переносит полученные данные на статичный портрет. Ученые «показали» искусственному интеллекту большое количество кадров с лицами людей.

На каждое лицо на таком кадре накладывали специальную маску, которая обозначает границы и базовую мимику. То, как такая маска соотносится с исходным кадром, хранится в виде вектора, данные из которого используются для того, чтобы наложить отдельную маску на изображение человека, после чего готовая анимация сопоставляется с эталоном.

В Samsung отмечают, что такая разработка может найти применение в системах телеприсутствия, видеоконференциях, многопользовательских играх и при создании спецэффектов в фильмах.



Как пишет издание ZDNet, сами себе технологии deepfake не являются чем-то новым, но система Samsung интересна тем, что она не использует 3D-моделирование и позволяет создавать «живую» модель лица лишь по одной фотографии. Если в неё загрузить 32 снимка, то можно «добиться идеально реалистичной картинки и персонализации», отметили в компании.

Возможности системы её разработчики продемонстрировали на фотографиях Мэрилин Монро, Сальвадора Дали и Альберта Эйнштейна. Однако она работает и на картинах и портретах. В видеоролике авторы проекта показали «оживлённый» портрет русского писателя Фёдора Достоевского.

На момент демонстрации разработки всё же заметна искусственность движений — устранением этих дефектов разработчики планируют заняться в дальнейшем.[3]

McAfee: подмену лиц в видео уже невозможно определить

В начале марта 2019 года компания McAfee, занимающаяся проблемами кибербезопасности, сообщила, что подмену лиц в видео уже нельзя определить невооруженным глазом. В программной речи на конференции по кибербезопасности RSA в Сан-Франциско Стив Гробман (Steve Grobman), директор по технологиям McAfee, и Селеста Фралик (Celeste Fralick), главный специалист по данным, предупредили, что использование новой технологии хакерами – лишь вопрос времени.

Теперь, когда злоумышленники способны создать индивидуализированный целевой контент, они могут использовать ИИ в различных целях – например, для взлома учетных записей с помощью методик социальной психологии или фишинг-атак. Персонализированный фишинг, то есть мошенничество, направленное на получение банковских конфиденциальных данных с целью хищения денег, является более успешным, однако новые возможности искусственного интеллекта позволяют проводить его в масштабах автоматизированных атак.

Отличить deepfake-видео от подлинных материалов будет всё сложнее, и это может стать проблемой для кибербезопасности, считают эксперты
Отличить deepfake-видео от подлинных материалов будет всё сложнее, и это может стать проблемой для кибербезопасности, считают эксперты

Существует целая область кибербезопасности, называемая состязательным машинным обучением, где изучаются возможные кибератаки на классификаторы машинного обучения. Специалисты McAfee считают, что методика подмены изображений представляет серьезную угрозу и может использоваться для искажения работы классификатора изображений.

Один из способов обмануть людей и ИИ - сделать настоящую фотографию и незаметно изменить ее небольшую часть. Так при минимальном изменении фотография пингвинов могла быть интерпретирована ИИ как сковорода. Однако ложные срабатывания в более серьезном масштабе могут иметь катастрофические последствия.

Гробман подчеркнул, что сама по себе технологии DeepFake представляют собой орудие, которое можно использовать в самых различных целях. Запретить злоумышленникам использовать новые методики невозможно, но можно своевременно наладить линию защиты, считает он.[4]

Подделанное ИИ-порно затерроризировало женщин

К началу 2019 года искусственный интеллект достиг такого уровня развития, который позволяет легко и без особых технических навыков «приставлять» головы звезд и обычных женщин к телам порноактрис для создания реалистичных видеороликов. Эти откровенные фильмы, созданные при помощи метода DeepFake, представляют собой видеоролики, отредактированные настолько хорошо, что неотличимы от настоящих. Их появление опасно тем, что технологию могут также начать использовать для распространения поддельных новостей. Но еще большей опасностью является их использование в качестве инструмента для шантажа и унижения женщин.

В свете распространения ИИ и легкого доступа к фотографиям бывших партнеров, коллег и других людей без их согласия на сайтах социальных сетей, таких как "ВКонтакте" и Facebook, растет спрос на инструменты для создания фейковых роликов. Несмотря на то, что закон может быть на стороне жертв, часто они сталкиваются со значительными препятствиями, связанными со сложностями преследований в интернете.

«
Фейковые порноролики вызывают такой же стресс, как интимные фото, выкладываемые в сеть, — говорит писатель и бывший политик Шарлотта Лоз (Charlotte Laws). — Фейковые порноролики реалистичны, и их влияние усугубляется ростом количества фальшивых новостей, среди которых мы живем.
»

Подделываемое при помощи ИИ порно затерроризировало женщин
Подделываемое при помощи ИИ порно затерроризировало женщин

Лоз добавляет, что фейковые видео стали обычным способом унижать или шантажировать женщин. В ходе опроса, в котором приняли участие 500 женщин, ставших жертвами порномести, Лоз обнаружила, что 12% стали жертвами фейковых порнороликов.

Одним из способов решения этой проблемы может стать пересмотр и дополнение законов, запрещающих порноместь. Эти законы, которые на начало 2019 года существуют в 41 штате США, появились недавно и свидетельствуют об изменении отношения правительства к «несогласованной» порнографии.

Сфабрикованное порно с "участием" актрисы Поль Гадот

Другой подход заключается в возбуждении гражданских исков против правонарушителей. Как отмечается на сайте независимой некоммерческой организации Electronic Frontier Foundation, лица, ставшие жертвами фейковых порнороликов, в США могут подать в суд за клевету или представление их в «ложном свете». Они также могут подать иск о «праве на публичное использование», указав на то, что создатели видео извлекли выгоду из изображения жертвы без ее разрешения.

Однако все эти возможные решения могут натолкнуться на серьезное препятствие: закон о свободе слова. Любой, на кого подали в суд за создание фейкового ролика, может заявить, что видео является формой культурного или политического выражения и попадает под первую поправку. Лоз считает, что в случае с фейковыми порнороликами большинство судей будут настроены критически по отношению к ссылке на первую поправку, особенно когда потерпевшие не будут известными личностями, а видео будет затрагивать только сексуальную эксплуатацию и не включать политическую сатиру или материалы, представляющую художественную ценность.

Фрагмент из поддельного порновидео, в котором лицо порноактрисы заменили на лицо звезды Голливуда Поль Гадот
Фрагмент из поддельного порновидео, в котором лицо порноактрисы заменили на лицо звезды Голливуда Поль Гадот

У самой жертвы при этом почти не остается возможностей закрыть доступ к оскорбительному видео. Причина кроется в статье 230 закона США, которая защищает провайдера в части того, что пользователи публикуют на своих страницах. В случае сайтов, на которых размещены фейковые порноролики, провайдеры могут претендовать на неприкосновенность, поскольку не они, а их пользователи загружают видео. Исключением в данной ситуации является нарушение интеллектуальной собственности, когда оператор обязан удалять материалы, если получает уведомление от владельца авторских прав.

По словам профессора Loyola Law School и автора книги о неприкосновенности частной жизни и праве на гласность Дженнифер Ротман (Jennifer Rothman), суды не имеют четкого представления о том, распространяется ли данное исключение на государственные законы (например, право на публичность) или только на федеральные (такие как авторское право и товарный знак).

Это поднимает вопрос о том, может ли Конгресс разработать закон, достаточно узкий, чтобы помочь жертвам фейковых порнороликов, но который при этом не будет иметь нежелательных последствий. В качестве предостерегающего примера профессор права в Университете Айдахо Аннемари Брайди (Annemarie Bridy) приводит неправомерное использование закона о защиты авторских прав, когда компании и частные лица действовали недобросовестно, чтобы удалить законную критику и другой законный контент.

Тем не менее, по словам Брайди, учитывая то, что поставлено на карту в случае с поддельными порнографическими видеороликами, новый закон необходим уже сейчас, говорится в публикации Fortune от 15 января 2019 года.[5]

2018: Искусственный интеллект научили подделывать движения людей в видео

Основная статья Искусственный интеллект в видео

Как стало известно в июне 2018 года, появилась новая разработка в области искусственного интеллекта (ИИ), которая позволит создавать реалистичные поддельные видео сюжеты.

Инструменты, позволяющие имитировать движение губ и мимику человека, уже существуют. Однако, как сообщает портал Futurism, новая система на основе ИИ представляет собой значительное улучшение существующих разработок. Она обеспечивает возможность создавать фотореалистичные видеоролики, в которых все движения и слова, произносимые актером в исходном видео, будут переноситься в изменяемое видео.

Появилась новая разработка в области искусственного интеллекта (ИИ), которая позволит создавать реалистичные поддельные видео сюжеты
Появилась новая разработка в области искусственного интеллекта (ИИ), которая позволит создавать реалистичные поддельные видео сюжеты

Публичная демонстрация разработки состоится в августе 2018 года на конференции по компьютерной графике SIGGRAPH. Создатели новой системы планируют показать возможности разработки с помощью экспериментов по сравнению нового алгоритма с уже существующими средствами создания правдоподобных видео сюжетов и изображений, многие из которых были частично разработаны Facebook и Google. Характеристики решения на основе ИИ превосходят показатели существующих систем. Как сообщается, система ИИ всего за несколько минут работы с исходным сюжетом поможет создать безупречное фальшивое видео. Участникам экспериментов с трудом удалось отличить настоящие видео от поддельных.

Разработчики, получившие финансовую поддержку Google, надеются, что их работа будет использована для улучшения технологий виртуальной реальности и обеспечения ее большей доступности.

2017: Замена лица порноактрисы на лицо кинозвезды Голливуда

В декабре 2017 года в интернете появилось порноролик якобы с участием известный актрисы Галь Гадот. Однако в действительности на видео было тело порноактрисы, лицо которой с помощью искусственного интеллекта заменили на лицо голливудской кинозвезды. Подробнее здесь.

См. также

Робототехника



Примечания