Термин «дипфейк» представляет собой соединение слов «глубинное обучение» (англ. Deep learning) и «подделка» (англ. Fake). Дипфейки используют технологии искусственного интеллекта для синтеза изображений, в результате чего один персонаж как бы накладывается на другого и получается «комбо»: немало известных женщин внезапно обнаружили себя в роли порнозвезд – их лица были вмонтированы в порнографические ролики и изображения. Создают дипфейки алгоритмы на базе машинного обучения, способные генерировать новый контент из заданного набора.

Компания CyberCube — международная аналитическая компания по страхованию от киберпреступлений — подчеркнула в своём отчёте (2020 года) «Социальная инженерия: размытие реальности и фальшивка», что «способность создавать реалистичные аудио- и видео-фейки с помощью ИИ (искусственного интеллекта) и машинного обучения неуклонно растет». Хотя сегодняшняя технология дипфейков пока не совсем соответствует подлинным видеоматериалам—присмотревшись внимательнее, обычно можно сказать, что видео не является настоящим — технология быстро совершенствуется. Эксперты предсказывают, что уже в ближайшее время дипфейки будут неотличимы от реальных изображений. «Новые и появляющиеся методы социальной инженерии, такие как фальшивые видео и аудио, коренным образом изменят ландшафт киберугроз и станут технически осуществимыми и экономически жизнеспособными для преступных организаций любого размера», — говорится в отчёте CyberCube.

Благодаря быстрому техническому развитию и более широкому использованию технологий, спровоцированному пандемией COVID-19, а также тому, что при переходе на дистанционный режим работы организации стали в разы больше пользоваться аудио- и видеосвязью, в основном, по открытым каналам, в настоящее время в интернете становится все больше и больше видео- и аудиосэмплов деловых людей. Искусственный интеллект (ИИ) анализирует подлинные записи и на их основе учится, как может выглядеть и двигаться конкретный человек, а затем создает новые видеоролики с заданным сюжетом. Таким образом, согласно CyberCube, киберпреступники «имеют большой объем данных для создания фотореалистичных симуляций людей, которые затем могут использоваться для воздействия на индивидуумов и манипулирования ими».

Такие фейковые видео, используемые в политических кампаниях, уже были замечены. «Это лишь вопрос времени, когда преступники применят ту же технику к бизнесу и богатым частным лицам» — предупредили авторы отчёта. Это может быть «так же просто, как поддельное голосовое сообщение от старшего менеджера, инструктирующее персонал совершить мошеннический платеж или перевести средства на счет, созданный хакером».

CyberCube заявила, что помимо технологии подделки видео и аудио, она также исследует «растущее использование традиционных методов социальной инженерии. Основной ее целью является получение доступа к конфиденциальной информации, паролям, банковским данным и другим защищенным системам методами, базирующимися на особенностях психологии людей».

Исследователи в своем отчете выделяют три новых тенденции в создании дипфейков, которые могут оказать значительное влияние в ближайшие 2-4 года:

— Масштабное социальное профилирование. Это построение профиля личности, на которую направлена атака, с помощью его данных в социальных сетях или украденных документов — например, банковских, медицинских карт и водительских удостоверений. В итоге злоумышленники создают подробный профиль жертвы, в котором описывают черты характера, интересы, желания и слабости и формируют его личный и профессиональный портрет, который затем используют для манипуляции жертвой.

— Подделка голоса. Впервые синтезированный компьютером голос появился еще в 1970-х, но сегодня перед злоумышленниками стоит задача создания правдоподобного и убедительного голоса, неотличимого от оригинала. В этом случае также приходят на помощь технологии искусственного интеллекта, машинного обучения и нейросетей.

— Подделка видео с технологией, которая позволяет с высокой точностью имитировать движение человеческого рта. Она была разработана студентами и преподавателями Вашингтонского университета и дополняет технологии создания поддельных видео и голоса.

В отчете подчеркивалось, что «вскоре дипфейки коренным образом изменят ландшафт киберугроз. Они уже сейчас используются в политических кампаниях для манипулирования аудиторией, и это лишь вопрос времени, когда преступники применят подобный метод к состоятельным частным лицам и бизнесу».

Дипфейки способны не только дискредитировать влиятельных людей, но и потенциально нанести вред обществу в целом, в связи с чем многие эксперты по безопасности прогнозируют, что дипфейки могут стать серьезной угрозой уже в 2021–2022 гг.

Согласно новому отчёту Университетского колледжа Лондона (UCL), фальшивый аудио- или видеоконтент был признан экспертами наиболее тревожным использованием ИИ с точки зрения его потенциального применения для совершения преступлений или терроризма.

В исследовании, опубликованном в журнале Crime Science и финансируемом Dawes Center for Future Crime at UCL, определены 20 способов использования ИИ для содействия преступности в течение следующих 15 лет. Они были ранжированы по масштабам рисков — в зависимости от вреда, который они могут причинить, потенциальной преступной выгоды и от того, насколько легко их будет выполнить и насколько сложно будет их остановить.

Авторы заявили, что фальшивый контент будет сложно обнаружить и остановить, и что он может преследовать самые разные цели — от дискредитации общественного деятеля до вымогательства денежных средств путем выдачи себя за сына или дочь супружеской пары во время видеозвонка. По их словам, такой контент может вызвать повсеместное недоверие к аудио- и визуальным свидетельствам, что само по себе нанесет обществу вред.

Исследователи UCL пришли к следующим выводам.

Дипфейк, по самой своей сути, — это технология, предназначенная для того, чтобы оставаться незамеченной. Её цель — «казаться реальной», поэтому большинство связанных с ней преступлений, скорее всего, никогда даже не всплывут на поверхность. Можно рассматривать незаконное использование дипфейков как огромный айсберг. Некоторые уголовные дела станут очевидными, потому что преступник не идеально исполнил свое преступление. Большинство же дипфейковых преступлений будут зарегистрированы как обычные преступления, поскольку их слишком сложно отличить от настоящих. Это одна из причин, по которой данная технология считается особо опасной угрозой нашего времени. В настоящее время растет интерес к возможности монетизации технологии дипфейк.

1. Финансовое вымогательство

Финансовые преступления с каждым днем ​​становятся все более изощренными благодаря возможностям дипфейков. Есть несколько методов, которые используются преступниками для этой цели:

· Фальсификация ваших фотографий или видео в изобличающей или позорящей манере, когда преступники вымогают деньги (часто в форме криптовалют) у своей жертвы. Если деньги не будут уплачены, компрометирующие материалы будут отправлены всем их близким. Эта тактика все чаще используется в форме атаки программ-вымогателей Deepfake.

· Обход аутентификации по Face ID, в частности, на сайтах онлайн-знакомств. Преступник получает доступ к конфиденциальной информации и реквизитам кредитной карты, что позволяет ему совершать платежи удаленно.

· Использование программного обеспечения deepfake audio для имитации голоса высокопоставленного человека, например генерального директора компании. Голосовой звонок или телефонный звонок с конкретными инструкциями по переводу денег на банковский счет преступника — самая основная форма этого преступления.

· Использование инсайдерской информации от высокопоставленных должностных лиц компании или политических деятелей с целью манипулирования рынком. Выдавая себя за высокопоставленного чиновника, преступник получает доступ к определенной информации, которая может дать ему преимущество в мире торговли.

2. Deepnudes

Один из наиболее серьезных способов вымогательства — использование так называемых «deepnudes» (изображение обнажённых). Это наиболее изощренный метод, в котором иногда дело не только в деньгах, но и просто в давлении на человека. Такой фейковый контент может нанести ущерб репутации человека даже в самых либеральных и терпимых обществах.

Deepnudes — это форма откровенности, которая может удовлетворить самые смелые мечты поклонников определенных знаменитостей. Однако deepnudes применяются не только в «развлекательных целях». Они также часто используются преступниками в качестве рычага давления на ничего не подозревающую жертву. Метод довольно порочный и затрагивает всю социальную сферу жертвы:

· Создается откровенное изображение или видео с максимальным обнажением.

· Изучаются все социальные контакты жертвы.

· Преступник отправляет откровенный контент жертве, вымогая у нее деньги или заставляя ее выполнять определенные действия.

· Если жертва игнорирует попытки вымогательства преступника, то фейковый контент распространяется в ее социальном кругу. Либо она попадает в ловушку, где вымогают все больше и больше денег или злоупотребляют властью (или и то, и другое).

Проблема deepnudes вероятно, должна стать одним из основных направлений будущего законодательства о дипфейках.

Нидерландская компания Deeptrace, которая специализируется на кибербезопасности и распознавании дипфейков, опубликовала в 2020 г. отчёт, в соответствии с которым 96% поддельных видеороликов, созданных с помощью технологии дипфейк, относится к категории порно. Такие ролики набирают рекордное количество просмотров.

3. Кража личных данных

Выдача себя за другое лицо — еще одна из основных составляющих незаконного использования дипфейков. Этот метод часто сочетается с каким-либо мошенничеством. Преступник притворяется тем, кем он не является. Например, можно использовать инструмент для подделки паспортов, получив доступ ко всем видам платформ, регулируемых идентификацией, ничего не подозревающей жертвы.

Ещё в марте 2019 года с помощью дипфейковых видео у управляющего директора британской энергетической компании было похищено около 240 млн долларов. В 2021 году в Китае разоблачена группа мошенников, которые два года обманывали госсистему распознавания лиц с помощью технологии дипфейк, создающей реалистичные замены лиц на видео или заставляющей фотографии двигаться. За это время аферисты заработали 76 млн долларов. Схема китайских мошенников была следующей: они покупали фотографии реальных людей в высоком качестве в даркнете, затем «оживляли» их с помощью технологии дипфейк. Через специально перепрошитые смартфоны, у которых система распознавания лиц работает некорректно и принимает дипфейк за реальное лицо, аферисты подделывали налоговые накладные (South China Morning Post 03.04. 2021 ).

4. Политические манипуляции

Политика — это репутация и мнения. Поддельный контент может быстро распространяться с помощью ботов и ферм троллей, с которыми сложно бороться таким платформам, как Twitter и Facebook. Все, что нужно, — это несколько одаренных хакеров со взглядами, отличными от повестки дня ведущей политической партии, и можно манипулировать будущим целой страны.

Хотя дипфейки все еще остаются незамеченными в недавних избирательных циклах, они вызывают все большее беспокойство. На просторах сети есть куча программ, функция которых — создание дипфейков. С помощью них можно, например, заменить лицо на видео на совершенно другого человека или изменить движения губ говорящего. А изменение движения губ и наложение новой звуковой дорожки с голосом говорящего (которую, кстати, тоже можно сделать с помощью отдельных дипфейк-программ) позволят сделать контент, в котором человек говорит совершенно другие вещи, нежели в оригинале.

Обычные люди создают все более и более гиперреалистичный дипфейк-контент. Большая его часть будет безвредной, но те немногие, которые просачиваются и становятся вирусным контентом на социальных платформах, могут нанести ущерб, в том числе избирательным процессам.

Центр безопасности и новых технологий (CSET) Джорджтаунской школы дипломатической службы Уолша в июле 2020 г. подготовил развёрнутый доклад о дипфейках.

В докладе делается два вывода.

Во-первых, злонамеренное использование грубо сгенерированных дипфейков станет проще со временем по мере превращения технологии в товар.

Во-вторых, специализированные дипфейки, созданные технически продвинутыми участниками, со временем будут представлять большие угрозы.

Авторы доклада считают, что технологии дипфейк все чаще интегрируются в программные платформы, где не требуются специальные технические знания. Простота в их использовании упрощает «замену лиц» — удаление одного лица из изображения или видео и вставку другого – и делает их все больше доступными для пользователей без технических знаний.

В документе даются четыре рекомендации:

• Создать базу дипфейков. Выявление дипфейков зависит от быстрого доступа к примерам синтетических носителей (носители, которые не были достоверно записаны из реального мира, а вместо этого были подделаны с использованием различных методов), которые можно использовать для улучшения алгоритмов обнаружения. Платформы, исследователи и компании должны вкладывать средства в создание базы дипфейков, которые предоставляют в свободном доступе наборы данных синтетических медиа по мере их появления в сети.

• Поощрять более эффективное отслеживание возможностей: техническая литература по машинному обучению дает полное представление, как субъекты дезинформации будут использовать дипфейки в своих операциях. Однако непоследовательная практика документирования среди исследователей препятствует этому анализу.

• Широко распространять технологии обнаружения дипфейков, что поможет снизить эффективность их применения. Государственные учреждения и благотворительные организации должны распределять гранты, чтобы помочь исследованиям в области обнаружения дипфейков. Регулярная разъяснительная работа для журналистов и представителей различных профессий, которые могут быть нацелены на использование этих методов, также может ограничить степень обмана общественности.

• Распространять “маркированные” (идентифицируемые) данные. Наборы данных можно сделать маркированными. Это значительно снизит затраты на обнаружение дипфейков, а также заставит более изощренных субъектов дезинформации, вкладывая дополнительные средства, использовать собственные наборы данных, чтобы избежать обнаружения.

5. О возможностях разоблачения дипфейков

Дипфейки могут содержать своего рода «отпечатки пальцев», позволяющие расследователям связать воедино все СМИ, созданные в результате данной кампании дезинформации. Расследователи, в свою очередь, могут отследить кампанию до определенного источника.

Алгоритмы по распознаванию дипфейков обычно используют свёрточные нейронные сети, которые призваны выделять характерные признаки. Эти нейросети обучают на самих изображениях в явном виде, что требует много времени и ресурсов. Однако коллектив исследователей из Института информационной безопасности им. Хорста Гёрца при Рурском университете в Бохуме предложил простое и изящное решение проблемы выявления дипфейка и источника его возникновения. Учёные решили подвергнуть изображения частотному анализу, использовав давно известный метод дискретного косинусного преобразования. Он применяется, например, в алгоритме сжатия JPEG. Изображение в этом случае рассматривается как результат наложения гармонических колебаний различной частоты, взятых с разными коэффициентами. Эти коэффициенты можно визуализировать в виде прямоугольной тепловой карты, верхний левый угол которой соответствует низкочастотным областям исходного изображения, а нижний правый — высокочастотным. Реальные фотографии в основном состоят из низкочастотных колебаний.

Если же явные всплески наблюдаются в высокочастотной области, это может свидетельствовать о том, что изображение — подделка. А если они ещё и формируют регулярную структуру — тут как говорится, и к гадалке не ходи.

Чтобы проверить эффективность предложенного подхода, учёные составили тестовую выборку из 10 000 изображений, куда вошли сгенерированные нейросетью StyleGAN портреты несуществующих людей и реальные фотографии из набора Flickr-Faces-HQ (FFHQ), можно найти на сайте whichfaceisreal.com. Алгоритм распознал все дипфейки до единого.

Более того — выяснилось, что он с большой долей вероятности позволяет определить, с помощью какой именно нейросети было сгенерировано изображение. Дело в том, что каждая из них имеет свой «отпечаток» в частотном диапазоне.

Корейский институт науки и технологий Korea Advanced Institute of Science and Technology (KAIST) представил программное обеспечение на базе ИИ, предназначенное для обнаружения дипфейков.

Новое программное обеспечение, получившее название Kaicatch, способно анализировать как изображения, так и видео, и выявлять искусственные изменения, которые могут быть невидимы для человеческого глаза. Kaicatch использует сразу несколько разных механизмов машинного обучения и может не только определять, что конкретно было изменено на фотографии или в видео, но и способ внесения правок.

Ученые из Университета штата Нью-Йорк в Буффало предложили надежный способ, позволяющий отличить дипфейковое изображение от настоящего. В основе решения — отражение в глазах человека. Искусственно сгенерированное сетью GAN-изображение имеет отличия в бликах и отражении в глазах.

Агрессивная позиция, занимаемая онлайн-платформами в отношении дипфейков, будет иметь определённые последствия. Злоумышленники столкнутся с более враждебной средой для распространения дипфейков через основные каналы социальных сетей, поскольку контент будет удален, если будет идентифицирован алгоритмом обнаружения.

6. Сценарии и рекомендации

Тенденции исследования в области создания и обнаружения дипфейков предполагают два сценария.

В первом сценарии дипфейки могут распространиться и стать повсеместными в публичном дискурсе. Даже злоумышленники с небольшим бюджетом, применяющие дезинформацию, могут воспользоваться этой технологией, так как она становится все более дешевой и доступной. Доступность пакетов с открытым исходным кодом и готового программного обеспечения, заменяющего приложения для смены лица, таких как FakeApp, вероятно, только начало волны инструментов для простых манипуляций с медиа. Хотя модели машинного обучения могут быть сложными для разработки с нуля и обучения для достижения высокого уровня производительности, но, однажды построенных, их относительно легко использовать и распространять.

Распространение технологий создания дипфейков не ограничивается подпольными способами. Такие компании, как Adobe, начали популяризировать программное обеспечение с расширенным машинным обучением для редактирования изображений и звука. У платформы существует сильная коммерческая мотивация, предлагающая эти передовые функции своим клиентам. Коммерциализация инструментов для создания дипфейков и открытый исходный код моделей машинного обучения, вероятно, снизят стоимость и сложность этих инструментов до такой степени, что технически несложные кампании по дезинформации будут способны использовать дипфейки.

Если простая смена лица на изображении или видео может помочь кампании преследовать их цели или распространить неопределенность с небольшими операционными затратами, следует ожидать, что они это сделают. Более широкодоступные инструменты для создания дипфейков, вероятно, будут доступны как тем, кто борется с дипфейками, так и злоумышленникам.

В то же время, существующие исследования по обнаружению дипфейков предполагают, что в ближайшем будущем не будет окончательно найдено решение для идентификации подделок с помощью машинного обучения. Вместо этого системы обнаружения будут нуждаться в постоянном обновлении на основе возможностей новых приложений и обученных моделей.

Практически все платформы социальных сетей имеют политику, запрещающую злонамеренное использование дипфейков и сталкивающуюся с сильным политическим давлением в целях борьбы с дезинформацией. Эффективное обнаружение дипфейков позволяет компаниям применять политику удаления дипфейков со своих платформ.

Второй сценарий заключается в том, что кампании по дезинформации могут предпочесть инвестировать в создание пользовательской модели машинного обучения для создания дипфейков для очень конкретной цели, а не полагаться на уже подходящие инструменты и модели.

Эксперты Forbеs, проанализировав ситуацию с аудио дипфейками, считают, что «было бы логично ввести верификацию аккаунтов, когда пользователь подтверждает свой ID с помощью фотографии, и голосовую биометрию, когда пользователь регистрирует свой голосовой образец» (29.03.2021). Голосовая биометрия позволит использовать технологии голосового антиспуфинга (от англ. spoof — мистификация). Эту технологию применяют, например, банки. Если оператор разговаривает с клиентом, который предоставлял голосовую биометрию, система во время разговора мониторит голос и сразу же оповещает оператора, если «видит», что голос чужой (это могут быть такие малозаметные для человеческого уха параметры, как тембр, скорость речи, паузы и т. д.). Крупный бизнес считает, что антиспуфинг — это необходимость, и ждет, что такие технологии должны быть интегрированы на любой голосовой платформе.

Законодательные ограничения

Дипфейки — это не добро, но и не зло. Это всего лишь инструмент. С его помощью можно сделать смешной видеомем или донести важную информацию конкретной группе людей. Но в то же время можно нанести кому-то вред. В итоге всё, как и всегда, зависит исключительно от того, к кому в руки этот инструмент попадёт. К сожалению, контролировать и регулировать распространение и использование подобных программ очень сложно.

В Китае действует уголовная ответственность за введение людей в заблуждение с помощью дипфейков.

В США разработаны четыре законопроекта, касающихся дипфейков. Если они будут приняты, подобные видео обяжут маркировать — указывать, что это фейк, и называть его создателей. Это позволит правительству налагать штрафы на лиц, распространяющих вредный контент, созданный с использованием ИИ. В Калифорнии уже приняты два закона, касающиеся дипфейков. Первый делает незаконным размещение любых видео с манипуляциями в политических целях — например, замена лица или речи кандидата для его дискредитации. Другой позволяет жителям штата подать в суд на любого, кто использует дипфейк в порнографическом видео.

Во Франции введено наказание за публикацию монтажа, сделанного со словами или изображением человека.

***

В России Уголовный кодекс пока не содержит упоминания о дипфейках. За их производство ответственности нет. В России нет инструментов, позволяющих защитить граждан от дипфейков.

Дипфейки могут рассматриваться как средство совершения традиционных преступлений (мошенничества, вымогательства, оскорбления, клеветы и т.д.). Возможно, совершение указанных и других преступлений с использованием дипфейков следует законодательно закрепить как квалифицирующий признак состава преступления.

ИсточникЗавтра
Владимир Овчинский
Овчинский Владимир Семенович (род. 1955) — известный российский криминолог, генерал-майор милиции в отставке, доктор юридических наук. Заслуженный юрист Российской Федерации. Экс-глава российского бюро Интерпола. Постоянный член Изборского клуба. Подробнее...