Русский
Русский
English
Статистика
Реклама

В мире Deepfakes как отличить правду от вымысла

Джон Сноу приносит извинения за мрачный финал Игры престолов, а Илон Маск поет песню Трава у дома вместо солиста группы Земляне: дипфейки давно осязаемая реальность. При этом довольно долго открытым оставался вопрос, как с ними можно бороться, какие технологии помогут сдерживать действия мошенников по всему миру. Об этом ПостНауке рассказал кандидат технических наук, руководитель направления в лаборатории кибербезопасности Сбера Кирилл Вышегородцев.Что такое DeepfakeТермин Deepfake составной: он образован с помощью объединения английских слов deep (глубокая)1 и fake (подделка) и обозначает сгенерированное изображение или видеоролик на основе методов машинного обучения. Deepfake используется для создания ранее не существовавшего видео- или аудиоконтента на основе реального видео либо звуковой дорожки. В том числе уже возможна подмена и звуковой дорожки. С помощью такой технологии можно заставить человека на видео совершать поступки, которые он никогда не совершал, и говорить то, чего он никогда не произносил.Первым знаковым проектом в области дипфейков была программа Video Rewrite, выпущенная в 1997 году. Программа была способна менять мимику человека в видео таким образом, чтобы было возможным подставлять любые аудиодорожки и приписывать ему любые слова. Однако по-настоящему реалистичные дипфейки начали появляться лишь несколько лет назад. Так, например, программа Synthesizing Obama 2017 года сгенерировала высококачественный ролик с Бараком Обамой при помощи рекуррентной нейронной сети, обученной на многочасовых видеозаписях еженедельных обращений президента США. Сегодня для синтеза качественного дипфейка достаточно одного изображения и нескольких минут записи голоса.Гений и злодейство: как наука помогла изменить наше представление о суверенитете тела и личностиПоявление технологии Deepfake это следствие развития методов машинного обучения, мощности и доступности вычислительных ресурсов. Для подделки видео наиболее популярной сегодня стала технология FaceSwap, в основе которой лежат нейросети-автоэнкодеры. Такие нейросети состоят из двух частей: энкодера (он отвечает за перевод входного сигнала в вектор) и декодера (он восстанавливает сигнал по вектору). Принцип их работы заключается в следующем: энкодер изучает уникальные характеристики наборов данных (лица), то есть учится получать векторное представление уникальных параметров человека. Далее в действие вступает декодер: эта часть сети разворачивает ранее сохраненный вектор в исходное изображение. При создании дипфейка энкодер первой нейросети кодирует векторное представление исходного лица на изображении, после чего происходит подмена, при которой декодер второй сети разворачивает полученный вектор в изображение другого человека. Такие методики, как сглаживание границ наложения лиц и удаление шумов, позволяют улучшить полученный результат и добиться еще более реалистичного изображения.Deepfakes: за и противТакая технология, несомненно, опасна в руках злоумышленников. Ее можно использовать, например, для эксплуатации образов публичных личностей и политиков. Известен случай, когда в сети появилось поддельное видео с руководителем крупного банка: на нем дипфейк предлагает интернет-пользователям стать инвесторами в рамках несуществующей бонусной программы. Несмотря на низкое качество дипфейка (эксперты обратили внимание на рассинхронизацию мимики и речи на видео), подделка вышла довольно убедительной. И это лишь один из многих примеров. Сегодня мошенники могут подделать изображение в реальном времени, например во время видеоконференции Zoom.Опасность дипфейков заключается в общедоступности технологии. Технически грамотный специалист способен в одиночку реализовать все условия для проведения подобной атаки. Развитие вычислительных ресурсов привело к тому, что для проведения мошенничества подобного рода не требуются большие расходы.Складывается довольно безрадостная картина. Кажется, что с постепенным перемещением функционала в виртуальную среду риск негативной социальной инженерии будет постоянно повышаться. Но есть ли польза от этой технологии?Сейчас дипфейки используются для создания развлекательного контента (нередко с сатирическим уклоном). В TikTok по тегу #deepcaprio можно найти целый ряд забавных видеороликов с Лео, покупающим Азерчай на московских рынках. Но дипфейкам можно найти и более серьезное и полезное применение. Сейчас технология FaceSwap становится популярной у продакшн-студий, выпускающих рекламные видеоролики. Кроме того, подмену лица можно применять для обеспечения конфиденциальности и безопасности.Дипфейки позволяют воспроизводить качественный видеопоток без непосредственной передачи видеозаписи на устройство. В будущем это позволит проводить трансляции конференций объемом в несколько килобайт против сотен килобайт, которые необходимы сейчас. Кино без актеров, анимация старинных фотоснимков, репродукция виртуальных героев все это начинает стремительно развиваться благодаря инструментам deepfake-технологий. Нет однозначного ответа на вопрос, действительно ли эти достоинства превосходят все вышеперечисленные риски. Это зависит от расстановки индивидуальных приоритетов. Важно понимать: прогресс не терпит сослагательного наклонения.
Как распознать DeepfakeПри любом создании цифрового изображения устройство или программное обеспечение оставляет свои артефакты. Программы для создания дипфейков не исключение. К артефактам можно причислить микроскопические нарушения геометрии лица, искривление светотени, неестественное изменение цвета на границе наложения лиц. Подобные нарушения не может уловить человек для этого необходима разработка искусственного интеллекта.На первом этапе распознавания дипфейков происходит автоматическое обнаружение лиц на видео. Лица подаются на вход ансамблю обученных нейронных сетей, состоящему из отдельных наборов моделей. Каждый из наборов обучен выявлять свой алгоритм генерации дипфейков.Принцип разработки нейросети для борьбы с дипфейками зависит от нескольких факторов. Выбор архитектуры модели связан с потенциальной областью ее применения. Если антифейк-систему необходимо применить для распознавания видеозаписей, то нейросеть следует обучать анализу зависимости соотношения между кадрами. С другой стороны, многие системы аутентификации построены на восприятии конкретных изображений, и в этом случае нейросеть должна быть обучена работе с отдельными фотоснимками анализ видеоряда здесь не нужен.Следующий фактор связан с оценкой нагрузки на антифейк-систему. Если компания каждый день работает с огромным количеством запросов, то необходимо создание легковесной архитектуры, способной на быстрый анализ запросов. При этом важно понимать, что при создании легких нейросетей может снижаться качество выявления дипфейков. Максимальная точность предполагает конструирование более тяжелых архитектур нейросетей, однако в этом случае будет снижена скорость обработки запроса.Однако, даже используя одинаковые архитектуры нейронных сетей, можно получить различное качество моделей за счет разных подходов к их обучению. При создании антифейковых систем могут различаться подходы к аугментации данных, выбору гиперпараметров обучения. При этом каждый специалист неизбежно ориентируется на личный опыт. Таким образом, единый тренд в разработке антифейковых технологий обнаруживает множество различий в деталях в каждой конкретной реализации продукта.В 2020 году крупный конкурс был запущен также сообществом Kaggle в коллаборации с компаниями AWS, Facebook и Microsoft. Пристальное внимание мирового сообщества data science к дипфейк-технологиям маркер того, как велика потенциальная угроза от этой технологии. С каждым годом все больше и больше компаний по всему миру начинают вкладывать средства в развитие систем информационной безопасности: выявление манипулятивных методов это технически сложная задача, требующая коллаборации всей технологической отрасли.Сегодня специалисты по кибербезопасности утверждают, что неуязвимых программ генерации дипфейков не существует: при наличии качественного видео можно выявить даже никому не известный алгоритм. Но важно понимать, что на обнаружение дипфейка влияет множество факторов от инструментов его создания и разрешения видеозаписи до наличия ручной постобработки и профессионального монтажа.Будущее как постскриптумОтношения между виртуальной и физической реальностью сегодня представляют собой сложное взаимодействие, подверженное рискам. Переход от очных рабочих встреч к видеоконференцсвязи, использование биометрии и биоаутентификации повышают риски кибератак. Однако возможно ли бороться с развитием технологий? Образ системы дипфейков во многом негативен: помимо финансовых потерь, они могут нанести значительный вред репутации. Чтобы предотвратить это, необходим дифференцированный подход.
Источник: postnauka.ru
К списку статей
Опубликовано: 28.09.2022 16:16:53
0

Сейчас читают

Комментариев (0)
Имя
Электронная почта

Общее

Категории

Последние комментарии

© 2006-2024, umnikizdes.ru