Распознавание поддельных изображений с использованием частотного анализа
Они выглядят обманчиво реальными, но они сделаны компьютерами: так называемые глубокие поддельные изображения генерируются алгоритмами машинного обучения, и люди практически не могут отличить их от реальных фотографий. Исследователи из Института информационной безопасности Хорста Гёрца в Рур-Университете Бохума и Кластера передового опыта «Кибербезопасность в эпоху крупномасштабных противников» (Casa) разработали новый метод для эффективной идентификации изображений с глубокими фальсификациями. С этой целью они анализируют объекты в частотной области, установленную технику обработки сигналов.
Команда представила свою работу на Международной конференции по машинному обучению (ICML) 15 июля 2020 года, одной из ведущих конференций в области машинного обучения. Кроме того, исследователи делают свой код свободно доступным в Интернете по адресу https://github.com/RUB-SysSec/GANDCTAnalysis, чтобы другие группы могли воспроизводить свои результаты.
Взаимодействие двух алгоритмов приводит к новым изображениям
Глубокие поддельные образы — слово портманто из «глубокого обучения» для машинного обучения и «поддельные» — генерируются с помощью компьютерных моделей, так называемых Генерирующих Состязательных Сетей, для краткости GAN. В этих сетях работают два алгоритма: первый алгоритм создает случайные изображения на основе определенных входных данных. Второй алгоритм должен решить, является ли изображение подделкой или нет. Если изображение оказывается подделкой, второй алгоритм дает первому алгоритму команду пересмотреть изображение — пока он больше не распознает его как подделку.
В последние годы эта техника помогла сделать более глубокие поддельные изображения более достоверными. На сайте www.whichfaceisreal.com пользователи могут проверить, могут ли они отличить подделки от оригинальных фотографий. «В эпоху фальшивых новостей может возникнуть проблема, если пользователи не смогут отличить компьютерные изображения от оригиналов», — говорит профессор Торстен Хольц из кафедры системной безопасности.
Если пользователь захотел купить биткоин, а для этого ему нужно подтвердить свою личность с помощью фото, и данный алгоритм может помочь в таких ситуациях, чтобы определить реальное или поддельное фото предоставляет пользователь.
Для своего анализа бохумские исследователи использовали наборы данных, которые также составляют основу вышеупомянутой страницы «Какое лицо реально». В этом междисциплинарном проекте Джоэл Франк, Торстен Эйзенхофер и профессор Торстен Хольц из кафедры системной безопасности сотрудничали с профессором Асей Фишер из кафедры машинного обучения, а также Леа Шенхерр и профессором Доротеей Колосса из кафедры цифровой обработки сигналов.
Частотный анализ выявляет типичные артефакты
На сегодняшний день глубокие поддельные изображения были проанализированы с использованием сложных статистических методов. Группа Бохума выбрала другой подход, преобразовав изображения в частотную область, используя дискретное косинусное преобразование. Сгенерированное изображение, таким образом, выражается как сумма множества различных функций косинуса. Естественные изображения состоят в основном из низкочастотных функций.
Анализ показал, что изображения, генерируемые GAN, демонстрируют артефакты в высокочастотном диапазоне. Например, типичная структура сетки появляется в частотном представлении поддельных изображений. «Наши эксперименты показали, что эти артефакты возникают не только в изображениях, сгенерированных GAN. Они являются структурной проблемой всех алгоритмов глубокого обучения», — объясняет Джоэл Франк из кафедры системной безопасности. «Мы предполагаем, что артефакты, описанные в нашем исследовании, всегда говорят нам, является ли изображение глубоко поддельным изображением, созданным машинным обучением», — добавляет Фрэнк. «Следовательно, частотный анализ является эффективным способом автоматического распознавания компьютерных изображений».
Короткий URL: https://nexusrus.com/?p=129350