Обратное проектирование генеративных моделей из одного дипфейкового изображения — Facebook

Исследователи Facebook используют реверс-инжиниринг для борьбы с дипфейками.

Хотя большинство дипфейков предназначены для развлечения, у дипфейков есть и темная сторона, с которой нужно разобраться сейчас.

Благодаря технологиям стало проще создавать поддельные видео, фотографии и аудиозаписи, которые могут нанести ущерб нашему обществу.

Исследователи Facebook говорят, что они разработали искусственный интеллект, чтобы выявлять так называемые дипфейки и отслеживать их происхождение с помощью реверс-инжиниринга. - "ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР"

Видео дипфейков наделали много шума на нескольких новостных каналах. Но что такое дипфейк, как он работает и почему вас это должно волновать? Прежде чем вы отвергнете это явление как очередную причуду, которая скоро пройдет и не оставит следов, есть ключевые идеи, которые вам нужно знать о дипфейках.

1. Что такое дипфейк?

Технология Deepfake родилась из мира искусственного интеллекта и машинного обучения.



Как и любая технология искусственного интеллекта, то, что мы с ней делаем, делает ее опасной для нашего общества.

Но что такое дипфейк? — Если вы видели альтернативное рождественское видео-послание королевы или вирусное TikTok-видео Тома Круза, вы видели дипфейк-видео.

Эти видео явно для развлечения.

А как насчет видео Обамы или Нэнси Пелоси?

Эти видео имеют гораздо большее влияние на общество. Политическое использование дипфейков способствует распространению дезинформации.

Facebook теперь становится союзником в разоблачении дипфейков, тех, которые не вызывают у вас смеха и не развлекают вас.

Не все в дипфейках плохо.

В частности, он был разработан, чтобы помочь людям с ограниченными возможностями, особенно с нарушениями голоса, иметь искусственный голос для общения с другими людьми.

Есть надежда, что технология дипфейков может помочь и другим. В рамках этих усилий Deepfake разработал приложения, которые автоматизируют задачи для пользователей с нарушениями зрения или слуха.

Кто-то, кто по состоянию здоровья может использовать синтезированный голос. Для многих это мечта, которая теперь может стать реальностью благодаря искусственному интеллекту.

2. Как работают дипфейки?

В дипфейках нет ничего нового. Мы видели это раньше в фильмах и даже в порно, где обычно все начинается с использования новых технологий в нашей повседневной жизни.

Это возможно благодаря новому типу искусственного интеллекта, называемому генеративно-состязательной сетью или (GAN).

генеративно-состязательная сеть (GAN) состоит из двух частей:

1. Генератор учится генерировать правдоподобные данные. Во-вторых, сгенерированные экземпляры становятся отрицательными обучающими примерами для дискриминатора.

2. Дискриминатор учится отличать поддельные данные генератора от реальных данных. Дискриминатор наказывает генератор за неправдоподобные результаты.

Когда начинается обучение, генератор создает поддельные данные, и дискриминатор быстро учится определять, что это подделка.

Посмотрите, чем отличаются дипфейки — компьютеры, а не люди, выполняют тяжелую работу, как Хэни Фарид называет ИИ. синтезированные подделки.

Вместо того, чтобы люди проводили бесчисленные часы, работая над созданием дипфейков, ИИ, с помощью глубоких нейронных сетей, компьютеры синтезируют изображения для создания фото, видео и даже аудио дипфейков.

3. Кто может создавать дипфейки и каковы их применения?

Дипфейки — отличный пример того, как ИИ используется для манипулирования и искажения реальности.

Дипфейки — это сгенерированные компьютером изображения, которые выглядят и звучат настолько реально, что их трудно отличить от настоящих.

Они создаются с использованием алгоритма машинного обучения, называемого «генеративно-состязательной сетью» (GAN). Алгоритм начинает с создания 10 000 различных изображений цветка, а затем использует алгоритм глубокого обучения, чтобы выбрать только 20 из них в качестве основы для «поддельного» изображения.

Помимо фальшивого изображения, у дипфейкового изображения также есть некоторые заметные недостатки, такие как отсутствие цветового баланса и искажения перспективы.

Использование дипфейков широко варьируется от развлечения до возможной гнусной деятельности людей, которые могут использовать технологию для продвижения своих планов путем манипулирования мнениями людей по деликатным вопросам.

Дипфейки могут быть оружием для дезинформации.

Вывод

По мере того, как технологии продолжают развиваться, становится все труднее отличить правду от подделки.

Тем не менее, полное раскрытие помогает нам, и это этично для создателей дипфейковых видео, как в случае с Крисом Уме, который создал вирусный дипфейк Тома Круза.

Также похвально то, что Facebook использует новый метод борьбы с дезинформацией, привносимой дипфейковыми видео.

Их исследования в партнерстве с Мичиганским государственным университетом (МГУ) сосредоточены на обратном инжиниринге обнаружения дипфейков.

Хотя эта идея не нова, исследователи обнаружили, что они могут использовать «отпечатки пальцев», оставленные на изображениях, используемых для создания дипфейков, и с помощью этой информации они могут определить, исходит ли дипфейковое видео из одного источника.

Фотография лидирует, или как старая технология камер покидает EXIF ​​— информация о заменяемом формате файла изображения на каждой сделанной фотографии, по-видимому, является ключом к методу реверс-инжиниринга, который может быть одним из самых эффективные способы борьбы со злонамеренным использованием дипфейков.

Наши результаты

Поскольку мы первыми начали анализировать модель, у нас нет существующих базовых показателей для сравнения. Мы сформировали базовый уровень, называемый случайной достоверностью, путем случайного перетасовки каждого гиперпараметра в наборе достоверности. Эти случайные наземные векторы сохраняли исходное распределение. Результаты показали, что наш подход работает значительно лучше, чем случайный базовый уровень. Это указывало на то, что действительно существует гораздо более сильная и обобщенная корреляция между сгенерированными изображениями и пространством встраивания значимых гиперпараметров архитектуры и типов функций потерь по сравнению со случайным вектором той же длины и распределения. Мы также провели исследования абляции, чтобы продемонстрировать эффективность оценки отпечатков пальцев и иерархического обучения. — Отрывок, реверс-инжиниринг генеративных моделей из одного дипфейкового изображения

Легко поверить, что человечество ведет к антиутопическому обществу. Тем не менее, пока у нас нет хороших исследователей, продолжается борьба с плохими людьми, использующими технологии, в данном случае дипфейки, чтобы сеять хаос в нашем обществе.