Google Делает Deepfakes, Чтобы Бороться С Deepfakes

Google Делает Deepfakes, Чтобы Бороться С Deepfakes

Google выпустил базу данных, содержащую 3000 глубоких подделок - видео, в которых искусственный интеллект используется для изменения лица или для того, чтобы люди говорили то, чего никогда не делали.

Видеоролики об актерах и используют разнообразные общедоступные инструменты для изменения их лица.

Поисковый гигант надеется, что это поможет исследователям создать инструменты, необходимые для снятия «вредных» поддельных видеороликов.

Есть опасения, что такие видео могут быть использованы для пропаганды ложных теорий заговора и пропаганды.

Deepfake технология берет видео и аудио клипы реальных людей, часто политиков или знаменитостей, и использует методы искусственного интеллекта, чтобы каким-то образом изменить их, например, положить слова в рот или перенести голову на тело человека. актер в порнографии.

Со времени их первого появления в 2017 году появилось много методов с открытым исходным кодом для создания фальшивых клипов.

В своем посте, описывая его работу, Google сказал: «Поскольку поле быстро перемещается, мы добавим к этому набору данных, так как технология DeepFake со временем будет развиваться, и мы продолжим работать с партнерами в этой области.

«Мы твердо верим в поддержку процветающего исследовательского сообщества по смягчению потенциального вреда от неправомерного использования синтетических средств массовой информации.

« Хотя многие, скорее всего, настроены на шутку, другие могут нанести вред отдельным лицам и обществу ».

База данных будет включена в работу по борьбе с подделками в Техническом университете Мюнхена и Университете Федерико II в Неаполе.

Университеты создали аналогичную базу данных, используя четыре распространенных метода манипуляции лицом почти 1000 видео на YouTube.

Надеемся, что обе эти базы данных будут использованы для обучения средств автоматического обнаружения для обнаружения подделок.

Ранее в этом месяце Facebook объявил, что установил $ 10 млн (£ 8,1 млн. ) фонд, чтобы найти лучшие способы обнаружения мошенников.

Его собственный исполнительный директор Марк Цукерберг стал жертвой такой хитрости, когда появилось манипулируемое видео, показывающее, что он доверяет скрытной организации для успеха социальной сети. .

Deepfake технология попала в голову линии в 2017 году, когда исследователи из Университета Вашингтона выпустили документ, описывающий, как они создали поддельное видео президента Барака Обамы.

Один из исследователей, доктор Супасорн Суваджанакорн, позже выступил с речью Теду, защищая свое изобретение, признав, что технология может быть использована не по назначению.

.