Goodnews.ua


Компьютерные копии политиков сводят с ума миллиарды людей

Ноябрь 13
09:03 2018

В мае в Интернете появился видеоролик, в котором Дональд Трамп давал совет Бельгии по проблеме изменения климата, пишет The Guardian. Видео создала бельгийская политическая партия Socialistische Partij Anders или sp.a, а также разместила его на Twitter и Facebook. Это вызвало сотни комментариев, многие выразили возмущение, что американский президент осмелился повлиять на политику Бельгии.

111.png (281 KB)

Оказалось, что видеоролик был высокотехнологичной подделкой. В sp.a сообщили, что партия наняла производственную студию для машинного обучения с целью создать "дипфейк" (deepfake) – компьютерную копию человека, в этом случае – Трампа.

Задача sp.a состояла в том, чтобы использовать фейковое видео для привлечения внимания людей, затем их перенаправляли на онлайн-петицию, в которой призывали бельгийское правительство предпринять более срочные действия в вопросе климата. Создатели видео позже заявили, что более низкого качества поддельного видео было бы достаточно. "Из движений губ видно, что это не настоящая речь Трампа", — прокомментировал представитель sp.a.

Дипфейки

Фейковые видео можно создавать с использованием техники машинного обучения, называемой "генеративной состязательной сетью" или GAN. Студент-выпускник Ян Гудфеллоу изобрел GAN в 2014 году как способ алгоритмической генерации новых типов данных из уже существующих. Например, GAN может изучить тысячи фотографий Барака Обамы, а затем создать новое изображение, которое не будет точной копией предыдущих. GAN также могут использовать для создания нового аудио из уже существующего — это универсальная технология.

Использование этого метода машинного обучения было ограничено научным сообществом ИИ до конца 2017 года, пока пользователь Reddit с ником Deepfakes не начал опубликовывать сфабрикованные порнографические видео: он "накладывал" лица знаменитостей на тела женщин из порно. Позже создатель видео выпустил простую в использовании платформу для создания дипфейков — FakeApp.

222.jpg (45 KB)

"Дипфейки могут быть очень опасными – их ведь можно использовать как оружие, например, для ослабления структуры демократического общества. В 2015 году в Балтиморе убили Фредди Грея. И я представила, если бы в сеть выложили дипфейки о начальнике полиции", — прокомментировала профессор права в Университете штата Мэриленд Даниэль Цитрон.

Цитрон вместе со своим коллегой Бобби Чесни начали работу над докладом, в котором излагалась степень потенциальной опасности. Помимо угрозы частной жизни и национальной безопасности, оба ученых больше обеспокоены тем, что распространение дипфейков может катастрофически подорвать доверие между различными фракциями общества в уже поляризованном политическом климате.

В частности, дипфейки могут использовать распространители ложных новостей. Любой, кто имеет доступ к этой технологии — от санкционированных государством пропагандистов до троллей — сможет искажать информацию и манипулировать убеждениями.

В апреле режиссер Джордан Пил и БаззФид выпустили дипфейк с Бараком Обамой (где он называл Трампа "недоумком"), чтобы повысить осведомленность общества о созданных искусственных интеллектом синтетических медиа, которые могут использоваться для искажения и манипулирования реальностью. В сентябре три члена Конгресса отправили письмо директору национальной разведки, выразив опасения по поводу того, как можно использовать дипфейки в "кампаниях дезинформации на выборах".

333.jpg (102 KB)

Влияние дипфейков

Директор Ethics and Governance of Artificial Intelligence Initiative Тим Хванг долгое время изучал распространение дезинформации в медиа, и, за исключением бельгийского инцидента, еще не видел действительно негативных последствий от дипфейков. По мнению Хванга, это отчасти потому, что использование машинного обучения для создания убедительных поддельных видео по-прежнему требует определенной степени знаний и большого количества данных.

В то же время Хванг признает, что сейчас дипфейки становятся более реалистичными и их легче создавать. "Мы уже давно можем обрабатывать фото и видео. Но, если раньше вы хотели снять дипфейк, то вам понадобилась бы команда экспертов. Машинное обучение не только автоматизирует этот процесс, но и, вероятно, улучшит качество фейка", — заявил Хванг.

В августе международная команда исследователей, связанная с Институтом информатики общества Макса Планка, представила технологию для создания "портретных дипфейков": одно лицо подменяется другим, например, исследователь открывает рот – и фейковый Барак Обама открывает рот.

444.jpg (53 KB)

По мнению ученого Кристиана Теобальта, "портретные дипфейки" наиболее эффективно будут использоваться для дубляжа в иностранных фильмах. Исследователи признали потенциальное злоупотребление технологией, но подчеркнули, что их подход может произвести "революцию в индустрии визуальных развлечений".

"Сообществу ценителей спецэффектов понравится новая технология. Но за пределами Голливуда неясно, перевесят ли положительные аспекты негативные", — прокомментировал профессор информатики Калифорнийского университета в Беркли Хани Фарид.

В июне исследователи из Университета в Олбани (SUNY) опубликовали документ, в котором объясняется, как идентифицировать поддельное видео. Facebook также обязался разрабатывать модели машинного обучения для выявления дипфейков. Тем не менее, Фарид считает, что даже судебно-медицинская экспертиза не поможет распознать фейковое видео, так как машинное обучение может запросто обойти ее.

"Все, что нужно программисту — это обновить алгоритм, чтобы искать, скажем, изменения цвета в лице, которые соответствуют сердечному ритму", — сообщил Фарид. — "Проблема не только в прогрессе технологии дипфейков. Социальные процессы, посредством которых мы коллективно узнаем вещи и считаем их истинными или неверными, находятся под угрозой".

Эксперты утверждают, что наибольшая угроза дипфейков не в самом содержании, а в простом существовании. Так, по совам ученого Авива Овадьи, постоянный контакт с дезинформацией вызывает у людей недоверие к тому, что они видят и слышат. Недавние опросы показывают, что доверие к основным институтам и средствам массовой информации снижается. Овадья убежден, что распространение дипфейков, скорее всего, усугубит эту тенденцию.

Share

Статьи по теме







0 Комментариев

Хотите быть первым?

Еще никто не комментировал данный материал.

Написать комментарий

Комментировать

Залишаючи свій коментар, пам'ятайте, що зміст та тональність вашого повідомлення можуть зачіпати почуття реальних людей, що безпосередньо чи опосередковано пов'язані із цією новиною. Виявляйте повагу та толерантність до своїх співрозмовників. Користувачі, які систематично порушують це правило, будуть заблоковані.

Website Protected by Spam Master


Останні новини

Дебютант Динамо в Лиге Европы поделился эмоциями от матча против Галатасарая

Читать всю статью

Ми у соцмережах




Наші партнёри

UA.TODAY - Украина Сегодня UA.TODAY
Goodnews.ua