Компьютерные копии политиков сводят с ума миллиарды людей
В мае в Интернете появился видеоролик, в котором Дональд Трамп давал совет Бельгии по проблеме изменения климата, пишет The Guardian. Видео создала бельгийская политическая партия Socialistische Partij Anders или sp.a, а также разместила его на Twitter и Facebook. Это вызвало сотни комментариев, многие выразили возмущение, что американский президент осмелился повлиять на политику Бельгии.
Оказалось, что видеоролик был высокотехнологичной подделкой. В sp.a сообщили, что партия наняла производственную студию для машинного обучения с целью создать "дипфейк" (deepfake) – компьютерную копию человека, в этом случае – Трампа.
Задача sp.a состояла в том, чтобы использовать фейковое видео для привлечения внимания людей, затем их перенаправляли на онлайн-петицию, в которой призывали бельгийское правительство предпринять более срочные действия в вопросе климата. Создатели видео позже заявили, что более низкого качества поддельного видео было бы достаточно. "Из движений губ видно, что это не настоящая речь Трампа", — прокомментировал представитель sp.a.
Дипфейки
Фейковые видео можно создавать с использованием техники машинного обучения, называемой "генеративной состязательной сетью" или GAN. Студент-выпускник Ян Гудфеллоу изобрел GAN в 2014 году как способ алгоритмической генерации новых типов данных из уже существующих. Например, GAN может изучить тысячи фотографий Барака Обамы, а затем создать новое изображение, которое не будет точной копией предыдущих. GAN также могут использовать для создания нового аудио из уже существующего — это универсальная технология.
Использование этого метода машинного обучения было ограничено научным сообществом ИИ до конца 2017 года, пока пользователь Reddit с ником Deepfakes не начал опубликовывать сфабрикованные порнографические видео: он "накладывал" лица знаменитостей на тела женщин из порно. Позже создатель видео выпустил простую в использовании платформу для создания дипфейков — FakeApp.
"Дипфейки могут быть очень опасными – их ведь можно использовать как оружие, например, для ослабления структуры демократического общества. В 2015 году в Балтиморе убили Фредди Грея. И я представила, если бы в сеть выложили дипфейки о начальнике полиции", — прокомментировала профессор права в Университете штата Мэриленд Даниэль Цитрон.
Цитрон вместе со своим коллегой Бобби Чесни начали работу над докладом, в котором излагалась степень потенциальной опасности. Помимо угрозы частной жизни и национальной безопасности, оба ученых больше обеспокоены тем, что распространение дипфейков может катастрофически подорвать доверие между различными фракциями общества в уже поляризованном политическом климате.
В частности, дипфейки могут использовать распространители ложных новостей. Любой, кто имеет доступ к этой технологии — от санкционированных государством пропагандистов до троллей — сможет искажать информацию и манипулировать убеждениями.
В апреле режиссер Джордан Пил и БаззФид выпустили дипфейк с Бараком Обамой (где он называл Трампа "недоумком"), чтобы повысить осведомленность общества о созданных искусственных интеллектом синтетических медиа, которые могут использоваться для искажения и манипулирования реальностью. В сентябре три члена Конгресса отправили письмо директору национальной разведки, выразив опасения по поводу того, как можно использовать дипфейки в "кампаниях дезинформации на выборах".
Влияние дипфейков
Директор Ethics and Governance of Artificial Intelligence Initiative Тим Хванг долгое время изучал распространение дезинформации в медиа, и, за исключением бельгийского инцидента, еще не видел действительно негативных последствий от дипфейков. По мнению Хванга, это отчасти потому, что использование машинного обучения для создания убедительных поддельных видео по-прежнему требует определенной степени знаний и большого количества данных.
В то же время Хванг признает, что сейчас дипфейки становятся более реалистичными и их легче создавать. "Мы уже давно можем обрабатывать фото и видео. Но, если раньше вы хотели снять дипфейк, то вам понадобилась бы команда экспертов. Машинное обучение не только автоматизирует этот процесс, но и, вероятно, улучшит качество фейка", — заявил Хванг.
В августе международная команда исследователей, связанная с Институтом информатики общества Макса Планка, представила технологию для создания "портретных дипфейков": одно лицо подменяется другим, например, исследователь открывает рот – и фейковый Барак Обама открывает рот.
По мнению ученого Кристиана Теобальта, "портретные дипфейки" наиболее эффективно будут использоваться для дубляжа в иностранных фильмах. Исследователи признали потенциальное злоупотребление технологией, но подчеркнули, что их подход может произвести "революцию в индустрии визуальных развлечений".
"Сообществу ценителей спецэффектов понравится новая технология. Но за пределами Голливуда неясно, перевесят ли положительные аспекты негативные", — прокомментировал профессор информатики Калифорнийского университета в Беркли Хани Фарид.
В июне исследователи из Университета в Олбани (SUNY) опубликовали документ, в котором объясняется, как идентифицировать поддельное видео. Facebook также обязался разрабатывать модели машинного обучения для выявления дипфейков. Тем не менее, Фарид считает, что даже судебно-медицинская экспертиза не поможет распознать фейковое видео, так как машинное обучение может запросто обойти ее.
"Все, что нужно программисту — это обновить алгоритм, чтобы искать, скажем, изменения цвета в лице, которые соответствуют сердечному ритму", — сообщил Фарид. — "Проблема не только в прогрессе технологии дипфейков. Социальные процессы, посредством которых мы коллективно узнаем вещи и считаем их истинными или неверными, находятся под угрозой".
Эксперты утверждают, что наибольшая угроза дипфейков не в самом содержании, а в простом существовании. Так, по совам ученого Авива Овадьи, постоянный контакт с дезинформацией вызывает у людей недоверие к тому, что они видят и слышат. Недавние опросы показывают, что доверие к основным институтам и средствам массовой информации снижается. Овадья убежден, что распространение дипфейков, скорее всего, усугубит эту тенденцию.
Еще никто не комментировал данный материал.
Написать комментарий