#Пропаганда

Анатомия дезинформации. Как работает машина по созданию компромата

08.05.2024 | Маша Слоним

Маша Слоним — Британский еженедельник The Economist рассказал о расследовании технологий создания фейков на примере слухов об огромных тратах супруги Владимира Зеленского Елены в заграничных поездках

 
Журнал пишет, что Кремль начал распространять истории о роскошной жизни Владимира Зеленского и его жены, как только западные правительства стали отправлять в Украину оружие и деньги после вторжения России в феврале 2022 года.

Вымысел о том, что Зеленские купили немецкую виллу, ранее принадлежавшую Йозефу Геббельсу, Кремль распространил в 2023 году. Этот фейк было легко проверить и опровергнуть.

Не представляло большого труда обнаружить, что фотография сидящей в частном самолете Елены Зеленской в дизайнерской одежде и с дорогими часами на руке является фотошопом.

В декабре 2022 года появилась новая версия того же фейка. На этот раз популярная ведущая американского ток-шоу Кэндис Оуэнс с 5 миллионами подписчиков на Twitter (ныне X) утверждала на своей странице, что Зеленская потратила 40 000 евро в дизайнерском магазине, находясь в Париже со своим мужем. Это было неправдой.

После поездки четы Зеленских в Нью-Йорк на Генассамблею ООН (СПРАВКА: 20 сентября 2023 г. Владимир Зеленский выступил на Генассамблее ООН, а Елена Зеленская на полях саммита говорила о насильно вывезенных в Россию с оккупированных территорий Украины детях. — NT) в соцсетях и даже в новостных изданиях появился новый вариант того же фейка. Только на этот раз «шопинг» Зеленской проходил якобы на шикарной Пятой авеню и обошелся в 1,1 млн. долларов. И будто бы она даже стала причиной увольнения сотрудницы магазина Cartier.

Эта «пикантная» история получила широкое распространение и легла на благодатную почву сообщений о коррупции в Украине. «Вот на что тратится американская помощь, которую мы отправляем в Украину», — восклицали подставные блогеры в соцсетях, а фейковые или прокремлевские издания подхватывали вымышленные истории.

Журнал The Economist рассказывает о технологии распространения подобных фейков, ссылаясь на работу исследователей Университета Клемсон (Clemson University) в штате Южная Каролина Даррена Линвилла и Патрика Уоррена.

КАК ЭТО ДЕЛАЕТСЯ

На примере фейка о непомерных тратах Елены Зеленской Даррен Линвилл и Патрик Уоррен проследили три этапа успешной компании по дезинформации.

«...Первый этап — это «размещение» вымышленной истории. Затем следует «наслоение», когда ложь распространяется в онлайн-аккаунтах и на сомнительных новостных сайтах, запутывая ее происхождение. Последний этап — «интеграция»: когда достоверные источники, такие как реальные новостные сайты и аккаунты в социальных сетях, историю подхватывают...»

Вот как, например, развивалась фейковая история с «тратами» Еленой Зеленской:

«...Женщина, представившаяся стажером магазина Cartier в Нью-Йорке, рассказала в своем аккаунте в Instagram* о том, как она обслуживала Зеленскую, и о том, как после этого ее уволили. Она даже поместила копию чека от Cartier, но все это оказалось подделкой. В ходе расследования, проведенного BBC и итальянским новостным сайтом Open Online, женщина была опознана с помощью программы распознавания лиц. Она оказалась не сотрудницей Cartier в Нью-Йорке, а скорее всего косметологом из Санкт-Петербурга. В любом случае в день, указанный в чеке, г‑жа Зеленская находилась в Канаде.

Когда история раскрутилась, этот аккаунт в Instagram* сменил статус с открытого на закрытый. Но некий анонимный аккаунт на YouTube уже выложил ее историю. Кроме этого видео на анонимном аккаунте в YouTube ничего не было...»

АФРИКАНСКИЙ СЛЕД

Исследователи заметили, что первоначально история была подхвачена франкоязычным новостным ресурсом, базирующимся в Буркина-Фасо. Затем она переползла на другие сайты по всей Африке, а на английском языке впервые появилась в нигерийском издании Nation. Однако при ближайшем рассмотрении оказалось, что публикация была помечена как «оплаченный пост», то есть кто-то заплатил за его публикацию.

ЦЕПОЧКА «НАСЛОЕНИЙ» ДОХОДИТ ДО РОССИИ

Это и стало первым звеном в цепочке «наслоений», — отмечают расследователи из Университета Клемсон. Статью опубликовали несколько российских новостных изданий, причем все ссылались на нигерийский Nation, название которого один в один совпадает с названием известного и уважаемого американского журнала.

Следующим звеном цепочки становится американское издание под названием DC Weekly.

«...На первый взгляд DC Weekly выглядит как любой другой новостной сайт, освещающий американскую политику и события в мире. В его материалах прослеживается антизападная направленность и материалы о коррупции в Украине. Как и в случае со скандалом с Cartier, доказательством служат видеоролики, размещенные на YouTube...»

Расследователи обнаружили, что этот сайт ворует и перепечатывает тысячи статей и заголовков из известных западных изданий. Затем для создания материалов сайт стал использовать ИИ. Но самое интересное, что владельцем DC Weekly является не кто иной, как печально известный Джон Марк Дуган, бывший американский полицейский, который в 2016 году бежал в Россию, где попросил политическое убежище.

СПРАВКА: Джон Марк Дуган — известный хакер, последователь конспирологического движения QAnon. Бежал в Россию из Флориды, где ему грозило уголовное преследование за сложную операцию по производству фейков. После начала войны в Украине Дуган распространял дезинформацию о российско-украинской войне, выступая в роли «западного эксперта» и «западного журналиста», для придания правдоподобности кремлевской пропаганде. Распространяет теорию заговора о биолабораториях на территории Украины, утверждая, что одной из целей вторжения России на Украину было уничтожение этих лабораторий. По его утверждениям, разрабатываемое в лабораториях оружие нацелено на поражение русского населения. — NT.

The Economist и в этой и в другой своей статье — о современных технологиях создания дезинформации рассказывает о том, как новые технологии помогают недобросовестным акторам, подобным Джону Дугану, и государствам, таким, как Россия и Китай, создавать и выстраивать ложные нарративы быстрее, чем когда-либо прежде, причем на самых разных платформах.

ПОСЛЕДНИЙ ЭТАП — ШИРОКОЕ РАСПРОСТРАНЕНИЕ ФЕЙКОВ

По оценкам исследователей, фейк о шопинге Елены Зеленской был распространен на английском языке не менее 20 000 раз на сайте X (бывший Twitter)... Сначала «сеятели» в социальных сетях разместили ложь, а затем «распространители» распространили ее по разным социальным сетям, зачастую через свежесозданные аккаунты. Все они делились ссылками на все тот же ресурс Nation. Эту историю не обошло и российское посольство в Лондоне, перепостив ее на своей странице в Х.

The Economist приходит к заключению, что ИИ облегчает создание дезинформации в виде изображений, видео и текстов и помогает распространять ее через поддельные сайты, такие как DC Weekly, а также через аккаунты в социальных сетях. Подобные кампании, пишет еженедельник, будут становиться все более изощренными и распространенными.

«...Дезинформация представляет самый большой глобальный риск в ближайшие два года, даже более опасный, чем война, экстремальная погода или инфляция...»

ЭКСПЕРТЫ ПО БЕЗОПАСНОСТИ БЬЮТ ТРЕВОГУ: 
ДЕЗИНФОРМАЦИЯ НАБИРАЕТ ОБОРОТЫ

Подробный анализ методов дезинформации при помощи ИИ и об опасностях, которые таят в себе новые технологии, опубликован в другом номере The Economist. Аналитики, которых цитирует еженедельник, предпреждают:

«...В год, когда в половине мира проходят выборы, а новые технологии позволяют как никогда легко создавать и распространять дезинформацию, правительствам, компаниям и частным лицам по всему миру необходимо решать эту острейшую проблему. Эксперты по безопасности тоже бьют тревогу — более 1400 из них недавно заявили на Всемирном экономическом форуме, что дезинформация и ложная информация, которой делятся неосознанно, являются самыми большими глобальными рисками в ближайшие два года, даже более опасными, чем война, экстремальная погода или инфляция...»

Авторы анализа рассматривают методы, к которым прибегают недобросовестные акторы, создавая при помощи ИИ фейки и так называемые deepfake, но и рассказывают, как можно использовать ИИ для их распознания. Это рассказ о двух сторонах ИИ — о его негативной роли по созданию дезинформации и позитивной — как ИИ помогает распознать фейки и минимизировать вред и ущерб от их.

В этой статье рассказывается более подробно о технологиях распространения фейков, наподобие тех, о которых шла речь в предыдущей статье The Economist (о вымышленных бешеных тратах Елены Зеленской). Аналитики, которых цитирует еженедельник, отмечают:

«...С 2022 года кампании по дезинформации приобрели новую форму. Маркетинговые компании или фермы троллей, не имеющие прямых связей с государством, размещают информацию в различных социальных сетях и блог-платформах, а также создают целые фальшивые сайты. По данным NewsGuard, американской организации, занимающейся мониторингом дезинформации, с мая 2023 года количество созданных ИИ-технологиями новостных сайтов, распространяющих недостоверную информацию, выросло с 49 до 802...»

По мнению аналитиков, фейковые аккаунты стало всё труднее распознавать, однако и в борьбе с ними помогает искусственный интеллект.

«...Компания Valent Projects (СПРАВКА: Valent Projects — компания, которая занимается проблемами безопасности интернета, создана бывшим британским журналистом Амилом Ханом в 2020 году. — NT) пытается решить эту проблему с помощью технологий ИИ. Система, получившая название Ariadne, получает данные с социальных платформ и ищет в них общие нарративы и настроения, чтобы выявить необычные, скоординированные действия. В отличие от предыдущих подходов, основанных на ключевых словах, новейшие модели позволяют работать с настроениями, чего раньше они делать не могли...»

Появились и другие методы выявления фейковых аккаунтов с использованием ИИ. Исследовательское подразделение специальных проектов Минобороны США (DARPA) финансирует исследования по «выявлению, атрибуции и определению характеристик манипулируемых и синтезированных медиа» в рамках своей программы «семантической криминалистики», чтобы создать набор инструментов для защиты. Программа выявляет ложный контент напрямую, путем анализа отдельных постов, статей, звуковых клипов или видео.

По словам Уила Корви (Wil Corvey) из DARPA, цель программы — стимулировать академических и коммерческих пользователей к объединению, совершенствованию и, в конечном счете, внедрению этих инструментов, которые в той или иной форме опираются на ИИ.

The Economist приводит рассказ Уила Корви о том, как, например, можно распознать поддельное видео политика, так называемый deepfake:

«...Используя подлинные данные о человеке, можно обучить ИИ-модель, которая узнает его характеристики, такие как наклон головы или движения лица во время речи. ...Еще лучше сочетать это с другими методами, например, с обнаружением сердцебиения по видео, которое трудно подделать. (Сердцебиение можно определить по крошечным изменениям цвета кожи, особенно на лбу). Другие инструменты из каталога DARPA способны распознавать сгенерированный ИИ-текст, синтезированные или отредактированные изображения, а также глубоко фейковые аудио и видео. По его словам, хотя один аналитический инструмент не всегда может быть надежным, объединение нескольких из них может значительно повысить точность...»

Мнения аналитиков относительно того, удастся ли в ближайшее время справиться с фейками и подделками, разделились. Уил Корви настроен оптимистично. Он считает, что защитные методы раскрытия фейков при помощи ИИ-технологий смогут опередить методы, которые используют создатели фейков и дезинформации.

Однако сотрудница Стэнфордского центра изучения информационных потоков Рене ДиРеста настроена более скептически. Она считает, что современные средства обнаружения могут хорошо работать в контролируемой среде, но когда надо принимать быстрое решение, уверенности в том, что «защитник» обязательно окажется в выигрыше, у нее нет. Она напоминает об еще одной важной проблеме: даже если удастся обнаружить безусловный фейк, не каждый поверит в то, что это подделка. А это, по ее словам, означает, что для борьбы с дезинформацией потребуется гораздо больше, чем просто технологии.


Оригинал статьи


* Принадлежит компании Meta, признанной в РФ «экстремистской». Деятельность компании запрещена на территории РФ.
Фото: The Economist / Anthony Gerac


×
Мы используем cookie-файлы, для сбора статистики.
Продолжая пользоваться сайтом, вы даете согласие на использование cookie-файлов.