Польское радио на русском

ЕС, дезинформация и искусственный интеллект: что стоит за пропагандой, фейками и борьбой с ними

04.11.2025 22:47
Про то, как искусственный интеллект используют российские пропагандистские сети, влияние технологий на политику и способы противодействия дезинформации — говорили с Альмуденой Баррейро Каррильо (Next Digital Hub, Data for Good Madrid) и профессором Нилом Х. Вассерманом из Университета Джорджа Вашингтона (США)
Аудио
  • Разговор с Альмуденой Баррейро Каррильо (Next Digital Hub, Data for Good Madrid) и профессором Нилом Х. Вассерманом из Университета Джорджа Вашингтона (США)
       .
Фото илюстративное/ Воссоздан мозг под управлением искусственного интеллекта.Pixabay/ https://pixabay.com/es/illustrations/inteligencia-artificial-cerebro-3382507/

Непростые времена заставляют нас всё взвешеннее подходить к процессу отбора информации. Сейчас мы находимся в той точке, когда верифицировать или проверить информацию становится всё сложнее. Множество исследователей занимаются разработкой методик, как подтвердить или опровергнуть информацию.

Казалось бы, решение найдено — и тут на сцену выходит искусственный интеллект, смешивая все наши планы. Фейки выходят на новый уровень, и этот уровень ещё труднее проверить. К тому же российские пропагандистские сети, действующие в Европе, научились мимикрировать и подделывать источники информации на высшем уровне.

Как искусственным интеллектом пользуется российская пропаганда? 


Альмудена Баррейро Каррильо: Мы, люди, показываем модели инструкции и хорошие ответы. Так она учится понимать формат «вопрос — ответ». И, по моему мнению, это одно из самых важных — мы используем обратную связь человека для обучения ИИ. Люди сравнивают разные варианты ответов и обучают модель тому, какие из них нам больше нравятся. Это помогает ей учиться и отдавать приоритет полезности, безопасности и правильному тону. Именно это делает ответы модели убедительными и похожими на человеческие. Если мы делаем всё это и даже больше, почему модель всё равно иногда ошибается? Есть три основных подводных камня: поддакивание, галлюцинации и заражение данными.

Поддакивание — это когда модель склонна соглашаться с вашим утверждением, даже если оно неверно. Галлюцинации — когда модель уверенно выдумывает факты и преподносит их как истину. Заражение данными — когда модель учится на низкокачественных или ложных источниках. В результате она может впитать дезинформацию и затем воспроизводить её очень убедительно. Не путайте беглую речь с истиной — всегда проверяйте информацию.

А теперь о проекте Portal Combat. Это скоординированная система, замаскированная под новостной портал, где массово публикуются шаблонные истории на разных языках. Её цель — не просто повлиять на аудиторию, а отравить источники информации, из которых учатся машины. В результате ложные нарративы позже выглядят правдоподобно, когда их подхватывают поисковые системы и ИИ. Как это работает? Через автоматическую информационную атаку: множество публикаций, перекрёстные лайки, сетевые формы.

Также они применяют «отмывание нарратива» — повторяют одни и те же утверждения на разных независимых сайтах, создавая иллюзию общественного консенсуса. Кроме того, они разнообразят языки и идеологии, чтобы проникать в сообщества с более слабой модерацией и широким охватом. Но главная новинка — это так называемое LLM grooming — намеренное «кормление» языковых моделей фейковыми данными для искажения будущих ответов ИИ.

- Как искусственный интеллект влияет на политику?


Нил Х. Вассерман: Мы всё больше осознаём вред, причинённый социальными сетями и дезинформацией. Это вред для общественного здравоохранения, демократии, способности бороться с изменением климата и функционирования демократических процессов. Я глубоко убеждён: жизнеспособность человеческого общества зависит от единства и уважения к общей реальности. И мы теряем это. В США я чувствую эту потерю особенно остро, когда многие лидеры технологического мира активно подрывают демократию — не только внутри страны, но и во всём мире.

Дезинформация не была бы проблемой, если бы она исходила от одного человека. Проблемы начинаются тогда, когда она распространяется, усиливается и порождает реальные издержки. Я не буду вдаваться в расчёт стоимости, но если говорить об ущербе для общественного здравоохранения, о котором сегодня уже упоминали, или о влиянии на выполнение контрактов, то даже недоверие имеет цену.

Я буду говорить об экономике — о пересмотре подходов, которые должны изменить поведение социальных сетей. Соцсети сопротивляются этим изменениям, потому что их бизнес-модель приносит триллионы долларов капитализации.
И в США у нас особенно сложная ситуация из-за раздела 230 — закона о неприкосновенности интернет-платформ — и глубокой веры в свободу слова.
Так что возникает дилемма: как уравновесить свободу слова и вред, который наносит дезинформация. Технологические компании будут сопротивляться, но есть способы стимулировать более ответственное поведение с их стороны.

Я делю подход на два типа:

Кнут — это возможность привлечь медиакомпании к юридической ответственности.
Пряник — это изменение мотивационной системы, которая поощряет производство более качественной информации и уменьшает вред.

Мы уже видели похожую историю с табачной индустрией в США.
Табачная промышленность наносила доказуемый вред, и на основании научных данных было установлено, что курение приводит почти к 500 тысячам смертей в год. Были судебные процессы.
И хотя это заняло десятилетия, индустрию в итоге заставили платить. Она сопротивлялась, сеяла сомнения, открывала «свою» науку, создавала подставные организации, которые распространяли дезинформацию. И эти же методы — и даже те же самые люди — позже участвовали в распространении дезинформации о климате, здравоохранении и в атаках на демократию. Это глобальная схема, с которой мы имеем дело.

Алексей Бурлаков