Russia Today
Photo: Ruslan Gurzhiy/SlavicSac.com

Вторжение “Правды”: как российская дезинформация отравляет искусственный интеллект

ENGLISH

Искусственный интеллект настолько надёжен, насколько достоверна информация, на которой он обучается — и новая масштабная кампания российской дезинформации проверяет, насколько уязвима эта система. Российская пропаганда давно вызывает серьёзную обеспокоенность на Западе — от вмешательства в выборы до разжигания расколов через соцсети и фейковые новости. В цифровую эпоху она стала одним из главных наступательных инструментов Кремля.

Однако новый доклад поднимает тревогу, которую нельзя игнорировать. Так называемая сеть “Правда” (не путать с советской газетой или современной «Правда Медиа») предположительно проникла в базы данных, из которых ИИ получает информацию, напрямую влияя на ответы множества чат-ботов.

Согласно отчёту NewsGuard, в 2024 году “Правда” опубликовала более 3,5 миллионов материалов. Ещё более тревожен тот факт, что треть крупных ИИ-чат-ботов, разработанных такими компаниями, как Microsoft, Google и OpenAI, напрямую ссылаются на источники этой сети. “Правда” охватывает более 150 сайтов на десятках языков, создавая иллюзию надёжных и разнообразных источников, тогда как на деле продвигается единый координированный нарратив.

Опасность:

ИИ стремительно изменяет мир — от образования и журналистики до медицины и юриспруденции. Но вместе с этим ростом появляются и серьёзные риски, особенно когда становится всё труднее отличить правду от ИИ-сгенерированной лжи.

Скандал с “Правдой” особенно опасен, потому что, в отличие от явно пропагандистских каналов вроде Russia Today или “Первого канала”, пользователи не склонны сомневаться в ответах, приходящих от дружелюбного и нейтрального чат-бота. Когда дезинформация проходит через фильтр ИИ, она может казаться объективной и достоверной — особенно для тех, кто не знаком с глобальными пропагандистскими приёмами или просто ищет быстрый ответ.

Именно поэтому так важно проверять источники, на которые ссылаются ИИ-инструменты. Если основа искажена, искажен и результат. А когда миллионы людей ежедневно используют ИИ для обучения, исследований и принятия решений — последствия могут быть крайне масштабными.

Андрей Мартиновский | SlavicSac.com