Документ Пентагона: США хотят «подавлять инакомыслие» с помощью пропаганды с использованием искусственного интеллекта.

США заинтересованы в приобретении технологий машинного обучения для проведения пропагандистских кампаний с использованием искусственного интеллекта за рубежом.

Пентагон, штаб-квартира Министерства обороны США, вид с воздуха, среда, 20 августа 2025 года, Арлингтон, штат Вирджиния.
Пентагон, штаб-квартира Министерства обороны, вид с воздуха, 20 августа 2025 года, Арлингтон, штат Вирджиния. Фото: Алекс Брэндон/AP

автор: Сэм Биддл

Соединённые Штаты надеются использовать машинное обучение для создания и распространения пропаганды за рубежом, чтобы «оказывать влияние на зарубежную целевую аудиторию» и «подавлять инакомыслие», согласно документу Командования специальных операций США, с которым ознакомился The Intercept.

Документ, представляющий собой своего рода список желаемых военных технологий для спецопераций в ближайшем будущем, раскрывает новые подробности о широком спектре возможностей, которые SOCOM надеется приобрести в течение следующих пяти-семи лет, включая современные камеры, датчики, оружие направленной энергии и другие устройства, которые помогут операторам находить и уничтожать свою цель. Среди технологий, которые SOCOM хочет приобрести, — программное обеспечение для машинного обучения, которое можно использовать для информационной войны. Чтобы усилить свои “Передовые технологические дополнения к операциям военной информационной поддержки”, также известные как MISO, SOCOM ищет подрядчика, который может “Обеспечить возможности, использующие агентурные системы Al или multi-LLM агентов со специализированными функциями для увеличения масштаба операций влияния”. Так называемые “агентские” системы используют модели машинного обучения, предназначенные для работы с минимальными инструкциями или надзором со стороны человека. Эти системы могут использоваться в сочетании с большими языковыми моделями, или LLM, такими как ChatGPT, которые генерируют текст на основе пользовательских подсказок. В то время как вокруг этих агентских систем и LLM вращается большая маркетинговая шумиха из-за их потенциала для выполнения рутинных задач, таких как онлайн-покупки и бронирование билетов, SOCOM считает, что эти методы могли бы хорошо подойти для управления автономной пропагандистской организацией.

«Информационная среда меняется слишком быстро, чтобы военные могли [так в оригинале] должным образом взаимодействовать с аудиторией в интернете и оказывать на неё влияние, — отмечается в документе. — Наличие программы, разработанной для достижения наших целей, позволит нам контролировать нарративы и влиять на аудиторию в режиме реального времени».

Законы и политика Пентагона в целом запрещают военные пропагандистские кампании, нацеленные на американскую аудиторию, но из-за открытости интернета обеспечить это сложно.

В своём заявлении представитель SOCOM Дэн Лессард признал, что SOCOM работает над «передовыми возможностями на основе искусственного интеллекта». «Все возможности, связанные с искусственным интеллектом, разрабатываются и используются в рамках программы Министерства обороны по ответственному использованию ИИ, которая обеспечивает подотчётность и прозрачность, требуя контроля со стороны человека и принятия решений человеком», — сказал он в интервью The Intercept. «Действия USSOCOM по противодействию иностранным спецслужбам в интернете соответствуют законодательству и политике США. Эти операции не направлены против американского населения и призваны способствовать достижению целей национальной безопасности в условиях всё более сложных глобальных вызовов».

Такие инструменты, как ChatGPT от OpenAI или Gemini от Google, стали очень популярными, несмотря на то, что они часто допускают фактические ошибки и выдают другие непредсказуемые результаты. Но их способность мгновенно генерировать текст практически на любую тему, написанный практически в любом стиле — от непринуждённого троллинга до псевдоакадемического, — может стать серьёзным прорывом для интернет-пропагандистов. Эти инструменты дают пользователям возможность точно настраивать сообщения для любой аудитории, не тратя время и деньги на человеческий труд.

Вопрос о том, работает ли пропаганда, созданная искусственным интеллектом, остаётся открытым, но такая практика уже широко распространена. В мае 2024 года компания OpenAI опубликовала отчёт, в котором говорилось об попытках иранских, китайских и российских субъектов использовать инструменты компании для проведения тайных кампаний по оказанию влияния, но ни одна из них не оказалась особенно успешной. Выступая на форуме AI Insight в Сенате в 2023 году, Джессика Брандт из Брукингского института предупредила, что «большие языковые модели могут повысить персонализацию и, следовательно, убедительность информационных кампаний». В онлайн-экосистеме, наполненной кампаниями по информационной войне с использованием искусственного интеллекта, «скептицизм в отношении существования объективной истины, скорее всего, будет усиливаться», — предупредила она. Исследование 2024 года, опубликованное в научном журнале PNAS Nexus, показало, что «языковые модели могут генерировать текст, который для американской аудитории почти так же убедителен, как контент, полученный в ходе реальных зарубежных тайных пропагандистских кампаний». Неудивительно, что представители органов национальной безопасности теперь настаивают на том, что угроза, исходящая от этой технологии в руках иностранных держав, а именно России и Китая, крайне серьёзная.

«Наступила эра пропаганды с помощью искусственного интеллекта, и Америка должна действовать», предупреждает недавняя статья в New York Times, посвящённая GoLaxy — программному обеспечению, созданному китайской фирмой Beijing Thinker и изначально использовавшемуся для игры в настольную игру го. Соавторы статьи Бретт Бенсон, профессор политологии в Университете Вандербильта, и Бретт Гольдштейн, бывший сотрудник Министерства обороны, рисуют мрачную картину, в которой GoLaxy выступает в качестве нового лидера в кампаниях по оказанию влияния, проводимых государством. Они предупреждают, что GoLaxy может сканировать общедоступный контент в социальных сетях и создавать специальные пропагандистские кампании. «Компания в частном порядке утверждает, что может использовать новую технологию для изменения общественного мнения и оказания на него влияния от имени китайского правительства», согласно сопутствующей статье репортёра Times по вопросам национальной безопасности Джулиана Барнса, озаглавленной «Китай использует искусственный интеллект в информационной войне». Новостная статья выдержана в таком же резком тоне: «GoLaxy может быстро создавать ответы, которые укрепляют позиции китайского правительства и опровергают противоположные аргументы. После внедрения в эксплуатацию такие посты могут вытеснить органическую дискуссию пропагандой». Согласно этим материалам, пишет Times, GoLaxy «проводила кампании по оказанию влияния в Гонконге и на Тайване, а также собирала данные о членах Конгресса и других влиятельных американцах».

Бенсон и Гольдштейн утверждают, что для противодействия этой внешней угрозе необходим «скоординированный ответ» со стороны правительства, научных кругов и частного сектора. Они описывают этот ответ как оборонительный: выявление и противодействие иностранной пропаганде с использованием искусственного интеллекта. Это не то, что, согласно документу Центра закупок, технологий и логистики сил специального назначения, нужно Пентагону. Из материала следует, что SOCOM считает, что ему нужна технология, которая максимально соответствует заявленным возможностям Китая. Боты просматривают и анализируют большие объёмы интернет-трафика, чтобы лучше убеждать целевую аудиторию или отдельных людей в чём-либо.

SOCOM заявляет, что ей, в частности, нужны “автоматизированные системы для очистки информационной среды, анализа ситуации и реагирования сообщениями, соответствующими целям MISO. Эта технология должна быть способна реагировать на сообщения, подавлять аргументы несогласия и создавать исходные материалы, на которые можно ссылаться в поддержку дружественных аргументов и сообщений ”.

Пентагон уделяет особое внимание тем, кто может разоблачить его пропагандистские усилия.

  • «Эта программа также должна иметь доступ к профилям, сетям и системам отдельных лиц или групп, которые пытаются противостоять нашим сообщениям или дискредитировать их, — отмечается в документе. — Эта функция должна использовать полученную информацию для создания более целенаправленных сообщений, чтобы повлиять на конкретного человека или группу».
  • «Эта программа также должна иметь доступ к профилям, сетям и системам отдельных лиц или групп, которые пытаются противостоять нашим сообщениям или дискредитировать их».
  • SOCOM планирует использовать генеративные системы как для создания пропагандистских сообщений, так и для моделирования того, как эта пропаганда будет воспринята после публикации, отмечается в документе. SOCOM надеется использовать «агентные системы, которые воспроизводят определённые знания, навыки, способности, личностные качества и социокультурные характеристики, необходимые для выполнения различных ролей в команде», прежде чем перейти к «мозговым штурмам и тестированию оперативных кампаний с использованием агентных копий отдельных лиц и групп». Эти симуляции более сложные, чем фокус-группы. Вместо них используются «комплексные модели целых обществ, которые позволяют специалистам по планированию MISO экспериментировать или тестировать различные сценарии».

Перспектива того, что LLMS создаст бесконечный пожарный шланг из искусно разработанной пропаганды, была воспринята с тревогой — но в целом в контексте Соединенных Штатов как цели, а не исполнителя.

В публикации 2023 года, подготовленной некоммерческой организацией Freedom House, финансируемой Государственным департаментом, говорилось о «репрессивной силе искусственного интеллекта» и прогнозировалось, что «кампании по дезинформации с использованием ИИ будут набирать обороты по мере того, как злоумышленники будут разрабатывать дополнительные способы обхода защитных механизмов и использования моделей с открытым исходным кодом». Предупреждая о том, что «генеративный ИИ привлекает внимание авторитарных режимов», Freedom House в своём отчёте упоминает о возможном использовании этой технологии Китаем и Россией, но лишь в кратком разделе, посвящённом президентским кампаниям Рона Десантиса и Дональда Трампа, а также дипфейковому видео с Джо Байденом, в котором бывший президент делает трансфобные комментарии. По словам Эндрю Лоуна, бывшего директора по новым технологиям в Совете национальной безопасности, степень обеспокоенности общественности автоматизированной пропагандистской машиной, способной охватить весь мир, зависит от масштабов её применения.

«Я бы не так сильно переживал, если бы какие-то иностранные солдаты ошибочно полагали, что наша спецоперация начнётся в среду утром с вертолёта с востока, а не во вторник вечером с лодки с запада», — сказал Лон, который сейчас является старшим научным сотрудником Центра безопасности и новых технологий Джорджтаунского университета.

Военные не раз манипулировали гражданским населением в политических или идеологических целях. Тревожный пример был выявлен в 2024 году, когда агентство Reuters сообщило, что Министерство обороны провело тайную антипрививочную кампанию в социальных сетях, чтобы подорвать доверие общественности к китайской вакцине от Covid, опасаясь, что её эффективность может сблизить азиатские страны с крупным геополитическим соперником. В твитах, созданных Пентагоном, китайская вакцина Sinovac-CoronaVac, названная Всемирной организацией здравоохранения «безопасной и эффективной», была названа «фейковой» и ненадежной. Согласно сообщению Reuters, тогдашний командующий Тихоокеанским командованием специальных операций генерал Джонатан Брага «давил на своих начальников в Вашингтоне, чтобы те дали отпор в так называемом информационном пространстве», поддержав тайную пропагандистскую кампанию.

Уильям Марчеллино, специалист по поведенческим наукам из корпорации RAND, занимающийся вопросами геополитики систем машинного обучения и закупок Пентагона, рассказал The Intercept, что такие системы создаются по необходимости. «Такие режимы, как в Китае и России, используют ИИ для масштабного злонамеренного влияния», — сказал он. Он предупредил, что связанные с государством группы в Китае «специально разработали масштабные системы ИИ для ведения информационной войны». «Для противодействия этим кампаниям, скорее всего, потребуется масштабное использование ИИ», — сказал он.

В последние годы SOCOM открыто заявляла о своём желании создать пропагандистские системы на основе искусственного интеллекта. Эти заявления свидетельствуют о более широком интересе, который включает в себя операции по оказанию влияния на целые группы населения, а не только на военнослужащих.

В 2019 году высокопоставленный представитель спецподразделений Пентагона выступил на оборонном симпозиуме и заявил, что стране «необходимо выйти за рамки подхода к информированию, характерного для XX века, и начать рассматривать влияние как неотъемлемый аспект современной нерегулярной войны». Чиновник отметил, что это «также потребует новых партнёрских отношений за пределами традиционных сфер деятельности по всему миру, а также усилий по усилению влияния [неправительственных организаций] и отдельных граждан, которые обеспечивают прозрачность вредоносной деятельности наших конкурентов». В следующем году тогдашний командующий Командованием специальных операций генерал Ричард Кларк рассказал о своём интересе к использованию ИИ для достижения этих целей. «Если мы посмотрим на возможности влияния и формирования в этой [информационной] среде, то увидим, что нам понадобятся инструменты искусственного интеллекта и машинного обучения, — сказал Кларк в 2020 году в выступлении, о котором впервые сообщило издание National Defense Magazine, — особенно для информационных операций, охватывающих очень широкий спектр задач, потому что нам нужно понимать, как мыслит противник, как мыслит население, и работать в этих направлениях».

Хейди Клааф, главный научный сотрудник AI Now Institute и бывший инженер по безопасности в OpenAI, предостерегает от подхода «противодействие огнём»: «Представление о том, что использование генеративного и агентного ИИ — это всего лишь смягчение последствий его использования противниками, является искажённым представлением об этой технологии, поскольку наступательное и оборонительное применение — это две стороны одной медали, и они позволят использовать ИИ точно так же, как это делают противники». По мнению Эмерсона Брукинга, старшего научного сотрудника Лаборатории цифровой криминалистики Атлантического совета, автоматизированные онлайн-кампании по оказанию влияния могут оказаться малоэффективными. «Россия использует программы искусственного интеллекта для автоматизации своих операций по оказанию влияния», — сказал он. Брукинг предупредил, что склонность LLM фабриковать ложь и увековечивать предвзятые мнения по просьбе пользователей также может оказаться серьезной проблемой. “Получив задание проникнуть в ‘сердца и умы’ сложной и малоизученной страны, они могут в значительной степени полагаться на помощь искусственного интеллекта, который, скорее всего, скажет им то, что они уже хотят услышать”, — сказал он.

Клааф добавила, что «агентные» системы, которые технологические компании активно рекламируют как независимые цифровые «мозги», по-прежнему подвержены ошибкам и непредсказуемы. «Внедрение агентного ИИ в эти кампании по дезинформации создает дополнительные проблемы с безопасностью, поскольку результаты нескольких исследований показали, насколько легко мы можем скомпрометировать агентный ИИ и изменить его поведение, — сказала она в интервью The Intercept. — Если эти проблемы с безопасностью не будут решены, [SOCOM] рискует не только скомпрометировать свои кампании, но и получить нежелательный результат». «ИИ, как правило, делает эти кампании более глупыми, а не более эффективными». Брукинг, ранее работавший советником в аппарате заместителя министра обороны по вопросам политики в области кибербезопасности, также указал на неоднозначные результаты предыдущих попыток США вести пропаганду в интернете. В 2022 году исследователи выявили сеть аккаунтов в Twitter и Facebook тайно управляемых Центральным командованием США, которые публиковали фейковые новостные статьи с антироссийскими и антииранскими тезисами. Эта сеть, которая не смогла завоевать популярность ни в одной из социальных сетей, быстро стала предметом позора для Пентагона.

«Из других публичных отчётов мы знаем, что США уже давно стремятся «подавлять инакомыслие» и создавать положительный фон в прессе в определённых сферах своей деятельности, — сказал он. — Мы также знаем, что эти усилия не очень эффективны и могут вызвать серьёзный резонанс или привести к обратным результатам, если о них станет известно американской общественности. ИИ, как правило, делает эти кампании более глупыми, а не более эффективными».

ВСЁ ГОРАЗДО ХУЖЕ, ЧЕМ МЫ ДУМАЛИ.

То, что мы сейчас наблюдаем со стороны Дональда Трампа, — это полномасштабный авторитарный захват власти в правительстве США. Это не преувеличение. Постановления суда игнорируются. Сторонники MAGA возглавили вооружённые силы и федеральные правоохранительные органы. Министерство эффективности государственного управления лишило Конгресс права распоряжаться бюджетом. Новостные издания, критикующие Трампа, были закрыты или попали под следствие. Тем не менее многие по-прежнему освещают нападки Трампа на демократию как обычное политическое явление, используя лестные заголовки, в которых Трампа называют «нетрадиционным», «испытывающим границы дозволенного» и «агрессивно использующим власть».

The Intercept уже давно освещает деятельность авторитарных правительств, олигархов-миллиардеров и отступающих от демократических принципов государств по всему миру. Мы понимаем, с какой проблемой мы столкнулись в лице Трампа, и осознаём, насколько важна свобода прессы для защиты демократии.

источник: https://theintercept.com/2025/08/25/pentagon-military-ai-propaganda-influence/