США разрабатывают строгие правила в отношении ИИ на фоне антропогенного конфликта, сообщает Financial Times.

По сообщению агентства Reuters

Оборонные подрядчики, такие как Lockheed, планируют отказаться от услуг Anthropics в области искусственного интеллекта после запрета, введенного Трампом.
На этой иллюстрации, сделанной 1 марта 2026 года, изображены логотипы Министерства обороны США и организации «Антропология». REUTERS/Dado Ruvic/Illustration/File Photo. 

6 марта (Reuters) — Администрация Трампа разработала строгие правила для гражданских контрактов в области искусственного интеллекта, требующие от компаний разрешать «любое законное» использование своих моделей на фоне противостояния между Пентагоном и компанией Anthropic, сообщила в пятницу газета Financial Times. В четверг Пентагон признал компанию Anthropic «риском для цепочки поставок», запретив государственным подрядчикам использовать технологии этой фирмы, занимающейся искусственным интеллектом, в работе для вооруженных сил США. Это произошло после многомесячного спора по поводу настойчивого требования компанией мер безопасности, которые, по мнению Министерства обороны, зашли слишком далеко.

В проекте руководящих принципов, рассмотренном Financial Times, говорится, что группы, занимающиеся разработкой искусственного интеллекта и стремящиеся к сотрудничеству с правительством, должны предоставить США безотзывную лицензию на использование своих систем во всех законных целях. Как сообщила газета, указания Управления общих служб будут применяться к гражданским контрактам и являются частью более широких общеправительственных усилий по укреплению системы закупок услуг в области искусственного интеллекта, а также отражают меры, которые Пентагон рассматривает в отношении военных контрактов. «Было бы безответственно по отношению к американскому народу и опасно для нашей страны, если бы GSA поддерживала деловые отношения с Anthropic», — заявил агентству Reuters по электронной почте Джош Груенбаум, комиссар Федеральной службы закупок, дочерней компании GSA, которая помогает закупать программное обеспечение для федерального правительства.

«По указанию президента, GSA расторгло соглашение с Anthropic о проекте OneGov, тем самым прекратив доступность Anthropic для исполнительной; законодательной и судебной ветвей власти в рамках предварительно согласованных контрактов GSA», — заявил Груенбаум. Белый дом не сразу ответил на запросы агентства Reuters о комментариях.

Как сообщила газета Financial Times, в проекте постановления GSA содержится требование, согласно которому подрядчики «не должны намеренно вносить партийные или идеологические суждения в выходные данные систем искусственного интеллекта». Как сообщила газета, это требует от компаний раскрывать информацию о том, были ли их модели «модифицированы или настроены для соответствия каким-либо федеральным правительственным или коммерческим нормативным актам, не относящимся к США».

Репортаж Бипаши Дей и Ананйи Пальекар из Бангалора; редактирование Химани Саркар, Тома Хоуга и Уильяма Малларда.

Наши стандарты: Принципы доверия Thomson Reuters.

источник: https://www.reuters.com/business/media-telecom/us-draws-up-strict-new-ai-guidelines-amid-anthropic-clash-ft-reports-2026-03-07/?utm_source=Sailthru&utm_medium=Newsletter&utm_campaign=Technology-Roundup&utm_term=030826&lctg=67c37307e83d4e293e07d1e6