По сообщению агентства Reuters

6 марта (Reuters) — Администрация Трампа разработала строгие правила для гражданских контрактов в области искусственного интеллекта, требующие от компаний разрешать «любое законное» использование своих моделей на фоне противостояния между Пентагоном и компанией Anthropic, сообщила в пятницу газета Financial Times. В четверг Пентагон признал компанию Anthropic «риском для цепочки поставок», запретив государственным подрядчикам использовать технологии этой фирмы, занимающейся искусственным интеллектом, в работе для вооруженных сил США. Это произошло после многомесячного спора по поводу настойчивого требования компанией мер безопасности, которые, по мнению Министерства обороны, зашли слишком далеко.
В проекте руководящих принципов, рассмотренном Financial Times, говорится, что группы, занимающиеся разработкой искусственного интеллекта и стремящиеся к сотрудничеству с правительством, должны предоставить США безотзывную лицензию на использование своих систем во всех законных целях. Как сообщила газета, указания Управления общих служб будут применяться к гражданским контрактам и являются частью более широких общеправительственных усилий по укреплению системы закупок услуг в области искусственного интеллекта, а также отражают меры, которые Пентагон рассматривает в отношении военных контрактов. «Было бы безответственно по отношению к американскому народу и опасно для нашей страны, если бы GSA поддерживала деловые отношения с Anthropic», — заявил агентству Reuters по электронной почте Джош Груенбаум, комиссар Федеральной службы закупок, дочерней компании GSA, которая помогает закупать программное обеспечение для федерального правительства.
«По указанию президента, GSA расторгло соглашение с Anthropic о проекте OneGov, тем самым прекратив доступность Anthropic для исполнительной; законодательной и судебной ветвей власти в рамках предварительно согласованных контрактов GSA», — заявил Груенбаум. Белый дом не сразу ответил на запросы агентства Reuters о комментариях.
Как сообщила газета Financial Times, в проекте постановления GSA содержится требование, согласно которому подрядчики «не должны намеренно вносить партийные или идеологические суждения в выходные данные систем искусственного интеллекта». Как сообщила газета, это требует от компаний раскрывать информацию о том, были ли их модели «модифицированы или настроены для соответствия каким-либо федеральным правительственным или коммерческим нормативным актам, не относящимся к США».
Репортаж Бипаши Дей и Ананйи Пальекар из Бангалора; редактирование Химани Саркар, Тома Хоуга и Уильяма Малларда.
Наши стандарты: Принципы доверия Thomson Reuters.