OpenAI играет в обороне, в то время как Anthropic атакует.

высокий звук
© Грег Нэш

На этой неделе OpenAI находится в центре внимания из-за нового соглашения компании по искусственному интеллекту с Пентагоном, заключенного всего через несколько часов после того, как переговоры агентства с конкурентом Anthropic по поводу ограждений безопасности провалились. Реакция была почти мгновенной: в прошлую субботу число удалений флагманского приложения ChatGPT выросло на 295% по сравнению с предыдущим днем, согласно сообщениям со ссылкой на поставщика маркетинговой информации Sensor Tower. Тем временем приложение Anthropic Claude заняло первое место в App Store, так как пользователи устремились к нему в знак поддержки.

К вечеру понедельника генеральный директор OpenAI Сэм Альтман поделился с X внутренним сообщением, в котором подробно описывались новые дополнения к соглашениям Пентагона, призванные сделать “принципы компании предельно ясными”. При этом соучредитель компании признал, что компании “не следовало торопиться с обнародованием этого” в прошлую пятницу.

“Проблемы очень сложны и требуют четкого понимания”, — написал Альтман. “Мы искренне пытались снизить напряженность и избежать гораздо худшего исхода, но я думаю, что это выглядело просто оппортунистическим и небрежным”. Хотя Альтман назвал это “хорошим опытом обучения”, неясно, успокоит ли признание критиков или восстановит доверие после негативной реакции. Несколько пользователей на X отреагировали на пост Альтмана, попросив опубликовать сам контракт в целях демонстрации прозрачности.

В одном из ответов на пост Альтмана, набравший 13 000 просмотров, один пользователь сказал, что “единственный способ” “вернуть хоть какое-то доверие” — это опубликовать сам документ о контракте, написав: “Вы, ребята, полностью подорвали свой бренд и целостность из-за этого”. Эта ссора привлекла внимание законодателей на Капитолийском холме, а сенатор-демократ Дж. Брайан Шатц (Гавайи) написал в X во вторник, что он “только что скачал Claude”. Этот вопрос также может стать началом законодательных дебатов.

Как политика будет влиять на технологический сектор сейчас и в будущем:

Я - образ.

Генеральный директор OpenAI Сэм Альтман заявил в понедельник, что компания добавила дополнительные меры защиты к своему соглашению с Министерством обороны о внедрении своих моделей искусственного интеллекта в секретную военную сеть. Последние дополнения появились после того, как производитель ChatGPT столкнулся с сопротивлением из-за сделки, которая последовала за пятничным заявлением администрации Трампа о том, что она прекращает свою работу с Anthropic и называет компанию угрозой для цепочки поставок. …Полная история

здесь: https://thehill.com/policy/technology/5764396-openai-protections-pentagon-deal/?email=467cb6399cb7df64551775e431052b43a775c749&emaila=12a6d4d069cd56cfddaa391c24eb7042&emailb=054528e7403871c79f668e49dd3c44b1ec00c7f611bf9388f76bb2324d6ca5f3&utm_source=Sailthru&utm_medium=email&utm_campaign=03.03.26%20Tech

Генеральный директор OpenAI Сэм Альтман заявил в понедельник, что компания добавила дополнительные меры защиты в свое соглашение с Министерством обороны о внедрении своих моделей ИИ в секретную сеть военных. Последние дополнения появились на фоне критики в адрес разработчика ChatGPT по поводу сделки, которая последовала за пятничным заявлением администрации Трампа о прекращении сотрудничества с Anthropic и признании компании угрозой для цепочки поставок.

Компания OpenAI вносит поправки в соглашение, чтобы включить в него формулировку, в которой отмечается, что, «в соответствии с действующим законодательством», ее модели ИИ «не должны преднамеренно использоваться для внутреннего наблюдения за гражданами и сотрудниками США», — заявил Альтман во внутреннем сообщении, позже опубликованном на социальной платформе X. «Во избежание недоразумений, Министерство понимает это ограничение как запрет на преднамеренное отслеживание, наблюдение или мониторинг лиц или граждан США, в том числе посредством получения или использования коммерчески приобретенной личной или идентифицируемой информации», — говорится в обновленном тексте.

Альтман отметил, что Пентагон также подтвердил OpenAI , что его услуги не будут использоваться разведывательными агентствами ведомства, такими как Агентство национальной безопасности.

«Для предельной ясности: мы хотим работать в рамках демократических процессов, — заявил генеральный директор компании. — Именно правительство должно принимать ключевые решения, касающиеся общества. Мы хотим иметь право голоса и место за столом переговоров, где мы сможем делиться своим опытом и бороться за принципы свободы». Однако он добавил: «Есть много вещей, к которым технология просто не готова, и во многих областях мы еще не понимаем, какие компромиссы необходимы для обеспечения безопасности. Мы будем постепенно прорабатывать эти вопросы совместно с [Министерством обороны], используя технические средства защиты и другие методы».

Альтман также заявил, что компания «не должна была спешить» с заключением соглашения в пятницу, предположив, что они «искренне пытались деэскалировать ситуацию и избежать гораздо худших последствий, но, на мой взгляд, это выглядело просто оппортунистически и небрежно».

О сделке было объявлено всего через несколько часов после того, как президент Трамп распорядился, чтобы федеральные агентства «немедленно прекратили» использование технологий Anthropic . Компания назвала решение министра обороны Пита Хегсета, принятое в пятницу, о признании компании, занимающейся разработкой ИИ, угрозой для цепочки поставок «беспрецедентным шагом» и «юридически необоснованным», и пообещала оспорить этот шаг. Это произошло после нескольких недель напряженных переговоров между Пентагоном и компанией Anthropic по поводу условий использования ее моделей искусственного интеллекта. Компания настаивала на ограничениях на использование своей технологии для массового внутреннего наблюдения и создания полностью автономного смертоносного оружия, в то время как Министерство обороны добивалось более широкой формулировки «для всех законных целей».

Примечательно, что Пентагон согласился на практически те же ограничения в своем соглашении с OpenAI, которое запрещало военным использовать модели ИИ для массового наблюдения, автономных систем вооружения или «автоматизированных решений, имеющих большое значение».

информационный бюллетень The Hill’s Technology newsletter