Этика — какая этика? Microsoft полным ходом продвигается в области искусственного интеллекта.

Microsoft быстро внедрила все, что связано с искусственным интеллектом, несмотря на то, что многие представители технологической индустрии высказывают опасения по поводу присущих этой технологии опасностей. Компании все равно.

man concerned artificial intelligence ai sign

Microsoft полностью заинтересована в искусственном интеллекте (ИИ) по очень простой причине: она верит, что ее лидерство в этой технологии снова сделает ее лидером в мире технологий. Microsoft сильно отстает от Google в области поиска и браузеров, но она считает, что искусственный интеллект может помочь ей занять это лидирующее положение или даже сделать Microsoft доминирующей. (its lead in the technology will make it the tech world’s top dog again)

Ставки не могли быть выше. Финансовый директор Microsoft Эми Худ недавно сообщила аналитикам, что один процентный пункт доли рынка поисковой рекламы стоит 2 миллиарда долларов. В первом квартале 2023 года доля Google на поисковом рынке составляла 85%, по сравнению с 9% у Bing (Google had an 85% search market share, compared to 9% for Bing). Таким образом, у Microsoft есть много возможностей получить миллиарды, если она сможет приблизиться к Google. И это только в поиске. Microsoft видит еще миллиарды дополнительных средств на основе искусственного интеллекта в облаке, инструментах повышения производительности и многом другом (billions in additional AI-driven money in the cloud, productivity tools and more).

[ Bing’s AI chatbot came to work for me. I had to fire it. ]

На пути Microsoft стоят не только конкуренты. Правительства по всему миру, специалисты по этике и многие исследователи искусственного интеллекта считают, что быстро развивающаяся технология, при неправильном обращении, представляет значительную опасность для общества и демократии и может даже поставить под угрозу будущее человечества.
Все это беспокоит исследователя-первопроходца в области искусственного интеллекта Джеффри Хинтона, “крестного отца искусственного интеллекта”, который недавно уволился со своей десятилетней работы в Google в знак протеста против неограниченного использования технологии. “Я не думаю, что им следует расширять это до тех пор, пока они не поймут, могут ли они это контролировать”, — сказал он после ухода из Google.

Он не одинок. В марте более 1000 исследователей искусственного интеллекта, технологических лидеров и других лиц подписали открытое письмо (In March, more than 1,000 AI researchers, tech leaders, and others signed an open letter) с предупреждением о том, что создатели искусственного интеллекта “вовлечены в неконтролируемую гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать”. Они попросили приостановить разработку любого инструмента искусственного интеллекта, который был бы более мощным, чем GPT-4, разработанный OpenAI, в который Microsoft инвестировала 13 миллиардов долларов (Microsoft has invested $13 billion).

Затем, в начале апреля, 19 руководителей 40-летнего академического общества Association for the Advancement of Artificial Intelligence опубликовали письмо с предупреждением об опасностях, которые представляет ИИ. Среди подписавших его был Эрик Хорвиц, главный научный сотрудник Microsoft и бывший президент общества.

[ REGISTER NOW for June 22, in-person event, FutureIT Chicago: Building the Digital Business with Cloud, AI and Security ]

Измельчаем «колбасу» из искусственного интеллекта

Дело не в том, что Microsoft не осознает опасности. Компания настолько обеспокоена, что создала несколько внутренних групп по их поводу, включая Управление ответственного искусственного интеллекта. Но эти группы, похоже, не более чем показуха.

Когда-то в компании была команда по этике и обществу, внедренная непосредственно в ее организацию по искусственному интеллекту, команда, у которой были настоящие зубы. К 2020 году в нее входили 30 инженеров, дизайнеров и философов, и она работала с группой разработчиков искусственного интеллекта, чтобы обеспечить этичное обращение с ИИ.

Эта команда, согласно  according to Platformer, перевела туманно звучащие заявления Office of Responsible AI и проследила за тем, чтобы они были применены при доставке продуктов.

Один из членов группы объяснил: “Люди смотрели на принципы, исходящие из офиса ответственного ИИ, и говорили: «Я не знаю, как это применимо». Наша работа состояла в том, чтобы показать им и создать правила в тех областях, где их не было”.

Но по мере того, как Microsoft ускоряла разработку искусственного интеллекта, она сокращала штат команды. В октябре 2022 года, за четыре месяца до того, как Microsoft выпустила своего чат-бота Bing AI, Microsoft сократила команду до семи человек. Компания не скрывала причин своих действий: она спешила запустить своего чат-бота с искусственным интеллектом и не хотела, чтобы ничто, включая этические соображения, стояло у нее на пути.

В распоряжение Platformer попала аудиозапись со встречи, на которой Джон Монтгомери, корпоративный вице-президент Microsoft по искусственному интеллекту, рассказал команде, почему ее сокращают.

“Давление со стороны [технического директора] Кевина [Скотта] и [генерального директора] Сатьи [Наделлы] очень, очень велико, чтобы они взяли эти самые последние модели OpenAI и те, что появятся после них, и передали их в руки клиентов с очень высокой скоростью”, — цитируются его слова в аудиозаписи. Он утверждал, что команда по этике стояла у него на пути.

Один из членов команды ответил: “Хотя я понимаю, что здесь замешаны проблемы бизнеса…, что всегда глубоко беспокоило эту команду, так это то, как мы влияем на общество и какие негативные последствия мы испытываем. И они очень важны”.

Монтгомери отклонил жалобу: “Могу ли я пересмотреть свое решение? Я не думаю, что сделаю это. Потому что, к сожалению, давление остается прежним. У вас нет такого мнения, как у меня, и, вероятно, вы можете быть благодарны за это. В колбасу добавляется много всякой всячины.”

Даже после сокращений в команде “колбаса” искусственного интеллекта, по-видимому, разрабатывалась Microsoft недостаточно быстро. 6 марта он полностью исключил команду.

Тыкают пальцем в нос федералам

В то же время, когда Microsoft нацелилась на людей внутри компании, обеспокоенных искусственным интеллектом, остальной мир тоже стал проявлять все большее беспокойство. В начале мая Белый дом пригласил руководителей в области искусственного интеллекта Microsoft, Google, Open AI (создателя ChatbotGPT) и ИИ-стартапа Anthropic (invited AI leaders of Microsoft, Google, Open AI (the maker of ChatbotGPT), and the AI startup Anthropic) встретиться с вице-президентом Камалой Харрис. Президент Байден ненадолго пришел на встречу и предупредил: “То, что вы делаете, имеет огромный потенциал и огромную опасность”. Харрис усилил это, заявив: “Частный сектор несет этическую, моральную и юридическую ответственность за обеспечение сохранности своей продукции”.

Microsoft не потрудилась притвориться, что ей небезразличны проблемы президента и вице-президента. В тот же день, что и встреча в Белом доме, он сделал чат-бота Bing доступным для всех (it made the Bing chatbot available to anyone who wanted to use it) кто хотел им воспользоваться, устранил ограждения безопасности, которыми он был окружен, и открыл его для разработчиков.

Послание компании было громким и ясным: Microsoft полным ходом продвигается в области искусственного интеллекта, несмотря на его потенциально опасные последствия. В конце концов, нужно приготовить колбасу.

Источник: https://www.computerworld.com/article/3697014/ethics-what-ethics-for-microsoft-its-full-speed-ahead-on-ai.html#tk.rss_all

Автор: Preston Gralla is a contributing editor for Computerworld and the author of more than 45 books, including Windows 8 Hacks (O’Reilly, 2012) and How the Internet Works (Que, 2006). / Престон Гралла является редактором Computerworld и автором более 45 книг, в том числе «Взломы Windows 8» (O’Reilly, 2012) и «Как работает Интернет» (Que, 2006).