Снижение риска авторитарного искусственного интеллекта.

Сбалансированный подход к защите наших цифровых экосистем.

В чем проблема?

Системы с поддержкой искусственного интеллекта (ИИ) принимают множество невидимых решений, влияющих на наше здоровье, безопасность и благосостояние. Они формируют то, что мы видим, думаем, чувствуем и выбираем, они рассчитывают наш доступ к финансовым выгодам, а также наши проступки, и теперь они могут генерировать сложный текст, изображения и код так же, как это может сделать человек, но гораздо быстрее. Поэтому неудивительно, что во всех демократических странах предпринимаются шаги по регулированию влияния искусственного интеллекта на наши индивидуальные права и экономическую безопасность, особенно в Европейском союзе (ЕС). Но если мы настороженно относимся к искусственному интеллекту, нам следует быть еще более осмотрительными в отношении продуктов и услуг с поддержкой искусственного интеллекта из авторитарных стран, которые не разделяют ни наших ценностей, ни наших интересов. И в обозримом будущем это означает Китайскую Народную Республику (КНР) — ревизионистскую авторитарную державу, явно враждебную демократии и основанному на правилах международному порядку, которая регулярно использует искусственный интеллект для укрепления своей собственной политической и социальной стабильности за счет индивидуальных прав человека. В отличие от других стран: России, Ирана и Северной Кореи; Китай является технологической сверхдержавой с глобальным потенциалом и амбициями и крупным экспортером эффективных, конкурентоспособных по цене технологий с поддержкой искусственного интеллекта в демократических странах.

В мире, основанном на технологиях, угрозы обрушиваются на нас «беспрецедентными темпами, масштабами и охватом’.1 И, если наша зависимость от искусственного интеллекта также беспрецедентна, то же самое относится и к возможности — благодаря магии Интернета и обновлениям программного обеспечения — удаленного крупномасштабного иностранного вмешательства, шпионажа и саботажа с помощью промышленных и потребительских товаров и услуг с поддержкой искусственного интеллекта внутри цифровых экосистем демократических стран. Системы искусственного интеллекта встроены в наши дома, на рабочих местах и в основные службы. Все больше и больше мы доверяем им в том, что они будут работать так, как рекламируется, всегда будут рядом с нами и сохранят наши секреты.

Несмотря на благородные намерения отдельных поставщиков китайских продуктов и услуг с поддержкой искусственного интеллекта, они подчиняются указаниям служб безопасности и разведки КНР. Мы должны спросить себя: на фоне растущей стратегической конкуренции с Китаем, насколько большой риск мы готовы нести?

Нам следует беспокоиться о трех видах китайских технологий с поддержкой искусственного интеллекта:

  • продукты и услуги (часто физическая инфраструктура), где владение КНР подвергает демократические страны рискам шпионажа (в частности, слежки и кражи данных) и саботажа (сбои в работе и отказ в предоставлении продуктов и услуг).
  • Технология с поддержкой искусственного интеллекта, облегчающая иностранное вмешательство (злонамеренное скрытое влияние от имени иностранной державы), наиболее распространенным примером которой является TikTok.
  • «ИИ с большой языковой моделью» и другие формирующиеся системы генеративного ИИ — будущая угроза, о которой нам нужно начать думать уже сейчас.

Хотя мы должны рассмотреть риски во всех трех областях, в этом отчете больше внимания уделяется первой категории (и действительно, TikTok рассматривается через призму рисков шпионажа и саботажа, которые представляет такое приложение).

Динамика, лежащая в основе китайских продуктов и услуг с поддержкой искусственного интеллекта, такая же, как и та, которая вызвала обеспокоенность в отношении китайских поставщиков 5G: правительство КНР имеет возможность заставить свои компании следовать его указаниям, у него есть возможности, предоставляемые присутствием китайских продуктов и услуг с поддержкой искусственного интеллекта в наших цифровых экосистемах, и это продемонстрировало злонамеренные намерения по отношению к демократическим странам. Но это более тонкая и сложная проблема, чем принятие решения о запрете китайским компаниям участвовать в сетях 5G. Телекоммуникационные сетиэто нервные системы, лежащие в основе наших цифровых экосистем; они являются стратегическими точками уязвимости для всех цифровых технологий. Защитить их от иностранных спецслужб несложно, и это стоит экономических и политических затрат. И эти затраты ограничены, потому что 5G — это небольшая группа легко идентифицируемых технологий. Напротив, искусственный интеллект — это совокупность технологий и приемчиков, встроенных в тысячи приложений, продуктов и сервисов, поэтому задача состоит в том, чтобы определить, где в спектре между угрозой национальной безопасности и моральной паникой находится каждый из этих продуктов. А затем выбирайте бои, которые действительно важны.

Каково же решение?

Общий запрет на все китайские технологии с поддержкой искусственного интеллекта был бы чрезвычайно дорогостоящим и разрушительным. Многие компании и исследователи в демократических странах хотят продолжать сотрудничество над китайскими продуктами с поддержкой искусственного интеллекта, потому что это помогает им внедрять инновации, создавать более качественные продукты, предлагать более дешевые услуги и публиковать научные открытия. Политическая цель здесь состоит в том, чтобы предпринять разумные шаги для защиты наших цифровых экосистем, а не в экономическом отделении от Китая.

Что необходимо, так это новая трехэтапная система для выявления, сортировки и управления наиболее рискованными продуктами и услугами. Цель аналогична предложенной в недавно представленном проекте Закона США об ограничениях, который направлен на выявление и смягчение внешних угроз для продуктов и услуг в области информационно-коммуникационных технологий (ИКТ), хотя основное внимание здесь уделяется выявлению наиболее серьезных угроз.

Шаг 1: Аудит. Определите системы искусственного интеллекта, назначение и функциональность которых волнуют нас больше всего. Каков потенциальный масштаб нашего воздействия на этот продукт или услугу? Насколько важна эта система для основных служб, общественного здравоохранения и безопасности, демократических процессов, открытых рынков, свободы слова и верховенства закона? Каковы уровни зависимости и избыточности, если она будет скомпрометирована или недоступна?

Шаг 2: Красная команда. Любой может определить риск внедрения многих технологий китайского производства в чувствительных местах, таких как правительственная инфраструктура, но в других случаях уровень риска будет неясен. В таких случаях вам нужно настроить вора на поимку вора. Что могла бы сделать команда специалистов, если бы у них был привилегированный доступ (то есть они «владели») к системе—кандидату, определенной на этапе 1, — люди с опытом разведывательных операций, кибербезопасности и, возможно, военного планирования в сочетании с соответствующими экспертами в технической области? Это проверка в реальном мире, потому что все разведывательные операции требуют времени и денег, а некоторые точки присутствия в целевой экосистеме предлагают более масштабируемые и эффективные возможности, чем другие. Камеры и беспилотные летательные аппараты китайского производства в чувствительных местах вызывают законную озабоченность, но нарушение цепочек поставок из-за доступа к кранам, доставляющим грузы с судна на берег, было бы разрушительным.

Например, мы знаем, что данные TikTok могут быть доступны агентствам КНР и, как сообщается, также раскрывают местоположение пользователя, поэтому очевидно, что военным и правительственным чиновникам не следует использовать это приложение. Журналистам тоже следует хорошенько подумать об этом. Кроме того, достоинства общего запрета по соображениям технической безопасности немного туманны. Может ли наша команда Red использовать приложение для доступа к подключенным мобильным телефонам и ИТ-системам для установки шпионских вредоносных программ? Какие системные меры по смягчению последствий могли бы помешать им получить доступ к данным в подключенных системах? Если команда выявила серьезные уязвимости, которые невозможно устранить, может быть уместен общий запрет.

Шаг 3: Отрегулируйте. Решите, что делать с системой, идентифицированной как ‘высокорисковая’. Меры по лечению могут варьироваться от запрета китайской технологии с поддержкой искусственного интеллекта в некоторых частях сети, запрета на государственные закупки или использование или общего запрета. Кроме того, правительства могли бы настаивать на принятии мер по снижению выявленного риска или ослаблению риска с помощью механизмов резервирования. И во многих случаях усилия по просвещению общественности в духе нового Управления национальной безопасности Великобритании могут стать подходящей альтернативой регулированию.

Демократическим странам нужно больше думать о китайской технологии с поддержкой искусственного интеллекта в наших цифровых экосистемах. Но мы не должны слишком остро реагировать: наш подход к регулированию должен быть осторожным, но избирательным.

Вступление.

Кажется, прошла целая вечность с тех пор, как мы беспокоились о доминировании Китая над мировыми сетями 5G. В наши дни цифровая авторитарная угроза ощущается явно в стиле стимпанк — российские ракеты, работающие на чипах от стиральных машин, и величественные китайские аэростаты наблюдения. И, тем временем, наше кратковременное внимание сосредоточено (по иронии судьбы) на TikTok — алгоритмически захватывающем приложении для коротких видео, принадлежащем китайской технологической компании ByteDance.

В более широком смысле, широко распространены опасения, что генеративный искусственный интеллект «большой языковой модели» (LLM), такой как ChatGPT, лишит нашу студенческую молодежь, заменит наши рабочие места и превзойдет регулирующие возможности демократических стран.2 Безусловно, то, как мы доверяем и зависим от искусственного интеллекта в поддержании и улучшении нашей жизни, является экспериментом, не имеющим прецедентов в истории человечества. Мы полагаемся на искусственный интеллект для принятия незаметных решений, влияющих на наше здоровье, безопасность и благосостояние в критически важных сферах общественной инфраструктуры и на финансовых рынках. Онлайн это формирует то, что мы видим, думаем, чувствуем и выбираем. Он знает о нас больше, чем мы сами, поэтому удобен для обеспечения доступа к тем вещам, которые мы хотим, таким как работа, социальное обеспечение, кредиты и страховка. Он выявляет наши проступки, когда вычисляет, что мы совершили мошенничество или нарушение правил дорожного движения, и прогнозирует наш риск совершения уголовных преступлений3 и смерти от болезней. И теперь искусственный интеллект может генерировать сложный текст, изображения и код, которые до сих пор были под силу только людям, и делать это в кратчайшие сроки.

Таким образом, вполне понятно, что многие граждане и демократические правительства с недоверием относятся к влиянию искусственного интеллекта на наши индивидуальные права и экономическую безопасность. Во всех демократических странах предпринимаются шаги по регулированию искусственного интеллекта, особенно в ЕС, который готов принять всеобъемлющие правила в области искусственного интеллекта. В июне 2023 года австралийское правительство также предвосхитило регулирование, призванное «обеспечить безопасный и ответственный рост искусственного интеллекта в Австралии’4. Но если мы, представители демократических стран, настороженно относимся к искусственному интеллекту, нам следует быть еще более осмотрительными в отношении продуктов и услуг с поддержкой искусственного интеллекта из авторитарных стран, которые не разделяют ни наших ценностей, ни наших интересов. И в обозримом будущем это означает КНР. На протяжении жизни одного поколения Китай преобразил свою технологическую базу. Когда-то едва способная производить третьесортные копии второсортных советских разработок, теперь она является технологическим конкурентом США в области передового искусственного интеллекта.5 Китайские технологические компании, заинтересованные в поиске технологий для решения проблем внутренней безопасности правительства КНР, продвинулись вперед сейчас они экспортируют свои технологии с поддержкой искусственного интеллекта по всему миру.

Китайские продукты с поддержкой искусственного интеллекта конкурентоспособны по цене и эффективны, что, несомненно, является причиной того, что почти 1000 камер наблюдения китайского производства были установлены в австралийских государственных учреждениях.6 Однако китайские компании также подчиняются руководству китайского государства7.

Задача демократий заключается в том, как управлять рисками безопасности, создаваемыми китайскими продуктами и услугами с поддержкой искусственного интеллекта. Лежащая в основе динамика такая же, как и та, которая вызвала обеспокоенность в отношении китайских поставщиков 5G: правительство КНР имеет возможность заставить свои компании следовать его указаниям, у него есть возможности, предоставляемые присутствием китайских продуктов и услуг с поддержкой искусственного интеллекта в наших цифровых экосистемах, и оно продемонстрировало злонамеренные намерения в отношении демократии. Но это более тонкая и сложная проблема, чем принятие решения о запрете китайским компаниям участвовать в сетях 5G. Телекоммуникационные сети — это нервные системы, лежащие в основе наших цифровых экосистем; они являются стратегическими точками уязвимости для всех цифровых технологий. Из-за особенностей технологии 5G даже масштабные меры по снижению безопасности не могут защитить конфиденциальные данные и сетевые функции от поставщиков по указанию китайских служб безопасности.8 Защита этих сетей не представляет никакой сложности и оправдывает экономические и политические издержки. И эти затраты ограничены, потому что 5G — это небольшая группа легко идентифицируемых технологий.

Напротив, искусственный интеллект — это совокупность технологий и приемчиков, встроенных в тысячи приложений, продуктов и сервисов, поэтому задача состоит в том, чтобы определить, где в спектре между угрозой национальной безопасности и моральной паникой находится каждый из этих продуктов. А затем выбирайте бои, которые действительно важны.

Настоящий отчет разбит на шесть разделов. В первом разделе подчеркивается наша зависимость от продуктов и услуг с поддержкой искусственного интеллекта. Во втором рассматриваются усилия Китая по экспорту продуктов и услуг с поддержкой искусственного интеллекта и продвижению своей модели авторитаризма с поддержкой цифровых технологий в условиях конкуренции с США и нормами и ценностями демократии. В этом разделе также рассматриваются законы КНР, обязывающие к сотрудничеству технический сектор, и объясняется природа угрозы, приводя три примера китайских продуктов с поддержкой искусственного интеллекта, вызывающих потенциальную озабоченность. Это также объясняет, почему Индия особенно уязвима перед этой угрозой. В третьем разделе отчета рассматриваются два ключевых демократических ответа на вызов ИИ: с одной стороны, усилия США по противодействию как разработке Китаем передовых технологий ИИ, так и угрозе со стороны китайских технологий, уже присутствующих в цифровой экосистеме США; с другой стороны, проект постановления ЕС о защищать фундаментальные права граждан ЕС от пагубного воздействия искусственного интеллекта. В четвертом разделе отчета предлагается структура для сортировки и управления рисками, связанными с авторитарными китайскими продуктами и услугами с поддержкой искусственного интеллекта, встроенными в демократические цифровые экосистемы. В заключительном разделе признаются дополнительные усилия по смягчению угрозы КНР цифровым экосистемам демократических стран.

Полный отчет. For the full report, please download here.

Источник: https://www.aspi.org.au/report/de-risking-authoritarian-ai

Author

SimeonGilding_bio
Simeon Gilding, Senior Fellow

Acknowledgements

ASPI acknowledges the Ngunnawal and Ngambri peoples, who are the traditional owners and custodians of the land upon which this work was prepared, and their continuing connection to land, waters and community. We pay our respects to their cultures, country and elders past, present and emerging.

The author would like to thank all ASPI staff who reviewed the work and supported this project, in particular Danielle Cave, Vahri Fotheringham and Alex Caples. He would also like to thank his external reviewers.

What is ASPI?

The Australian Strategic Policy Institute was formed in 2001 as an independent, non‑partisan think tank. Its core aim is to provide the Australian Government with fresh ideas on Australia’s defence, security and strategic policy choices. ASPI is responsible for informing the public on a range of strategic issues, generating new thinking for government and harnessing strategic thinking internationally. ASPI’s sources of funding are identified in our annual report, online at www.aspi.org.au and in the acknowledgements section of individual publications. ASPI remains independent in the content of the research and in all editorial judgements.

ASPI Cyber, Technology & Security

ASPI’s Cyber, Technology & Security (CTS) analysts aim to inform and influence policy debates in the Indo-Pacific through original, rigorous and data-driven research. CTS remains a leading voice in global debates on cyber, emerging and critical technologies, foreign interference and issues related to information operations and disinformation. CTS has a growing mixture of expertise and skills with teams of researchers who concentrate on policy, technical analysis, information operations and disinformation, critical and emerging technologies, cyber capacity building and Internet safety, satellite analysis, surveillance and China-related issues. To develop capability in Australia and across the Indo-Pacific region, CTS has a capacity building team that conducts workshops, training programs and large-scale exercises for the public, private and civil society sectors. Current projects are focusing on capacity building in Southeast Asia and the Pacific Islands region, across a wide range of topics. CTS enriches regional debate by collaborating with civil society groups from around the world and by bringing leading global experts to Australia through our international fellowship program. We thank all of those who support and contribute to CTS with their time, intellect and passion for the topics we work on. If you would like to support the work of the CTS, contact: ctspartnerships@aspi.org.au.

Important disclaimer

Important disclaimer This publication is designed to provide accurate and authoritative information in relation to the subject matter covered. It is provided with the understanding that the publisher is not engaged in rendering any form of professional or other advice or services.

© The Australian Strategic Policy Institute Limited 2023

First published July 2023.

Cover image: iStockphoto.com/Tanaonte.

Funding. No specific sponsorship was received to fund production of this report.

Признание

ASPI признает народы нгуннавал и нгамбри, которые являются традиционными владельцами и хранителями земли, на которой была подготовлена эта работа, и их постоянную связь с землей, водами и сообществом. Мы отдаем дань уважения их культурам, стране и старейшинам прошлого, настоящего и зарождающегося.

Автор хотел бы поблагодарить всех сотрудников ASPI, которые ознакомились с работой и поддержали этот проект, в частности Даниэль Кейв, Вахри Фотерингем и Алекса Кэплса. Он также хотел бы поблагодарить своих внешних рецензентов.
Что такое ASPI?

Австралийский институт стратегической политики был создан в 2001 году как независимый, беспартийный аналитический центр. Его основная цель состоит в том, чтобы предоставить австралийскому правительству свежие идеи по вопросам обороны, безопасности и стратегической политики Австралии. ASPI отвечает за информирование общественности по целому ряду стратегических вопросов, выработку нового мышления для правительства и использование стратегического мышления на международном уровне. Источники финансирования ASPI указаны в нашем годовом отчете, размещенном онлайн по адресу www.aspi.org.au и в разделе «Благодарности» отдельных публикаций. ASPI остается независимым в содержании исследования и во всех редакционных суждениях.
ASPI Кибер, технологии и безопасность

Аналитики ASPI по кибербезопасности, технологиям и безопасности (CTS) стремятся информировать и влиять на политические дебаты в Индо-Тихоокеанском регионе посредством оригинальных, тщательных исследований, основанных на данных. CTS остается ведущим голосом в глобальных дебатах по кибербезопасности, новым и критически важным технологиям, иностранному вмешательству и вопросам, связанным с информационными операциями и дезинформацией. CTS обладает растущим набором знаний и навыков благодаря командам исследователей, которые концентрируются на политике, техническом анализе, информационных операциях и дезинформации, критических и новых технологиях, наращивании киберпотенциала и безопасности Интернета, спутниковом анализе, слежке и вопросах, связанных с Китаем. Для развития потенциала в Австралии и во всем Индо-Тихоокеанском регионе у CTS есть команда по наращиванию потенциала, которая проводит семинары, учебные программы и крупномасштабные учения для государственного, частного секторов и гражданского общества. Текущие проекты сосредоточены на наращивании потенциала в Юго-Восточной Азии и регионе Тихоокеанских островов по широкому спектру тем. CTS обогащает региональные дебаты, сотрудничая с группами гражданского общества со всего мира и привлекая ведущих мировых экспертов в Австралию в рамках нашей международной программы стипендий. Мы благодарим всех тех, кто поддерживает CTS и вносит свой вклад своим временем, интеллектом и страстью к темам, над которыми мы работаем. Если вы хотите поддержать работу CTS, обращайтесь: ctspartnerships@aspi.org.au .
Важный отказ от ответственности

Важный отказ от ответственности Данная публикация предназначена для предоставления точной и авторитетной информации по рассматриваемому вопросу. Это делается при понимании того, что издатель не занимается предоставлением каких-либо профессиональных или иных консультаций или услуг.

© Австралийский институт стратегической политики, 2023