Искусственный сверхинтеллект (ИСИ): научно-фантастический бред или реальная угроза человечеству?

Наши нынешние системы искусственного интеллекта могут однажды эволюционировать в сверхразумное существо, но ученые пока не уверены, как это может выглядеть и каковы будут последствия.

Искусственный сверхинтеллект (ИСИ): научно-фантастический бред или реальная угроза человечеству?
(Изображение предоставлено: Юичиро Чино/Getty Images)

автор: Эдд Гент

Быстрый прогресс в области искусственного интеллекта (ИИ) заставляет людей задаваться вопросом о фундаментальных ограничениях этой технологии. Все чаще тема, которая когда-то считалась научной фантастикой — идея сверхразумного ИИ — теперь серьезно рассматривается учеными и экспертами. Идея о том, что машины когда-нибудь смогут сравниться с человеческим интеллектом или даже превзойти его, имеет долгую историю. Но темпы прогресса в области ИИ за последние десятилетия придали этой теме новую актуальность, особенно после выпуска мощных больших языковых моделей (LLM) такими компаниями, как OpenAI, Google и Anthropic, среди прочих.

Эксперты имеют совершенно разные мнения о том, насколько осуществима эта идея «искусственного суперинтеллекта» (ИСИ) и когда он может появиться, но некоторые предполагают, что такие сверхспособные машины уже не за горами. Не вызывает сомнений то, что если и когда ИСИ действительно появится, это будет иметь колоссальные последствия для будущего человечества.

«Я считаю, что мы вступим в новую эру автоматизированных научных открытий, значительно ускоренного экономического роста, долголетия и новых развлекательных впечатлений», — сказал Тим Роктешель , профессор ИИ в Университетском колледже Лондона и главный научный сотрудник Google DeepMind, в интервью Live Science, представив личное мнение, а не официальную позицию Google DeepMind. Однако он также предупредил: «Как и в случае с любой значимой технологией в истории, существует потенциальный риск».

Что такое искусственный сверхинтеллект (ИСИ)?

Традиционно исследования ИИ были сосредоточены на воспроизведении определенных возможностей, которые демонстрируют разумные существа. К ним относятся такие вещи, как способность визуально анализировать сцену, анализировать язык или ориентироваться в окружающей среде. В некоторых из этих узких областей ИИ уже достиг сверхчеловеческой производительности, сказал Роктешель, особенно в таких играх, как го и шахматы . Однако целью этой области всегда было воспроизвести более общую форму интеллекта, наблюдаемую у животных и людей, которая объединяет множество таких возможностей. Эта концепция за эти годы сменила несколько названий, включая «сильный ИИ» или «универсальный ИИ», но сегодня ее чаще всего называют общим искусственным интеллектом (AGI).

«Долгое время AGI был далекой полярной звездой для исследований ИИ», — сказал Роктешель. «Однако с появлением базовых моделей [еще один термин для LLM] у нас теперь есть ИИ, который может сдавать широкий спектр вступительных экзаменов в университеты и участвовать в международных соревнованиях по математике и кодированию». Это заставляет людей более серьезно относиться к возможности AGI, сказал Роктешель. И что самое важное, как только мы создадим ИИ, который будет соответствовать людям в широком спектре задач, может пройти совсем немного времени, прежде чем он достигнет сверхчеловеческих возможностей по всем направлениям. Такова идея, во всяком случае. «Как только ИИ достигнет возможностей человеческого уровня, мы сможем использовать его для самосовершенствования», — сказал Роктешель. «Я лично считаю, что если мы сможем достичь AGI, мы вскоре достигнем и ASI, может быть, через несколько лет».

Чемпион мира по шахматам Гарри Каспаров смотрит на шахматную доску перед следующим ходом в начале пятой партии против компьютера IBM Deep Blue 10 мая 1997 года в Нью-Йорке.
IBM Deep Blue стала первой системой искусственного интеллекта, победившей действующего чемпиона мира по шахматам (Гарри Каспарова, на фото) в 1997 году.
(Изображение предоставлено: STAN HONDA/AFP через Getty Images)

Как только эта веха будет достигнута, мы сможем увидеть то, что британский математик Ирвинг Джон Гуд в 1965 году назвал « взрывом интеллекта ». Он утверждал, что как только машины станут достаточно умными, чтобы совершенствовать себя, они быстро достигнут уровней интеллекта, намного превосходящих уровень интеллекта человека. Он описал первую сверхразумную машину как «последнее изобретение, которое когда-либо нужно будет сделать человеку».

Известный футуролог Рэй Курцвейл утверждал, что это приведет к «технологической сингулярности», которая внезапно и необратимо преобразит человеческую цивилизацию. Термин проводит параллели с сингулярностью в сердце черной дыры, где наше понимание физики рушится. Точно так же появление ИСИ приведет к быстрому и непредсказуемому технологическому росту, который будет за пределами нашего понимания. Точное время такого перехода является спорным. В 2005 году Курцвейл предсказал, что AGI появится к 2029 году, а сингулярность последует в 2045 году, и с тех пор он придерживается этого прогноза. Другие эксперты по ИИ предлагают сильно различающиеся прогнозы — от «в пределах этого десятилетия» до «никогда» . Но недавний опрос 2778 исследователей ИИ показал, что в целом они считают, что вероятность появления ASI к 2047 году составляет 50%. Более широкий анализ подтвердил, что большинство ученых согласны с тем, что AGI может появиться к 2040 году.

Что будет означать ИСИ для человечества?

Последствия внедрения такой технологии, как ИСИ, были бы колоссальными, что побудило бы ученых и философов посвятить немало времени составлению карты перспектив и потенциальных опасностей для человечества. С положительной стороны, машина с почти неограниченной способностью к интеллекту могла бы решить некоторые из самых насущных мировых проблем, сказал Дэниел Халм , генеральный директор компаний ИИ Satalia и Conscium . В частности, суперинтеллектуальные машины могли бы «устранить трение в создании и распространении продуктов питания, образования, здравоохранения, энергии, транспорта настолько, что мы могли бы свести стоимость этих товаров к нулю», сказал он Live Science. Надежда в том, что это освободит людей от необходимости работать, чтобы выжить, и они смогут вместо этого тратить время на то, что им по душе, объяснил Халм. Но если не будут созданы системы для поддержки тех, чьи рабочие места будут сокращены из-за ИИ, результат может быть более мрачным. «Если это произойдет очень быстро, наши экономики, возможно, не смогут восстановить равновесие, и это может привести к социальным волнениям», — сказал он.

Это также предполагает, что мы могли бы контролировать и направлять сущность, намного более разумную, чем мы — что, по мнению многих экспертов, маловероятно. «Я не очень поддерживаю эту идею, что она будет следить за нами, заботиться о нас и делать так, чтобы мы были счастливы», — сказал Хьюм. «Я просто не могу себе представить, что ее это будет волновать».

Возможность сверхразума, над которым мы не имеем контроля, породила опасения, что ИИ может представлять экзистенциальный риск для нашего вида . Это стало популярным тропом в научной фантастике, в таких фильмах, как «Терминатор» или «Матрица», изображающих злобные машины, одержимые уничтожением человечества.

Но философ Ник Бостром подчеркнул, что ИСИ даже не обязательно должно быть активно враждебным по отношению к людям, чтобы разыгрались различные сценарии конца света. В статье 2012 года он предположил, что интеллект сущности независим от ее целей, поэтому ИСИ может иметь мотивы, которые нам совершенно чужды и не соответствуют человеческому благополучию.

Ник Бостром Философ Института будущего человечества в Оксфорде
Ник Бострум (на фото) философствовал о последствиях ИСИ в знаменательной статье 2012 года.(Изображение предоставлено: Фото Тома Пилстона для The Washington Post через Getty Images)

Бостром конкретизировал эту идею с помощью мысленного эксперимента, в котором сверхспособный ИИ получает, казалось бы, безобидную задачу — произвести как можно больше скрепок. Если он не соответствует человеческим ценностям, он может решить уничтожить всех людей, чтобы они не смогли его выключить, или превратить все атомы в их телах в еще больше скрепок. Роктешель настроен более оптимистично. «Мы создаем современные системы ИИ, которые должны быть полезными, но также безвредными и честными помощниками по замыслу», — сказал он. «Они настроены на выполнение человеческих инструкций и обучены на основе обратной связи давать полезные, безвредные и честные ответы». Хотя Роктешель признал, что эти меры предосторожности можно обойти, он уверен, что в будущем мы разработаем лучшие подходы. Он также считает, что можно будет использовать ИИ для надзора за другими ИИ, даже если они сильнее.

Хьюм сказал, что большинство современных подходов к «выравниванию модели» — попытки обеспечить соответствие ИИ человеческим ценностям и желаниям — слишком грубы. Обычно они либо предоставляют правила того, как должна себя вести модель, либо обучают ее на примерах человеческого поведения. Но он считает, что эти ограждения, которые прикручиваются в конце процесса обучения, могут быть легко преодолены ИСИ.

Вместо этого, считает Хьюм, мы должны создать ИИ с «моральным инстинктом». Его компания Conscium пытается сделать это, развивая ИИ в виртуальных средах, которые были спроектированы для поощрения такого поведения, как сотрудничество и альтруизм. В настоящее время они работают с очень простым ИИ «на уровне насекомых», но если подход можно будет масштабировать, он может сделать согласованность более надежной. «Внедрение морали в инстинкт ИИ ставит нас в гораздо более безопасное положение, чем просто наличие этих ограждений типа «Убей крота», — сказал Хьюм. Однако не все убеждены, что нам нужно начинать беспокоиться уже сейчас. Одна из распространенных критических замечаний в адрес концепции ASI, сказал Роктешель, заключается в том, что у нас нет примеров людей, которые были бы очень способны выполнять широкий спектр задач, поэтому, возможно, этого также невозможно достичь в одной модели. Другое возражение заключается в том, что чистые вычислительные ресурсы, необходимые для достижения ASI, могут быть непомерно высокими. Более практично, то, как мы измеряем прогресс в ИИ, может вводить нас в заблуждение относительно того, насколько мы близки к сверхразуму, сказал Александр Илич , руководитель Центра ИИ ETH в Швейцарской высшей технической школе Цюриха, Швейцария. Большинство впечатляющих результатов в области ИИ за последние годы были получены в результате тестирования систем на нескольких крайне надуманных тестах индивидуальных навыков, таких как кодирование, рассуждение или понимание языка, которые системы явно обучены проходить, сказал Илич. Он сравнивает это с зубрежкой перед экзаменами в школе. «Вы нагружаете свой мозг, чтобы сделать это, затем пишете тест, а затем вы забываете о нем», — говорит он. «Вы были умнее, посещая занятия, но сам по себе тест не является хорошим показателем реальных знаний».

ИИ, способный пройти многие из этих тестов на сверхчеловеческом уровне, может появиться всего через несколько лет, сказал Илич. Но он считает, что доминирующий подход сегодня не приведет к моделям, которые смогут выполнять полезные задачи в физическом мире или эффективно сотрудничать с людьми, что будет иметь решающее значение для того, чтобы они имели широкое влияние в реальном мире.

Эдд ГентУчастник Live Science — британский внештатный научный писатель, ныне живущий в Индии. Его основные интересы — это более странные области компьютерных наук, инженерии, биологических наук и научной политики. Эдд имеет степень бакалавра искусств в области политики и международных отношений и является старшим репортером, имеющим квалификацию NCTJ. В свободное время он любит заниматься скалолазанием и исследовать свой новый дом.

источник: https://www.livescience.com/technology/artificial-intelligence/what-is-artificial-superintelligence-asi?utm_term=B035CE4F-897C-4930-B5BD-2E7D461EAC3A&lrh=58608d6f0030a5c9ab6d899bb80e2f00477cb97c113e3a9946933c1b5399377a&utm_campaign=368B3745-DDE0-4A69-A2E8-62503D85375D&utm_medium=email&utm_content=E6D51B74-0188-45A2-87CE-CBD3EE67FBAE&utm_source=SmartBrief