Боты с искусственным интеллектом, такие как ChatGPT, подвергаются цензуре, но я думаю, что это правильно.

Автор: Кристиан Гайтон

Michelangelo's 'David' head bust, with a piece of yellow tape covering the mouth.
(Image credit: Shutterstock)

Oh, ChatGPT — как мы тебя любим/ненавидим. Каким бы ни было ваше мнение о любимом чат-боте Интернета, нельзя отрицать, что он быстро внедряется в нашу цифровую жизнь; от помощи в написании текстов до поиска дома вашей мечты на Zillow, ChatGPT теперь повсюду.

Но как вы удерживаете искусственный интеллект в узде? В конце концов, мы уже видели чат-ботов, вызывающих множество проблем. Microsoft пришлось обуздать свой искусственный интеллект Bing вскоре после релиза, потому что чат-бот лгал и устраивал истерики, искусственный интеллект агрессивно используется для цифрового мошенничества, и мне лично удалось заставить ChatGPT превозносить свою любовь к поеданию человеческих младенцев. Хлоп.

Так вот, я не виню здесь чат-ботов. Я даже на самом деле не виню людей, которые их делают. Как сказал наш уважаемый главный редактор Лэнс Уланофф, “Я не живу в страхе перед искусственным интеллектом. Вместо этого я боюсь людей и того, что они будут делать с чат-ботами” — в конечном счете, именно люди, владеющие этой мощной новой технологией, создадут реальные проблемы для других людей.

Однако это не означает, что компании, занимающиеся искусственным интеллектом, не несут общественных обязательств по обеспечению безопасности использования своих чат-ботов. Учитывая, что злодеи используют инструменты искусственного интеллекта для всего, от мошенничества до порнографии из мести, я был безмерно разочарован, увидев, что Microsoft уволила всю свою команду по этике искусственного интеллекта ранее в этом году.

Как пионер в области искусственного интеллекта, стремящийся к ИИ во многих отношениях, Microsoft должна добиваться большего успеха. Однако, согласно новому заявлению технологического гиганта, компания применяет новый подход к этике искусственного интеллекта.

https://cdn.mos.cms.futurecdn.net/5sziDD4sApwwH6hC2zhzQk-970-80.jpg.webp
ChatGPT is facing down regulation in the EU and US after a wave of controversies. (Image credit: Ascannio via Shutterstock)/ChatGPT сталкивается с ужесточением регулирования в ЕС и США после волны противоречий. ((Фото предоставлено Асканио через Shutterstock)

Поддержание этичности ИИ требует множества рук

В сообщении в блоге (открывается в новой вкладке) «Главный ответственный сотрудник Microsoft по ИИ» Наташа Крэмптон подробно описала новый план компании: по сути, распределить ответственность за этику ИИ по всему бизнесу, а не поручать отдельной команде следить за этим.

Ожидается, что старшие сотрудники возьмут на себя обязательство “возглавлять ответственный ИИ в каждой основной бизнес-группе”, а “чемпионы по ИИ” будут работать в каждом отделе. Идея заключается в том, что каждый сотрудник Microsoft должен регулярно контактировать с ответственными специалистами по искусственному интеллекту, создавая среду, в которой каждый понимает, каких правил должен придерживаться искусственный интеллект.

https://cdn.mos.cms.futurecdn.net/jAFGePfApLHmscYxEm8cF5-970-80.jpg.webp
Microsoft says its The Responsible AI Standard is «grounded in our core principles». (Image credit: Microsoft)/Microsoft заявляет, что ее стандарт ответственного искусственного интеллекта «основан на наших основных принципах». (Изображение предоставлено Microsoft)

Крэмптон обсуждает «практические рекомендации» по ИИ и ссылается на «Стандарт ответственного ИИ» Microsoft (открывается в новой вкладке), официальный свод правил компании по созданию систем ИИ с учетом безопасности и этики. Все это очень серьезный бизнес, явно созданный для того, чтобы возместить часть репутационного ущерба, нанесенного неудачным стартом Bing AI.

Но сработает ли это? Об этом трудно судить; убедиться, что вся компания понимает риски, связанные с безответственным использованием искусственного интеллекта, — хорошее начало, но я не уверен, что этого достаточно. Крэмптон отмечает, что несколько членов расформированной команды по этике были “внедрены” в исследовательские и проектные группы пользователей, чтобы сохранить их опыт под рукой, что приятно видеть.

Цензура, но на этот раз все действительно хорошо (я обещаю)

Конечно, есть совершенно другой способ, которым можно было бы воспользоваться, чтобы гарантировать, что ИИ не используются в неблаговидных целях, — цензура.

Как я знаю из исследований из первых рук, в ChatGPT (и большинстве других чат-ботов) действуют довольно строгие протоколы защиты. Вы не сможете заставить его предложить вам сделать что-то потенциально вредное или преступное, и он будет упорно отказываться создавать сексуальный контент. Вы можете обойти эти барьеры с помощью правильного ноу-хау, но, по крайней мере, они есть.

https://cdn.mos.cms.futurecdn.net/BgzmJzUARSr2CW65TvFX7e-970-80.jpg.webp
Nvidia CEO Jensen Huang, shown here as an adorable toy figurine, is very pro-AI. (Image credit: Nvidia)/Генеральный директор Nvidia Дженсен Хуан, изображенный здесь в виде очаровательной игрушечной фигурки, большойь сторонник искусственного интеллекта. (Изображение предоставлено Nvidia)

Недавно Nvidia представила новое программное обеспечение для обеспечения безопасности искусственного интеллекта под названием NeMo Guardrails, в котором используется трехсторонний подход к предотвращению сбоев в работе программ машинного обучения. Подводя краткий итог, можно сказать, что эти «ограждения» разбиты на три области: охрана, безопасность и актуальность. Защитные ограждения предотвращают доступ бота к материалам на вашем компьютере, к которым он не должен иметь доступа, в то время как защитные ограждения работают над устранением дезинформации путем проверки цитат искусственного интеллекта в режиме реального времени.

Однако наиболее интересными из трех являются актуальные ограждения. Как следует из названия, они определяют, какие темы чат-бот может использовать при ответе пользователю, что в первую очередь помогает боту оставаться в теме и предотвращать несвязанные касательные. Однако они также позволяют устанавливать ‘запрещенные’ темы.
Проблема с актуальными ограждениями

С помощью таких инструментов, как NeMo, компании могут эффективно запретить ИИ обсуждать целую тему в любом качестве. Очевидно, что Nvidia очень доверяет программному обеспечению, распространяя его среди бизнес-пользователей, поэтому мы можем предположить, что оно работает, по крайней мере, достаточно хорошо — что, честно говоря, могло бы быть здорово!

Если мы сможем жестко запрограммировать ограждения в общедоступных моделях искусственного интеллекта, которые не позволят им работать на мошенников или производить незаконный порнографический контент, это хорошо. Всем, кто не согласен, я говорю следующее: ChatGPT легко доступен для детей. Если вы считаете, что буквальные дети должны подвергаться воздействию непристойностей, генерируемых искусственным интеллектом, я не хочу обсуждать с вами искусственный интеллект.

Однако существуют определенные проблемы с использованием такого рода цензуры в качестве инструмента для удержания в узде программного обеспечения на базе искусственного интеллекта. Как недавно сообщило агентство Bloomberg, альтернативы ChatGPT, появляющиеся в Китае, совершенно очевидно подвергаются цензуре со стороны государства, что делает их неспособными должным образом обсуждать запрещенные темы, считающиеся слишком политически спорными, такие как протесты на площади Тяньаньмэнь в 1989 году или независимое государство Тайвань.

Я не хочу здесь вдаваться в излишнюю политизацию, но я думаю, мы все можем согласиться с тем, что такого рода вещи во многом являются «плохим» видом цензуры. Онлайн-цензура в Китае, к сожалению, обычное дело, но представьте, если бы ChatGPT не разрешили говорить о смерти Джорджа Флойда или резне в Пеко, потому что политики сочли эти темы слишком «щекотливыми»? Глядя на текущее состояние мировых дел, это тревожно правдоподобное будущее.

Кто является хранителем ipsos custodes?

И снова мы возвращаемся к реальной проблеме с искусственным интеллектом: к нам. Кто охраняет ограждения? Со стороны Microsoft хорошо заявлять, что она продвигается вперед в реализации планов по соблюдению этики ИИ, но на самом деле Крэмптон имеет в виду, что ИИ технической фирмы будет придерживаться этики Microsoft, а не всего мира. В прошлом году Белый дом обнародовал «Билль о правах ИИ», и опять же, это представление администрации президента о том, как должна выглядеть этика ИИ, а не принятое демократическим путем.

Чтобы внести ясность, я на самом деле не говорю, что Microsoft — неэтичная компания, когда дело доходит до искусственного интеллекта. Я оставлю это Илону Маску и его нелепым планам «анти-пробужденных» чат-ботов. Но должно быть признание того факта, что любые правила, которым должен следовать искусственный интеллект, сначала должны быть выбраны и запрограммированы людьми.

В конечном счете, прозрачность — это главное. Искусственный интеллект уже начинает сталкиваться с серьезной негативной реакцией, поскольку он вторгается во все большую часть нашей жизни, будь то пользователи Snapchat, критикующие нового помощника по искусственному интеллекту в приложении, или ChatGPT, на которого подали в суд за клевету в Австралии. Даже Джеффри Хинтон, знаменитый «крестный отец искусственного интеллекта», предупреждал об опасностях, исходящих от искусственного интеллекта. Если они хотят избежать неприятностей, создатели чат-ботов должны действовать осторожно.

Я искренне надеюсь, что новый подход Microsoft (и такие инструменты, как guardrails от Nvidia) окажут положительное влияние на то, как мы безопасно и ответственно взаимодействуем с искусственным интеллектом. Но очевидно, что предстоит проделать еще много работы — и нам нужно критически относиться к тем, кто определяет правила, которым должны подчиняться ИИ.

Источник: https://www.techradar.com/opinion/ai-bots-like-chatgpt-are-being-censored-but-i-think-that-could-be-a-good-thing?utm_term=B035CE4F-897C-4930-B5BD-2E7D461EAC3A&utm_campaign=CAD172D8-A062-47A3-9762-76106DCF6967&utm_medium=email&utm_content=01D395D2-FA80-4BE3-B62B-B5F8AB56E220&utm_source=SmartBrief