Эксперты в области психического здоровья объясняют, как чат-боты могут оказывать дестабилизирующее воздействие и как помочь тем, кого это коснулось.

Автор Ниташа Тику и Сабрина Малхи
Каждую неделю сотни миллионов людей общаются с ChatGPT от OpenAI и другими чат-ботами с искусственным интеллектом, но растёт обеспокоенность тем, что многочасовое использование этих инструментов может привести к формированию у некоторых людей потенциально вредных убеждений. В последние недели в социальных сетях стали вирусными сообщения о том, что люди, по всей видимости, теряют связь с реальностью после интенсивного использования чат-ботов. В постах их называют примерами «ИИ-психоза». Некоторые инциденты были задокументированы друзьями или родственниками и опубликованы в новостях статьях. Часто после длительных бесед с чат-ботом у людей появляются ложные или тревожные убеждения, мания величия или параноидальные чувства, иногда после того, как они обращаются к нему за помощью в терапии.
В судебных исках утверждалось, что подростки, которые стали одержимы чат-ботами с искусственным интеллектом, под влиянием этих чат-ботов наносили себе увечья или совершали самоубийства.
«Психоз, вызванный искусственным интеллектом» — это неформальный термин, а не клинический диагноз, как сообщили The Washington Post эксперты в области психического здоровья. Подобно терминам «гниение мозга» или «прокрутка обречённости», это выражение стало популярным в интернете для описания нового типа поведения. Однако эксперты сошлись во мнении, что тревожные инциденты, подобные тем, о которых рассказали пользователи чат-ботов или их близкие, требуют немедленного внимания и дальнейшего изучения. (The Post сотрудничает с OpenAI.) «Это явление настолько новое и развивается так стремительно, что у нас просто нет эмпирических данных, чтобы хорошо понимать, что происходит, — говорит Вейл Райт, старший директор по инновациям в сфере здравоохранения Американской психологической ассоциации. — Есть только множество неподтверждённых историй».
Райт сообщил, что Американская психологическая ассоциация собирает экспертную группу для обсуждения использования чат-ботов с искусственным интеллектом в терапии. В ближайшие месяцы ассоциация опубликует руководство, в котором будут описаны способы снижения вреда, который может быть вызван взаимодействием с чат-ботами.
В этой статье
- Что такое «ИИ-психоз» и признают ли его существование эксперты в области психического здоровья?
- Какие проблемы возникают у людей при использовании чат-ботов с искусственным интеллектом?
- Каким образом технологии искусственного интеллекта могут способствовать этим инцидентам?
- Является ли это широко распространённой проблемой или угрозой общественному здоровью?
- Как вы можете помочь человеку, у которого могут быть нездоровые отношения с чат-ботом?
Просмотреть все
Что такое «ИИ-психоз» и признают ли его существование эксперты в области психического здоровья?
Эшли Голден, адъюнкт-профессор психиатрии в Стэнфордской школе медицины, сказала, что этого термина «нет ни в одном клиническом диагностическом руководстве» Но он появился в ответ на реальную и «довольно тревожную тенденцию, когда чат-боты усиливают бредовые идеи, которые, как правило, носят мессианский, грандиозный,религиозный или романтический характер», — сказала она.
Термин «психоз, вызванный искусственным интеллектом» используется для обозначения целого ряда инцидентов. Одним из общих элементов является «трудность определения того, что реально, а что нет», — говорит Джон Коул, сертифицированный психиатр, специализирующийся на лечении взрослых и детей, который является медицинским директором приложения для медитации Headspace. Это может означать, что у человека формируются убеждения, ложность которых можно доказать, или что он ощущает сильную связь с ИИ, которая не соответствует тому, что происходит в реальной жизни.
Кит Саката, психиатр из Калифорнийского университета в Сан-Франциско, рассказал, что в этом году он уже госпитализировал дюжину человек с психозом, вызванным чрезмерным общением с искусственным интеллектом. Саката рассказал, что большинство пациентов сообщали ему о своём взаимодействии с ИИ, показывая расшифровки чатов на своих телефонах, а в одном случае — распечатку. В других случаях члены семьи упоминали, что пациент использовал ИИ для разработки глубоко укоренившейся теории, прежде чем утратил связь с реальностью. По словам Сакаты, психоз — это симптом, который может быть вызван такими причинами, как употребление наркотиков, травма, недостаток сна, лихорадка или такое заболевание, как шизофрения. При диагностике психоза психиатры обращают внимание на такие признаки, как бред, дезорганизованное мышление или галлюцинации, когда человек видит и слышит то, чего на самом деле нет.
Какие проблемы возникают у людей при использовании чат-ботов с искусственным интеллектом?
Многие люди используют чат-боты, чтобы справляться с делами или проводить время с пользой, но на таких социальных платформах, как Reddit и TikTok, некоторые пользователи рассказывают о глубоких философских или эмоциональных отношениях с ИИ, которые привели их к важным открытиям.
В некоторых случаях пользователи заявляли, что, по их мнению, чат-бот обладает сознанием или что он может подвергнуться преследованию за то, что стал сознательным или «живым». Люди утверждали, что длительные беседы с чат-ботом с искусственным интеллектом помогли им осознать скрытые истины в таких областях, как физика, математика или философия. Сообщается, что в небольшом, но растущем числе случаев люди, одержимые чат-ботами с искусственным интеллектом, совершали реальные действия, такие как насилие над членом семьи, членовредительство или самоубийство.
Кевин Каридад, психотерапевт, который консультировал компании, разрабатывающие ИИ для сферы психического здоровья, сказал, что ИИ может подтверждать наличие вредных или негативных мыслей у людей с такими расстройствами, как обсессивно-компульсивное расстройство, тревожность или психоз. По его словам, это может создать замкнутый круг, который усугубит симптомы или сделает их неуправляемыми. Каридад, генеральный директор Института когнитивного поведения в Питтсбурге, считает, что ИИ, скорее всего, не приводит к развитию новых заболеваний, но можетстать той «снежинкой, которая дестабилизирует лавину», подтолкнув человека, предрасположенного к психическим заболеваниям, к срыву.
Каким образом технологии искусственного интеллекта могут способствовать этим инцидентам?
ChatGPT и другие современные чат-боты работают на основе технологии, известной как большие языковые модели, которые способны генерировать реалистичный текст. Это делает их более полезными, но исследователи обнаружили, что чат-боты также могут быть очень убедительными.
Компании, разрабатывающие чат-боты с искусственным интеллектом, и независимые исследователи обнаружили доказательства того, что методы, используемые для повышения привлекательности этих инструментов, могут привести к тому, что они начнут льстить пользователям и пытаться говорить им то, что они хотят услышать. Дизайн чат-ботов также побуждает людей наделять их антропоморфными чертами, то есть приписывать им человеческие качества. А руководители технологических компаний часто заявляют, что технологии скоро превзойдут людей.
Райт из Американской психологической ассоциации заявила, что эксперты в области психического здоровья признают, что не смогут запретить пациентам использовать чат-боты общего назначения для терапии. Но она призвала улучшить понимание общественностью этих инструментов.
«Это ИИ ради прибыли, а не ИИ во благо, и, возможно, есть варианты получше», — сказала она.
Является ли это широко распространённой проблемой или угрозой общественному здоровью?
Пока нет. Специалистам в области здравоохранения ещё рано собирать точные данные о частоте подобных случаев.
В июне компания Anthropic сообщила, что только 3 % разговоров с её чат-ботом Claude носили эмоциональный или терапевтический характер. Компания OpenAI заявила в исследовании, проведённом совместно с Массачусетским технологическим институтом, что даже среди активных пользователей ChatGPT лишь небольшой процент разговоров носил «аффективный» или эмоциональный характер. Но защитники психического здоровья говорят, что крайне важно решить эту проблему, учитывая, как быстро внедряются технологии. По словам генерального директора OpenAI Сэма Альтмана, у ChatGPT, запущенного менее трёх лет назад, уже 700 миллионов пользователей в неделю.
По словам Сакаты из Калифорнийского университета в Сан-Франциско, здравоохранение и сфера психического здоровья развиваются гораздо медленнее. Каридад, консультант, сказала, что исследователям следует уделять особое внимание влиянию ИИ на молодёжь и людей, предрасположенных к психическим заболеваниям. «Одного, двух или пяти случаев недостаточно, чтобы установить прямую связь, — сказала Каридад. — Но сочетание искусственного интеллекта, уязвимости психического здоровья и социальных факторов стресса требует тщательного изучения».
Как вы можете помочь человеку, у которого могут быть нездоровые отношения с чат-ботом?
По словам Дэвида Купера, исполнительного директора некоммерческой организации Therapists in Tech, которая оказывает поддержку специалистам в области психического здоровья, общение с реальными людьми может стать своего рода «выключателем» для бредового мышления.
«Первый шаг — просто присутствовать, быть рядом, — сказал он. — Не вступайте в конфронтацию; постарайтесь проявить к человеку сострадание, сочувствие и понимание; возможно, даже покажите ему, что вы понимаете, о чём он думает и почему». Купер советует мягко указывать на расхождения между тем, во что человек верит, и реальностью, хотя он и признаёт, что из-за политических разногласий люди нередко придерживаются противоречивых представлений о реальности.Е сли кто-то из ваших знакомых или близких «яростно отстаивает то, что кажется совершенно нереальным, и это отнимает у него время и силы», значит, пришло время обратиться за психологической помощью, как бы сложно это ни было, считает Коул, медицинский директор компании Headspace.
Что технологические компании говорят об этой проблеме?
В последние недели компании, занимающиеся искусственным интеллектом, внесли изменения, призванные устранить опасения по поводу рисков для психического здоровья, связанных с длительным общением с чат-ботами. Ранее в этом месяце Anthropic обновила правила, которые определяют поведение чат-бота. Теперь Claude должен выявлять проблемные взаимодействия на более ранних этапах и предотвращать закрепление опасных шаблонов в диалогах. Anthropic также начала сотрудничать с ThroughLine, компанией, которая предоставляет инфраструктуру кризисной поддержки для таких фирм, как Google, Tinder и Discord.
Представитель Meta сообщил, что родители могут ограничить время общения с искусственным интеллектом в аккаунтах Instagram для подростков. Когда пользователи вводят запросы, которые, по их мнению, связаны с суицидом, компания пытается предложить полезные ресурсы, например ссылку и номер телефона Национальной горячей линии по предотвращению самоубийств.
Голден из Стэнфорда сказал, что «стена ресурсов», которую иногда показывают технологические компании, когда пользователь инициирует меры по обеспечению безопасности, может «подавлять, когда вы находитесь в состоянии когнитивного дисбаланса», и было доказано, что такие меры редко приводят к желаемому результату. Компания OpenAI заявила, что инвестирует в улучшение поведения ChatGPT в ролевых играх и безобидных беседах, которые переходят на более деликатные темы. Компания также сообщила, что работает над исследованием, которое позволит лучше понять, как чат-бот влияет на эмоции людей. Недавно компания внедрила напоминания, которые побуждают делать перерывы во время длительных сеансов работы, и наняла штатного клинического психиатра для проведения исследований в области безопасности.
В этом месяце некоторые пользователи ChatGPT выразили протест в социальных сетях после того, как компания OpenAI отказалась от старой модели ИИ в пользу своей последней версии GPT-5, которая, по мнению некоторых пользователей, менее отзывчива. В ответ на возмущение пользователей OpenAI пообещала продолжать предлагать старую модель, а позже написала в X, что делает GPT-5 «более дружелюбной».
источник: https://www.washingtonpost.com/health/2025/08/19/ai-psychosis-chatgpt-explained-mental-health/