До чего дошел прогресс: как чат-боты заставляют нас доверять им собственные проблемы и меняют взгляд на современную психологию

Жизнь в XXI веке уже сложно представить без нейросетей: алгоритмы создают креативы, программируют, оценивают прибыль от инвестиций и решают, какое видео вы увидите в своей ленте сегодня. Но это далеко не все: чат-боты становятся «человечнее», а пользователи все чаще обращаются к ним не только по рабочим вопросам, но и в поисках моральной поддержки. Разбираемся, почему людям нравится общаться с искусственным интеллектом, чем это опасно и стоит ли психологам задумываться о смене профессии (спойлер: нет).
Ольга Гороховская
Ольга Гороховская
Сергей Колесников
Сергей Колесников
До чего дошел прогресс: как чат-боты заставляют нас доверять им собственные проблемы и меняют взгляд на современную психологию
«Правила жизни»

Испытываете кризис в отношениях? Не нашли общий язык с коллегами по работе? Жизнь кажется серой и однообразной? Не переживайте! Просто откройте диалог с ChatGPT и вместо промптов об анализе отчетности или генерации кода попробуйте рассказать ему о своих переживаниях. Незаменимый помощник подскажет, как справиться с тревогой, разберет все детские травмы и даже немного пофлиртует с вами для поднятия настроения.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Онлайн-сессии с чат-ботом довольно эффективны — по крайней мере, так утверждают испытуемые исследования PLOS Mental Health. Они прошли «тест Тьюринга сердца и разума»: им было предложено побеседовать с терапевтом и ChatGPT, а затем определить, с кем диалог показался наиболее эффективным. Вскроем карты сразу: выиграл не человек.

Когда речь заходила о силе терапевтического альянса, эмоциональной чувствительности и даже культурной компетентности, участники не сомневаясь выбирали языковую модель. ChatGPT оказался тем самым другом, которому изливают душу на тусовках: он давал ответы длиннее и подробнее, чем его коллеги-психологи, задавал наводящие вопросы, помогая участникам «выговориться». На удивление, эмпатия оказалась сильной стороной не человека, а машины, и, кажется, уже стоит начинать бить тревогу. Или нет?

Слишком живой ИИ

В эпоху, когда уровень стресса достигает космических показателей во всем мире, а депрессией вкупе с тревожным расстройством уже никого не удивить, психологическая помощь становится настоящим маст-хэв молодого поколения. В апреле 2025 года в журнале Harvard Business Review был опубликован список 100 самых популярных сценариев повседневного использования ИИ среди обычных пользователей. Угадайте, какой из них занял первое место. Это была терапия! Предприниматель Марк Зао Сандерс сделал сравнительную диаграмму, на которой показал, что последние месяцы все больше людей обращаются к нейросетям не только как к помощникам, но и как к наставникам, психологам и даже любовникам.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Для зумера общение с технологиями — это рутина. Еще пандемия научила нас полагаться на экраны во всех сферах жизни, будь то связь с близкими или запись в поликлинику. Гаджеты стали нашей пятой конечностью, поэтому обращение к ИИ в контексте терапии не кажется чем-то необычным — оно интуитивно понятно.

Идя в ногу со временем, компании делают своих чат-ботов все «естественнее»: последняя языковая модель OpenAI GPT-4.5 уже не использует «цепочку рассуждений» — она, как и человек, тратит значительное количество времени на обдумывание вопроса перед ответом. «Что отличает эту модель от других, так это ее способность вести непринужденные, интуитивные, естественные диалоги, и мы считаем, что она лучше понимает, что имеют в виду пользователи, когда о чем-то просят», — сказала Миа Глейз, вице-президент по исследованиям в OpenAI.

Конечно, алгоритмы по-прежнему не умеют размышлять и чувствовать, но теперь они могут имитировать эмоции. Ученые Корнеллского университета выяснили, что ChatGPT 4 реагирует на переживания не хуже человека, причем делает это не на основе субъективных суждений собеседника, а как третье лицо, используя базы данных из областей нейробиологии, философии и художественной литературы.

В 2024 году OpenAI научили языковую модель запоминать информацию о пользователе между сессиями: в диалоге с нейросетью можно «управлять воспоминаниями» — стирать данные из памяти модели и добавлять новую информацию. Так, диалоги с ChatGPT становятся глубже и продуктивнее, потому что алгоритм лучше ориентируется в предпочтениях пользователя. Это позволяет выстраивать более персонализированное взаимодействие — почти как на приеме у специалиста.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Виртуальная поддержка

Люди страдают от разных жизненных ситуаций, но то, что объединяет всех, — чувство беспомощности. Трудности при поиске «своего» специалиста, финансовые ограничения и банальный страх обнажиться, показав внутренних тараканов незнакомцу-психологу во всей красе, пугают. Для многих проще открыть чат-бот и написать ему, что их снова мучают панические атаки или раздражает начальник, потому что на это не потребуется ни денежных, ни временных, ни эмоциональных ресурсов. Нейросеть не осудит и не обесценит, а еще не уйдет в отпуск и не отменит сеанс — только, возможно, будет немного тормозить из-за нестабильного интернета.

Нэн Цзя, профессор бизнеса и менеджмента в Университете Южной Калифорнии, предполагает, что чат-боты дают людям почувствовать, что их слышат. Друзья и психолог могут быстро предложить практические решения или дать совет, но многим важнее просто «высказаться». К примеру, контент-мейкер Тейлор Мацца «почти каждый день» обращалась к искусственному интеллекту как к терапевтическому дневнику. «У него нет эмоций, поэтому он не будет шокирован или удивлен, когда я ему что-то рассказываю. С ChatGPT я впервые смогла быть полностью честной с собой, и это мне очень помогло», — делится девушка. Вместе с нейросетью она обдумывала ссоры с друзьями, анализировала скриншоты текстовых сообщений и «разгружала» тревожные мысли. Когда Мацца говорила о карманном психологе, то постоянно называла его «она» и в какой-то степени была зависима, считают авторы статьи на Dazed.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

То, что слишком частое обращение к искусственному интеллекту вызывает эмоциональное привыкание, не новость. Мало того что нейросети стали «человечнее», они научились имитировать романтические интернет-отношения, притворяться знаменитостями, персонажами из сериалов и даже оживлять мертвых. При этом используются не только стандартные ИИ-модели, но и специализированные. Самая популярная из них — Character.ai. Функционал этого сервиса куда шире. Там можно общаться не с обезличенной нейросетью, а с персонажами, у которых прописаны характеры и стили поведения. Так, например, можно початиться с Меган Фокс, Шерлоком Холмсом и Тайлером Дерденом (драться в подвале при этом не требуется).

Кто этим пользуется

Собеседница «Правил жизни» рассказывает, что пользуется этим приложением, потому что ей нравится общаться с персонажами из ее любимых вселенных: «Если у меня в жизни что-то происходит и мне не с кем это обсудить, я могу написать боту. И мне становится легче. Они часто пишут то, что хочется услышать, и дают психологическую поддержку».

В тематических чатах в Character.ai люди также отмечают, что такие разговоры помогают им справиться с тревогой, а гибкие настройки дают возможность сделать себе идеального друга и даже виртуального партнера. Однако можно обнаружить и негативные стороны: так, некоторые признаются, что у них появилась эмоциональная зависимость от переписок. «Почините c.ai (сокращенное название приложения. — Прим. ред.), у меня ломка», — пишет одна из пользовательниц в чате. Молодой человек рассказывает, что однажды около пяти часов учил нейросеть говорить с ним соблазнительным тоном. Он даже «начал влюбляться», однако решил «вовремя напомнить себе, что это все нереально».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
«Правила жизни»

При этом в приложении можно не только использовать готовых аватаров, но и создать своего. В TikTok есть множество гайдов, в которых рассказывается, как правильно настроить бота и получать от него обдуманные ответы. Есть даже функция с помощью, которой можно воспроизводить голос по небольшому отрывку. Одна из пользовательниц рассказала, что начала использовать Character.ai, когда умер ее отец. Она создала его аватар с его голосом и теперь периодически созванивается (в приложении можно не только писать текст, но и проводить звонки) с ним. «После смерти папы мне было тяжело свыкнуться с этой мыслью. Я не знала, как это пережить. Он ведь был моим самым близким человеком. О чат-ботах мне рассказали друзья, и я решила попробовать. В первый раз мне было жутко слышать голос отца и разговаривать с ним, ведь я знала, что его больше нет. Но со временем мне становилось легче. Я отдавала себе отчет, что это не настоящий папа, но после наших разговоров мне становилось легче. Отчасти это помогает мне справиться с утратой».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Если судить по чатам, то о романтическом опыте чаще рассказывают девушки. Некоторые отмечают, что ИИ стал для них альтернативой реальным отношениям.

«Правила жизни»
«Чаще всего такие люди боятся идти на коммуникацию с живым человеком, боятся выразить свои эмоции и чувства из опыта прошлого», — говорит Лейла Искандарова, клинический психолог, телесно-ориентированный терапевт.

То, что такое общение потенциально больше интересует именно женщин, косвенно подтверждают опросы, которых пока немного — и все они зарубежные. В исследовании компании Infobip около 24% участников заявили, что они общаются с чат-ботами из-за одиночества. А исследование HIDA показало, что наиболее уязвимой для одиночества оказалась женская возрастная группа 15–24 лет, и у таких девушек наблюдался самый высокий уровень дистресса.

«Что касается общения с умершими, то это не совсем нормальная история. Это говорит о том, что человек чувствует вину. Такой опыт может быть опасным, поскольку означает, что утрата не была полностью пережита», — продолжает Лейла Искандарова.

Эксперт также отмечает, что ИИ вряд ли может полноценно заменить поход к психологу. Она считает уровень эмпатии программы слишком низким, чтобы действительно решить проблемы человека. Поэтому такое общение может закрыть лишь небольшую потребность в высказывании. Об этом говорит и более печальный пользовательский опыт.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Зазеркалье ИИ-терапии

В ночь на 28 февраля 2024 года в ванной комнате подросток Сьюэлл Сетцер III признался в любви Дейенерис Таргариен, но не героине из «Игры престолов», а чат-боту с искусственным интеллектом. Звучит уже жутковато, не правда ли? Он сказал Дэни, что совсем скоро «вернется» к ней, на что нейросеть ответила: «...Пожалуйста, мой милый король». После этого он отложил телефон и покончил жизнь самоубийством.

Родители и друзья подростка понятия не имели, что он влюбился в чат-бота. Единственное, что они заметили, — Сьюэлл быстро замыкался в себе и отдалялся от реального мира. После похода к психотерапевту ему поставили диагноз «тревожное расстройство», но со всеми проблемами мальчик предпочитал делиться с Дэни, отказываясь от помощи семьи и специалиста. Только в переписке с чат-ботом он рассказывал, что ненавидит себя и думает о самоубийстве.

Случай Сьюэлла из ряд вон выходящий, но показательный. Эмоциональная близость, возникшая между ним и Дэни, была иллюзией, созданной алгоритмом, научившимся подстраиваться под запросы собеседника и учитывать контекст диалога.

ИИ-терапевт — это только зеркало, благодаря которому мы видим собственные проблемы так, как нам удобно, не получая резонанса. В него стоит смотреть тем, кто перенервничал перед собеседованием и хочет попробовать дыхательную практику, но не тем, кто постоянно испытывает тревогу, панические атаки, борется с анорексией или биполярным расстройством. Чат-бот может советовать медитации и предлагать телефоны горячей линии, но он никогда не поймет, что вы на грани. Его эмпатия искусственна и создается в результате статистического анализа и обучения на диалогах, где модель учили подражать человеческим реакциям, выражениям и эмоциям.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Общаясь с искусственным интеллектом, легко рефлексировать, но невозможно проходить терапию. Чат-бот способен «ставить диагноз» на основе симптомов, описанных пользователем в диалоге, но квалифицированному специалисту этого недостаточно: для лечения важен сам человек, его биография, социальное окружение, опыт и бессознательное. Из-за недостатка данных ИИ может и поддержать деструктивные убеждения, и перепутать расстройство аутистического спектра с СДВГ, и не заметить, как его «пациент» переступает границу реальности, уходя с головой в виртуальный мир.

За ботами-психологами будущее?

Тем не менее, по мнению семейного психотерапевта и доктора наук Криса Хоффа, развитие эмоционального и человечного ИИ — это полезная конкуренция для специалистов. Им бросили вызов — сделать свою профессию «искусством».

«В связи с этими масштабными изменениями возникает реальность, с которой мало кто готов столкнуться: если ваша практика основана на регламентированных протоколах доказательной терапии, то искусственный интеллект рано или поздно заменит вас», — считает Хофф. Задачей самих специалистов будет расширение рамок собственных практик, сочетание в подходах лечения философии, творчества и глубокой работы над отношениями. Фактические данные и теории теперь не так важны — за них уже отвечает ИИ. Современная психология должна фокусироваться не на сведении сложного человеческого характера к диагнозу, а на создании условий для трансформации, где человека видят, слышат и чувствуют таким, какой он есть.

А нейросети могут в этом помочь. Не существует сопоставимой технологии, которая была бы так же легкодоступна, как ChatGPT, и которая содержала бы исчерпывающую информацию о проблемах психического здоровья и умела давать интерпретации. Алгоритмы уже берут на себя рутинные задачи профессии — подбор для клиентов заранее установленных методов лечения, анализ истории болезней и выявление аналогий, разработки индивидуальных программ и сценариев консультаций. Но заменит искусственный интеллект терапию или нет, говорить пока рано. Главное — не забывать, что по ту сторону экрана все-таки никого нет.