Шевелит извилиной: почему языковые модели не могут заменить психолога
Возможно ли безопасно пользоваться нейросетями при ментальных проблемах
EN
Люди все чаще обращаются к нейросетям вместо психологов. Психологи и психиатры объяснили «Известиям», может ли ChatGPT заменить настоящего специалиста и как безопасно пользоваться им при ментальных проблемах.
Мировой тренд
Использование нейросетей в качестве психологов может быть опасно: обострять чувство одиночества, развивать эмоциональную зависимость от ботов и сокращать общение с людьми, предупредила медицинский директор в онлайн-страховой компании «Лучи» Наталья Красенкова.
По ее словам, чаще всего россияне используют ChatGPT — языковую модель, способную отвечать на вопросы и решать различные задачи. Они могу вводить промпты вроде «ты психолог, специализирующийся на когнитивно-поведенческой терапии. Задавай по одному вопросу за раз и дай мне полностью ответить, прежде чем переходить к другому. Твоя цель — помочь мне преодолеть проблемы и травмы».
— Получается, что человек в одностороннем порядке записывает свои мысли и переживания (подобно письменным практикам), самостоятельно задает вопросы, а в ответ просто получает совет-выжимку из тысячи документов на схожую тему, — поясняет эксперт.
В целом, отмечает она, нейросети удобны — они бесплатны, постоянно доступны, анонимны, не критикуют и не осуждают (как и грамотный психотерапевт), быстро дают ответ. Но важно помнить, что ChatGPT — это просто программа, и создание чуткого контакта, способность замечать нюансы, углубляться в сложные чувства ей недоступны.
— Потому общение пользователя с нейросетью при сложившихся психологических запросах может привести к ситуации, когда человек замыкается и лишь усугубляет свое эмоциональное состояние. Кроме того, он не отслеживает прогресс, может упустить ухудшение, — отмечает эксперт.
Польза и вред
Психологи и психиатры, с которыми пообщались «Известия», уверены, что ИИ бывает полезен и для специалистов, и для пациентов, но лишь в некоторых моментах. Как считает практикующий психолог, основатель онлайн-школы «Кочка Зрения» Татьяна Воргуль, нейросети могут успешно выполнять несколько функций.
- Первичный скрининг. Чат-боты собирают симптомы, предлагают тесты на тревожность или депрессию — как анкеты в поликлинике. Это экономит время, но не заменяет специалиста.
- Кризисная поддержка. Для людей в изоляции ИИ-помощники становятся «первой помощью», предотвращая суициды до встречи с врачом. Иногда важно просто высказаться, получить уточняющие вопросы или похвалу.
- Анализ данных. Алгоритмы обрабатывают массивы информации (паттерны сна, речевые маркеры), выявляя риски. Но выводы требуют проверки человеком.
При этом, уверена эксперт, полноценную диагностику ИИ не проведет. Ошибаются даже продвинутые алгоритмы. К примеру, ИИ, обученный распознавать деменцию по речи, дает 20% ложных срабатываний. Психические расстройства редко укладываются в шаблоны: депрессия может маскироваться под лень, а тревожность — под раздражительность. Только врач видит полную картину, в частности биографию, семейный анамнез, социальный контекст.
— Самодиагностика с использованием ИИ может привести к серьезным ошибкам. Чат-боты не способны учитывать все нюансы и индивидуальные обстоятельства, влияющие на состояние пользователя. Это может приводить не только к неправильной интерпретации симптомов, но и к принятию неправильных решений, что усугубляет ситуацию, — подчеркивает психиатр, главный врач Mental Health Center Анна Корендюхина.
Возможна ли полная замена психологов
Полную замену психологов ИИ специалисты считают скорее опасной. По мнению психиатра Анны Корендюхиной, большинство развлекательных чат-ботов разрабатываются для удержания внимания пользователей и не могут восприниматься как источники профессиональной помощи.
— Чат-боты могут создавать иллюзию поддержки и надежности, которая приводит к тому, что пользователи не обращаются за необходимой помощью к специалистам, а это может ухудшить состояние, — говорит психиатр.
Важно понимать, что у нейросетей нет ни квалификации и опыта, ни обыкновенной человеческой эмпатии, добавляет Татьяна Воргуль. Они не услышат дрожь в голосе, не поймут скрытые мотивы. Например, слова «мне грустно» могут скрывать депрессию, тоску или травму — алгоритм не отличит их. Психолог же, замечая невербальные сигналы (ритм дыхания, мимику, жесты), помогает раскрыть истинные причины переживаний. Иногда клиенту нужна не рекомендация, а поддержка — даже просто человеческое тепло.
Впрочем, рекомендации от нейросетей тоже могут быть неоднозначными. Исследование Journal of Medical Internet Research (2023) выявило, что 30% советов ИИ по психическому здоровью содержат ошибки и могут не улучшить, а, наоборот, ухудшить состояние пациента (например, при панической атаке, нервном срыве, депрессии).
— И за это никто не будет отвечать. Как и за утечку данных — психологи обязаны сохранять тайну, а у алгоритмов нет моральных обязательств, вы не можете быть уверены в конфиденциальности, — заключает Воргуль.
Важность терапии
Подводя итог, специалисты отмечают, что нейросетями можно пользоваться как инструментом — например, дневниками и таблицами для самонаблюдения. Однако квалифицированную помощь можно получить только у психолога или терапевта, в терапевтических отношениях.
— Клинические психологи и психотерапевты проводят оценку и лечение, учитывая множество факторов. Их обучение и лицензирование гарантируют соответствие этическим и профессиональным стандартам, что необходимо для обеспечения безопасности и эффективности. Особенно важно обратиться к специалисту, когда возникают серьезные проблемы, так как неправильная помощь может иметь катастрофические последствия, — предупреждает Анна Корендюхина.
Точно также, добавляет Татьяна Воргуль, могут использоваться и другие инструменты, например метафорические карты. Они бывают хорошим помощником, но никогда не заменяют полноценную диагностику и работу.
— Психическое здоровье требует человеческого участия. Как говорил Карл Юнг, «ваша внутренняя жизнь — самая важная тайна». Но раскрыть ее легче, когда рядом те, кто слышит и понимает вас, — заключает психолог.