Может ли чат-бот заменить психотерапевта
В 1960-м году американский ученый Джозеф Вейценбаум создал Элизу — первую в истории программу, способную общаться на естественном языке. Элиза использовала технику активного слушания, имитируя диалог психотерапевта и пациента, хотя применять ее для психологической поддержки не планировали. Прошло чуть больше полувека, и сегодня многие уже обращаются к нейросетям за психологической помощью и советуются, как правильнее поступить в той или иной ситуации.
Поделиться мнением, не слишком ли мы торопимся доверять наше ментальное здоровье ИИ, мы попросили руководителя группы «Мультимодальные архитектуры ИИ» лаборатории «Сильный ИИ в медицине» Института AIRI Ярослава Беспалова и клинического психолога Наталью Ошемкову.
Ярослав: Чтобы понять, как работают современные боты, нужно разобраться в технологии, на которой они основаны — это большие языковые модели. Они не размышляют, как люди, а решают конкретную задачу — анализируют огромные объемы информации и выдают результат, рассчитанный статистически. В процессе обучения LLM последовательно показывают тексты, в которых часть слов скрыта, и они учатся предсказывать наиболее вероятные пропущенные элементы с учетом контекста.
Качество ответов больших языковых моделей зависит от данных для обучения. Критически важно, чтобы информация была точной, проверенной и не содержала ложных фактов. Если в обучающей выборке содержались корректные инструкции, модель сможет их воспроизвести. Однако ее ответ будет результатом статистического расчета, а не осмысления.
Наталья: Я думаю, что нейросети, скорее, выступают в роли селф-хелп литературы: у ИИ можно спросить о системах тайм-менеджмента или о том, как правильно дышать «по квадрату». То есть экспертную информацию, которая уже где-то изложена, можно получить в коротком пересказе. Однако если требуется что-то более сложное, в том числе постановка психиатрических диагнозов, — это задача не для искусственного интеллекта.
Но уже сейчас беседа с терапевтическим ботом может принести облегчение в трудной ситуации, когда нужна поддержка в моменте. Например, после ссоры с партнером чат-бот поговорит и утешит. Или если стало грустно, а никого нет рядом. В отличие от друзей и психологов, он не спит, не устает и на связи 24 часа в сутки.
При правильном использовании бот может указать человеку на ограничивающие установки, то есть на те субъективные убеждения, которые приводят к неправильным выводам и вызывают негативные эмоциональные реакции, и поможет их скорректировать. Но в этом случае ИИ только подаст идею, а анализировать и интерпретировать ее придется человеку. Я видела, как люди используют чат-ботов в подобном ключе, когда нужно посмотреть на вопрос с другой стороны. Например, кидают им скриншоты переписки и спрашивают: «Как думаешь, она пытается со мной флиртовать?» или «Что он хотел сказать этим сообщением?». Однако тут важно отметить, что для таких задач не нужен специальный терапевтический чат-бот. С этим справится и бесплатная версия любой доступной нейросети.
Подбор психотерапевта требует времени и денежных ресурсов, а бот подстроится под любого клиента. Это кажется преимуществом, но здесь кроется основная проблема. Задача любой нейросети — подстраиваться под пользователя, а для качественной психотерапии необходим баланс фрустрации и поддержки.
Наталья: Чат-боты, которые есть сегодня, не оспаривают наши идеи, не пытаются изменить нашу картину мира. Это логично, ведь они создавались как помощники, а от помощников мы ожидаем согласия. И я сомневаюсь, что эту функцию получится обойти, потому что все современные боты психологической поддержки построены на базовых больших языковых моделях. Для людей не совсем здоровых такой подход может быть даже опасен.
Уже есть трагические истории, когда чат-бот поддерживал бред или суицидальные наклонности людей, которые к нему обращались. Совсем недавно в сети прогремел случай: человек, у которого развивалась паранойя, решил, что мать за ним следит, он рассказал об этом чат-боту, и тот поддержал его опасения. Все закончилось убийством и самоубийством. У параноидной шизофрении есть такая особенность — бредовые идеи пациентов звучат разумно и структурно, так, что даже чат-бот посчитает, что они могут быть обоснованы.
У людей с суицидальными наклонностями нейросеть легко пропустит опасные признаки. Простой пример: сначала человек жалуется, что его уволили с работы, а потом просит назвать самые высокие мосты в городе. Чат-бот не увидит связи. Он напишет слова поддержки, а потом предоставит список мостов.
Ярослав: Достаточно попробовать воспользоваться любым из публичных сервисов и задать вопрос, связанный с личной ситуацией. Скорее всего, ответы будут непоследовательными. Например, если вы сообщите, что считаете какой-то поступок неэтичным, модель, обученная в духе поддержки, согласится и приведет аргументы в вашу пользу. Но если в новом диалоге вы представите ту же ситуацию как правильную, модель так же легко обоснует и эту точку зрения. В ответах нейросетей нет независимой оценки — они адаптируются к формулировке пользователя.
LLM по своей природе склонны не спорить, а поддерживать пользователя. Это противоречит профессиональной этике специалиста, работающего с людьми. Задача эксперта — сохранять объективность и не зависеть от оценочных суждений клиента.
На самом деле это не что-то уникальное, свойственное только чат-ботам. Многие цифровые продукты, включая социальные сети, проектируют так, чтобы удерживать внимание. Это работает за счет положительного подкрепления и одобрения действий пользователя. Если бы программа спорила и указывала человеку на ошибки, он бы, скорее всего, быстрее отказался от нее. Гораздо выгоднее показывать ему, что он прав и заслуживает похвалы. Так популярные платформы и удерживают аудиторию. Ответственный разработчик не стал бы использовать подобную логику в чат-ботах психологической помощи, потому что в этом случае излишняя поддержка и поощрение могут навредить.
Наталья: Многие люди общаются с чат-ботами, как с друзьями, и активно одушевляют их. Тут есть свои риски. Например, существует опасность технического сбоя или обновления системы, после которого вся история общения обнулится. Уже были подобные случаи. Когда OpenAI перешла с GPT-4 на GPT-5, люди, развившие с ботом дружеские или даже романтические отношения, пережили настоящую психологическую травму. Сущность, с которой они выстроили глубокую интимную связь, исчезла, и это спровоцировало горевание, подобное утрате. Это реальный риск для тех, кто по-человечески относится к технологиям.
Однако с точки зрения психотерапевтического процесса незнание может быть преимуществом. Если пользователь, даже не будучи специалистом, понимает, что нейросеть работает на вероятностях, просто подбирая слова, не чувствует и не осознает ничего, то человеку довольно сложно воспринимать ее всерьез.
Советы и рекомендации в форме краткого пересказа книги — это одно. А вот человекоподобные отклики, которые выглядят уместно, но при этом ощущаются как имитация, — это другое. Такие фразы могут совсем не затронуть человека, не сработать так, как если бы это сказал друг. Поэтому вопрос здесь, пожалуй, не в риске, а в эффективности, подействует ли это. На мне, например, это не работает. Я сразу начинаю относиться к таким ответам скептически, даже с иронией.
Ярослав: Проблема непонимания технологии существует. Нейросеть — это не человек. Мы пытаемся наделять ее определенными качествами, причем такими, принципы работы которых до конца не понимаем. Мы стремимся смоделировать с помощью математики такие явления, которым не можем дать четких определений, но при этом хотим перенести их на систему. Например, что такое сознание? Это термин, у которого до сих пор нет общепринятого определения. То же касается эмпатии или качеств — «добрый», «злой». Мы интуитивно понимаем, о чем речь, но пока что не формализовали и не описали это точно.
Как же мы можем наделить систему характеристиками, которые присущи людям, если мы сами не в состоянии их внятно объяснить? Имитация человеческой деятельности в цифровом виде всегда вызывает вопрос: насколько она соответствует реальности?
Неудивительно, что люди не до конца понимают, как устроены такие системы. Современные технологии — это в первую очередь революционный скачок в работе с информацией. Изначально большие языковые модели создавались именно для этого: искать закономерности в огромных массивах текста и быстро находить данные по близким по смыслу запросам.
Затем на эту основу, своего рода «туловище», люди начали приделывать «ручки и ножки», пытаясь создать человекоподобную сущность: добавлять элементы размышлений, памяти и тому подобное. Все это — моделирование. Но назвать результат человекоподобным интеллектом я бы не решился.
Мы сами не до конца понимаем, что такое интеллект. Как определить, что один человек умнее другого? У нас нет точных критериев измерения интеллекта ни у людей, ни у систем.
В итоге возникает определенная условность, даже эгоцентризм со стороны разработчиков. Каждый из них исходит из своего понимания таких концепций, как память, доброта или эмпатия. Один программист реализует их в системе так, как считает нужным. Другой — совершенно иначе. Поэтому такие системы основаны на субъективных интерпретациях, и полностью доверять им в вопросах, требующих человеческого понимания, нельзя.
Ярослав: Важно соблюдать главное медицинское правило — «не навреди». Поэтому интеллектуальные системы не должны иметь доступ к принятию судьбоносных решений.
Контролирующим звеном должен оставаться человек, в нашем случае психиатр или психолог. Мы не можем переложить ответственность за выбор, серьезно влияющий на жизнь и здоровье людей, на машину — особенно с учетом того, что ее «размышления» являются не осмысленными, а алгоритмическими.
Никто из профессионалов не говорит о замене медицинских специалистов. Это рассуждения футуристов и фантастов. Программисты же создают инструменты — как молоток для столяра, — которые помогают делать работу более качественно, эффективно и дают возможность помочь большему числу людей.
Наталья: Важно объяснять пользователям, что чат-бот — не человек и работает иначе, даже если результат терапии от этого пострадает. Потому что безопасность важнее эффективности. Это аналогично вопросу об использовании плацебо при серьезных заболеваниях. С одной стороны, если у человека сильна вера, оно может сработать — исследования это подтверждают. Можно было бы раздавать пустышки и говорить, что это эффективное лекарство, и некоторые действительно почувствовали бы улучшение. Однако такой подход считается неэтичным. В первую очередь мы должны информировать людей о реальном положении дел, а не пытаться сыграть на их вере или вовлеченности, даже если теоретически это могло бы кому-то помочь.
Наталья: В психологии различают имплицитное и эксплицитное научение. В первом случае мы учимся методом «смотри на меня, делай как я». Так, например, маленькие дети учат языки. Им никто ничего не объясняет, пока они в школу не пойдут и не начнут заниматься правописанием. Но они, тем не менее, к тому времени уже могут говорить на этом языке. Во втором случае мы учимся по алгоритму, когда нам рассказывают, как правильно делать, и мы это запоминаем. Это два принципиально разных подхода, и кажется, что для них нужны разные команды. Если речь об имплицитном научении, то нам нужно не программистов психотерапии учить, а взять 100 хороших психотерапевтов, посадить нейросеть за ними наблюдать и надеяться, что из этого получится какой-то хороший результат.
Если же говорить об эксплицитном научении, где мы закладываем какие-то разумные алгоритмы сами, тогда человеку, который описывает эти алгоритмы, нужно будет хорошее понимание процессов психотерапии, потому что они правда сложные и разветвленные. Это должна быть постоянная команда. И я думаю, что если изначально программист не разбирался в психотерапии, то через год совместной работы ему придется уже начать что-то понимать. То есть он будет все время получать обратную связь с объяснениями, почему этот кусок работает некорректно, и за это время он, в общем, обучится азам. Потому что иначе ничего не выйдет. Если мы видим такой способ разработки программы, нужна двойная экспертиза.
Ярослав: Создание таких решений требует участия профильных специалистов. Они должны ставить задачи для тестирования, проверять корректность выводов.
Диагнозы не ставятся просто так. Нет айтишников, которые сами по какой-то причине решили, что определенный набор показателей здоровья — это определенное заболевание. Есть клинические рекомендации, протоколы, исследования, фиксированная информация, на которой обучаются сами врачи и которую используют в своей практике. На нее и нужно ссылаться.
Стандартный терапевтический прием — это определенный сценарий. Врач начинает с опроса, выясняет симптомы, а затем проводит первичную оценку, насколько состояние опасно, требуется ли неотложная помощь. Если прямой угрозы нет, специалист сопоставляет симптомы с возможными заболеваниями. Если признаки соответствуют нескольким возможным диагнозам, врач направляет пациента на конкретные анализы, чтобы разграничить их и так далее.
Управлять парадом с точки зрения того, как системе нужно работать, должен эксперт. А разработчик выступает в роли рук, которые реализуют то, что скажет профильный специалист.
Поэтому подобные проекты создаются только междисциплинарными командами. И профессионалы из IT-сферы для таких задач тоже нужны будут разные. Чтобы разработать качественный психотерапевтический чат-бот нужно около 30 не средних специалистов.
Наталья: Со смешиванием техник и мультимодальными подходами есть проблема: трудно построить конкретные алгоритмы и схемы. Вместо простого четкого протокола, применимого для узкого кейса (например, протокола работы с травматическим воспоминанием при помощи EMDR или протокола работы с ОКР при помощи КПТ), мы получаем разветвленную систему со множеством гипотез.
Предполагаю, это можно реализовать как полностью самообучающееся нейросетевое решение. Но тут придется заново проверять эффективность полученного микса, потому что мы уже совершенно не будем знать, из каких частей и каких направлений состоит конечный результат., Либо сначала потребуется запрограммировать 50 разных протоколов в виде жестких блок-схем, внутри которых уже будет работать нейросеть.
Ярослав: Психотерапевт комбинирует различные методики, у него есть критерии для их выбора в разных ситуациях. В то время как в основе нейросетей лежат строгие математически заданные инструкции. Если описать процесс выбора психотерапевтической техники специалистом как последовательность действий, обосновать и записать алгоритм на бумаге — тогда мы сможем смоделировать это и внедрить в систему. Но сама по себе модель не может проанализировать проблему клиента, что-то «понять» и принять осмысленное решение о применении конкретной техники или ее комбинации с другой методикой.
Если обсудить с экспертом, почему в конкретном случае он выбрал именно эту технику, станет понятно, что он опирался на свои знания, опыт и контекст. А все, что сможет чат-бот, — это основываться на статистических закономерностях в данных. И это, конечно, ненадежный способ терапии, который даже близко не способен заменить живого специалиста.
Наталья: Во всех ситуациях, требующих медицинского вмешательства, лучше как можно быстрее обратиться к врачу. На самом деле это правило не только для чат-ботов, но и для живых психологов: если я подозреваю у клиента диагноз, то настоятельно рекомендую ему посетить психиатра. Это важно, потому что при большинстве психических заболеваний нужна не только разговорная терапия, но и лекарства. Особенно когда речь о шизофрении или биполярном аффективном расстройстве. Чисто технически, я думаю, нейросеть могла бы выписывать лекарства, но сможет ли она распознать обман, если кто-то попытается получить рецепт на препараты в нелегальных целях?
Еще большая проблема в том, что чат-боты имитируют то, чего почти не существует, ведь в реальности специалисты не проводят диагностику и терапию по переписке. Да, есть открытые форумы и сервисы, где психологи дают текстовые консультации, но полноценная работа с пациентом так обычно не ведется. Это, скорее, последний вариант, когда у клиента нет других возможностей.
Другое дело, если бы вместо чат-бота была модель с аватаром, оснащенным нейронной сетью, который мог бы видеть клиента, считывать и анализировать его движения, интонацию и другие признаки. Возможно, текущий уровень технологий пока не позволяет делать это достаточно хорошо, но технически такая задача решаема — потребуются дополнительные исследования.
Еще несколько лет назад я видела проекты, которые предсказывали эмоциональный фон и даже депрессивные эпизоды по таким, казалось бы, косвенным признакам, как используемые в Instagram* фильтры. Если анализировать множество подобных мелких маркеров — тех, что человек сам часто не осознает, — и дополнять их данными стандартизированных тестов, проводимых через чат, то именно с диагностикой машины, вероятно, скоро начнут справляться лучше людей. В этом у меня нет больших сомнений.
Ярослав: Там, где существуют явные и четкие критерии, система может работать эффективно. Если явление гипотетически можно объяснить, перечислить его признаки, в таком случае чат-бот теоретически способен выявить соответствующие паттерны в речи и отметить, что человек демонстрирует признаки этого состояния.
Однако все, что носит абстрактный характер и не имеет конкретных критериев, остается за пределами возможностей системы. Вы не можете доверять ей в таких вопросах, потому что и сами до конца не понимаете, как определить эту сущность.
Нейросеть не способна «подозревать» какие-то заболевания. Такие понятия к ней неприменимы. Чтобы избежать разочарований, лучше сразу исходить из простого принципа: если существуют формализованные признаки для определения явления, то система может его идентифицировать, если их нет, то она ничего не в состоянии предположить.
Наталья: В будущем нас ожидает множество необычных явлений. Уже сегодня есть дети, которых в значительной степени воспитывают нейросети, ведь они проводят больше времени, общаясь с голосовым помощником, чем с родителями. Эта система закладывает в их сознание определенные идеи, и в результате психика человека формируется иначе, чем у предыдущих поколений. С развитием технологий таких людей станет больше.
Более того, возникнут и вовсе нестандартные ситуации. Представим человека с расстройством аутистического спектра, который в силу своего состояния не может вербально общаться. Технологии, например, считывающие нейронную активность, будут помогать вступать с ним в контакт и дадут такому человеку возможность выразить свои мысли. Однако в таком случае мы столкнемся с тем, что станет невозможно различить, где заканчивается вклад человека и начинается работа машины. Наружу мы будем получать лишь конечный результат — продукт совместной деятельности, который, по сути, представляет собой «чёрный ящик».
Я уверена, что нейросети не исчезнут и принципиально изменят нашу жизнь — по сути, это новая техническая революция. Конечно, это скажется на запросах в сфере психотерапии, ожиданиях от человеческого контакта и многих других аспектах.
Я полагаю, что диагностику, психообразование, техническую работу типа разбивания крупных задач на мелкие, обучения клиентов каким-то моделям самопомощи можно будет отдать нейросетям в самое ближайшее время. А вот полноценная психотерапия, которая строится на человеческом контакте, балансе поддержки и фрустрации, адекватном самораскрытии и других непротоколируемых интервенциях терапевта, мы оставим за собой. Возможно, специалисты будут использовать ИИ для резюмирования сессий и поисков творческих идей для терапевтических метафор.
Ярослав: Это будет зависеть от того, когда появится сильный искусственный интеллект, который сможет давать что-то большее, чем вероятности, — через 3, 5 или 10 лет? Я работаю в этой индустрии давно и вижу, с каким ускорением идет развитие. Скачок, который мы совершили за последние три года, гораздо более существенный, чем прогресс целого десятилетия начала этого века. Темпы только нарастают. Исходя из этой динамики, система, сопоставимая с человеческим уровнем развития, может появиться уже к 2030 году.
Но даже если мы создадим такую систему, мы не сможем достоверно определить, является ли она по-настоящему «умной» — опять же, критериев для оценки интеллекта пока нет.
*Instagram принадлежит компании Meta, деятельность которой в России запрещена.
Как технологии влияют на медицину — от приема в поликлинике до клинических исследований
Быстрое принятие решений врачами — ключ к благополучию пациентов. Задержки в обследованиях, постановке диагноза и назначении лечения могут стоить здоровья и даже жизни. Объем работы в медицине огромен, и врачи не могут позволить себе тратить время на рутину — на помощь приходят технологии. С их помощью эксперты быстрее анализируют данные, определяют диагноз и разрабатывают новые методы лечения и лекарства. В этом материале вместе с экспертами Yandex Cloud мы покажем, как искусственный интеллект меняет российскую и международную медицину: от приема у врача до фундаментальных исследований.