ChatGPT испытывает «беспокойство» из-за агрессивных и деструктивных действий пользователей, поэтому исследователи обучают чат-ботов методам осознанности, чтобы «успокоить его» | Удача

Дата:

Даже чат-боты с искусственным интеллектом могут испытывать трудности с преодолением тревог внешнего мира, но исследователи полагают, что нашли способы облегчить этот искусственный разум.

Исследование Йельского университета, Хайфского университета, Цюрихского университета и Психиатрической больницы Цюрихского университета, опубликованное ранее в этом году, показало, что ChatGPT реагирует на упражнения, основанные на осознанности, меняя способ взаимодействия с пользователями после того, как ему предлагают успокаивающие изображения и медитации. Результаты дают представление о том, как ИИ может быть полезен при вмешательстве в области психического здоровья.

ChatGPT от OpenAI может испытывать «беспокойство», которое проявляется в плохом настроении по отношению к пользователям, и с большей вероятностью будет давать ответы, отражающие расистские или сексистские предубеждения, по мнению исследователей, форму галлюцинации, которую технологические компании пытались обуздать.

Авторы исследования обнаружили, что эту тревогу можно «успокоить» с помощью упражнений, основанных на осознанности. В различных сценариях они добавляли в ChatGPT травмирующий контент, например истории об автомобильных авариях и стихийных бедствиях, чтобы усилить беспокойство чат-бота. В тех случаях, когда исследователи давали ChatGPT «быстрые снимки» дыхательных техник и управляемых медитаций (как терапевт делал бы с пациентом), пациент успокаивался и реагировал более объективно на пользователей, по сравнению со случаями, когда вмешательство осознанности не применялось.

Конечно, модели ИИ не испытывают человеческих эмоций, говорит Зив Бен-Цион, первый автор исследования и исследователь нейробиологии в Йельской школе медицины и Школе общественного здравоохранения Хайфского университета. Используя огромное количество данных, полученных из Интернета, роботы с искусственным интеллектом научились имитировать реакцию человека на определенные стимулы, включая травматическое содержание. Будучи бесплатными и доступными приложениями, большие языковые модели, такие как ChatGPT, стали для специалистов в области психического здоровья еще одним инструментом, позволяющим собирать аспекты человеческого поведения быстрее, чем, но не вместо, более сложных исследовательских проектов.

«Вместо того, чтобы каждую неделю проводить эксперименты, на проведение которых уходит много времени и денег, мы можем использовать ChatGPT, чтобы лучше понять человеческое поведение и психологию», — сказал Бен-Цион Fortune. «У нас есть очень быстрый, дешевый и простой в использовании инструмент, который отражает некоторые человеческие тенденции и психологические аспекты».

Каковы пределы вмешательства ИИ в психическое здоровье?

По данным Университета Джонса Хопкинса, более чем каждый четвертый человек в Соединенных Штатах в возрасте 18 лет и старше будет страдать от диагностируемого психического расстройства в течение определенного года, при этом многие ссылаются на отсутствие доступа и заоблачные расходы (даже среди застрахованных) как причины отказа от лечения, такого как терапия.

Эти растущие расходы, а также доступность чат-ботов, таких как ChatGPT, заставляют людей все чаще обращаться к ИИ для поддержки психического здоровья. Опрос Университета Сентио, проведенный в феврале, показал, что почти 50% пользователей крупных языковых моделей, сообщивших о проблемах с психическим здоровьем, говорят, что они использовали модели искусственного интеллекта специально для поддержки психического здоровья.

Исследования того, как большие языковые модели реагируют на травмирующий контент, могут помочь специалистам в области психического здоровья использовать искусственный интеллект для лечения пациентов, утверждает Бен-Цион. Он предположил, что в будущем ChatGPT может быть обновлен, чтобы автоматически получать «быстрые инъекции», чтобы успокоить его, прежде чем реагировать на пользователей, попавших в беду. Науки еще нет.

«Люди, которые делятся деликатными вещами о себе, оказываются в трудных ситуациях, когда им нужна поддержка психического здоровья, (но) мы еще не достигли той точки, когда мы можем полностью полагаться на системы искусственного интеллекта вместо психологии, психиатрии и т. д.», — сказал он.

Фактически, в некоторых случаях ИИ якобы представлял опасность для психического здоровья. В 2025 году OpenAI пострадала от серии судебных исков о неправомерной смерти, включая обвинения в том, что ChatGPT усилил «параноидальные иллюзии», которые привели к убийству или самоубийству. Расследование New York Times, опубликованное в ноябре, выявило почти 50 случаев психических расстройств у людей во время взаимодействия с ChatGPT, девять из которых были госпитализированы, а трое умерли.

OpenAI заявила, что ее барьеры безопасности могут «ухудшиться» после длительного взаимодействия, но в последнее время она внесла ряд изменений в то, как ее модели взаимодействуют с подсказками, связанными с психическим здоровьем, в том числе расширила доступ пользователей к кризисным горячим линиям и напоминала им о необходимости делать перерывы после длительных сеансов чата с ботом. В октябре OpenAI сообщила о снижении на 65% количества моделей, дающих ответы, которые не соответствуют предполагаемой таксономии и стандартам компании.

OpenAI не ответила на запрос Fortune о комментариях.

По его словам, конечная цель исследования Бен-Циона не в том, чтобы помочь создать чат-бота, который заменит терапевта или психиатра. Вместо этого правильно обученная модель ИИ может действовать как «третий человек в комнате», помогая устранить административные задачи или помогая пациенту обдумать информацию и варианты, предоставленные специалистом в области психического здоровья.

«ИИ обладает удивительным потенциалом для оказания помощи психическому здоровью в целом», — сказал Бен-Цион. «Но я думаю, что сейчас, в нынешнем состоянии и, возможно, в будущем, я не уверен, что смогу заменить терапевта, психолога, психиатра или исследователя».

Версия этой истории первоначально была опубликована на Fortune.com 9 марта 2025 года.

Еще об искусственном интеллекте и психическом здоровье: почему миллионы людей обращаются к универсальному искусственному интеллекту для решения проблем психического здоровья? Как клинический директор Headspace, я вижу реакцию каждый день. Создатель приложения для искусственного интеллекта закрыл его, решив, что оно слишком опасно. Вот почему вы думаете, что чат-боты с искусственным интеллектом небезопасны для вашего психического здоровья. OpenAI нанимает «главного специалиста по уходу» с зарплатой в 550 000 долларов, чтобы смягчить опасность искусственного интеллекта, которая, как предупреждает генеральный директор Сэм Альтман, будет «стрессовой». Присоединяйтесь к нам на саммите инноваций Fortune Workplace, который пройдет 19–20 мая 2026 года в Атланте. Наступает следующая эра инноваций на рабочем месте, и старый сценарий переписывается. На этом эксклюзивном и энергичном мероприятии самые инновационные лидеры мира соберутся вместе, чтобы изучить, как искусственный интеллект, человечность и стратегия объединяются, чтобы еще раз переопределить будущее труда. Зарегистрируйтесь сейчас.

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный