ChatGPT теперь понимает эмоции и мягко поддерживает в трудные моменты

Когда разговор заходит о тревоге, потере или тяжёлых мыслях, сухие ответы алгоритма могут только усугубить состояние. В OpenAI это прекрасно понимают и именно поэтому компания обновила ChatGPT, сделав его чуть более «человечным».
К работе подключили свыше 170 специалистов в области психического здоровья со всего мира. Они помогли команде научить модель распознавать тревожные сигналы, те самые фразы и интонации, которые часто выдают внутренний кризис. Теперь ChatGPT умеет мягко переключать разговор, предлагать сделать паузу, напоминать о реальных способах помощи и подсказывать, куда обратиться.
Разработчики говорят, что количество некорректных ответов сократилось на 65–80%. Особенно заметен прогресс в темах психоза, суицидальных мыслей и эмоциональной зависимости. По внутренним тестам, ChatGPT теперь правильно реагирует в 9 из 10 случаев.
«Главная задача — не заменить специалиста, а помочь человеку сделать первый шаг. Мы хотим, чтобы ChatGPT мог поддержать, но не подменять живое общение»
— объясняют в OpenAI.
Интересно, что над обновлением трудились почти 300 врачей и психологов из 60 стран. Они анализировали каждую реплику, учились слышать нюансы и помогали системе отвечать так, чтобы это звучало по-человечески.
Теперь, если пользователь говорит о галлюцинациях или путает реальность, модель не спорит и не подтверждает заблуждения, а старается бережно вернуть человека в безопасное русло. Если же разговор длится слишком долго, ChatGPT вежливо предлагает передохнуть.
OpenAI планирует продолжить эксперименты не только по темам суицида, но и в области эмоциональной зависимости от ИИ. Разработчики хотят понять, как сделать так, чтобы люди не уходили в диалоги с ботом от реального общения, а наоборот, возвращались к нему.
Обновлённая система уже внедрена в основные модели, и компания обещает регулярно пересматривать ответы, чтобы удерживать планку качества.


