ChatGPT — плохой психотерапевт, предупреждают исследователи.

Исследователи предостерегают от использования больших языковых моделей, таких как GPT-4, в психологии и психотерапии из-за их ограниченной способности генерировать психологически полезную информацию и отсутствия эмпатии и человеческого понимания.
ChatGPT — плохой психотерапевт, предупреждают исследователи.

Многочисленные стартапы в области искусственного интеллекта и авторитетные компании ищут варианты использования больших языковых моделей и чат-ботов, таких как ChatGPT. Кандидаты варьируются от маркетинга и продаж до здравоохранения и психотерапии.

Но группа исследователей в статье под названием «Использование больших языковых моделей в психологии» предостерегает от использования этих моделей в психологии, и особенно в психотерапии. Их способность генерировать психологически полезную информацию фундаментально ограничена, говорит соавтор Дора Демски, профессор науки о данных в образовании в Стэнфордской высшей школе образования. «Они не способны проявлять сочувствие или человеческое понимание», — сказал Демски.

У ChatGPT нет «теории разума»

Ученый имеет в виду, что в больших языковых моделях отсутствует «теория разума», понимание психических состояний других людей. Дэвид Йегер, профессор психологии Техасского университета в Остине, а также автор статьи, отмечает, что, хотя модели могут генерировать текст, похожий на человеческий, они не обладают той глубиной понимания, которая свойственна профессиональному психологам или специалистам.

В своей статье исследователи выступают за партнерство между научными кругами и промышленностью в масштабе проекта «Геном человека». Это партнерство должно включать разработку ключевых наборов данных, стандартизированных критериев, например, для использования в психотерапии, и общей вычислительной инфраструктуры для разработки психологически компетентных LLM.

Дальнейшие исследования могут способствовать трансформационному развертыванию

Мотивация призыва двоякая: 

Во-первых, исследователи опасаются "мира, в котором создатели генеративных систем ИИ будут нести ответственность за причинение психологического вреда, поскольку никто не оценил влияние этих систем на мышление и поведение человека", - сказал Йегер.

Во-вторых, они видят в моделях потенциал: «Мы утверждаем, что, хотя LLM обладают потенциалом для продвижения психологического анализа, экспериментов и практики, они еще не готовы для многих наиболее преобразующих психологических практик - но дальнейшие исследования и разработки в этой области могут позволить такое использование". 

10:13
96
Нет комментариев. Ваш будет первым!
Посещая этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.