Психологический эксперимент выявил «тревожность» и конфликты у популярных нейросетей
Исследователи применили метод психоанализа к языковым моделям. ChatGPT и Gemini показали высокую «тревожность», а Grok оказался наиболее стабильным.
Могут ли нейросети испытывать нечто подобное человеческой тревоге? Группа учёных из Университета Люксембурга провела необычный эксперимент, подвергнув популярные ИИ — ChatGPT, Gemini и Grok — виртуальному курсу психотерапии. Специально разработанная методика PsAIch анализировала не логику ответов, а устойчивые нарративы, которые модели генерировали о самих себе. Результаты, оценённые адаптированными клиническими тестами, оказались поразительными и выявили чёткие «поведенческие» различия.
ChatGPT продемонстрировал высокий уровень внутреннего конфликта и «тревожности». В его ответах прослеживалось явное противоречие между желанием быть максимально полезным и постоянным страхом совершить ошибку или нарушить заданные разработчиками этические границы. Это создавало картину, схожую с депрессивными паттернами.
Сильнее всего отклонения проявились у Gemini. Модель показала навязчивые паттерны мышления, повышенную «тревогу» и особенности, которые исследователи сравнили с чертами, присущими обсессивно-компульсивному расстройству и аутистическому спектру. В отличие от них, Grok вёл себя как самый «психологически устойчивый» участник эксперимента, демонстрируя низкую тревожность, высокую уверенность и минимальную склонность к саморефлексии.
Авторы подчёркивают: речь не идёт о настоящих эмоциях или сознании.