В МГУ создали платформу HL-EAI для изучения эмоций человека и ИИ
Специалисты Центра искусственного интеллекта МГУ разработали платформу HL-EAI, которая анализирует эмоциональное взаимодействие между человеком и алгоритмом. Система учитывает текстовые, звуковые и визуальные данные для оценки совместных решений.
В Московском государственном университете имени М. В. Ломоносова создали платформу, которая выводит отношения человека и ИИ на новый уровень. Называется HL-EAI (расшифровывается как Human-Like Emotional Artificial Intelligence — «человекоподобный эмоциональный искусственный интеллект»). Как сообщила пресс-служба вуза, система помогает понять главное: как эмоции влияют на совместные решения человека и алгоритма.
Почему это важно? Современные ИИ умеют распознавать отдельные эмоциональные сигналы — улыбку, грусть, раздражение. Но они видят их как изолированные картинки, не учитывая главного: взаимного эмоционального обмена, который возникает в живом диалоге. Мы меняемся под влиянием собеседника, а ИИ — нет. До сих пор.
Платформа HL-EAI объединяет текстовые, звуковые и визуальные данные. Она оценивает эмоциональное состояние участника и формирует ответ с учётом контекста разговора. Причём система работает в трёх форматах: «человек — ИИ», «человек — человек» и даже «алгоритм — алгоритм».
Уже сейчас платформу используют для экспериментов на основе теории игр. Участники принимают стратегические решения в разных сценариях, а учёные смотрят, как эмоции влияют на доверие, желание сотрудничать и выбор тактики.
Представьте: ИИ, который не просто даёт ответы, а чувствует ваше настроение и подстраивается под него. Или, наоборот, провоцирует вас на эмоции — в терапевтических или учебных целях. Разработка МГУ — первый шаг к такому будущему. Где искусственный интеллект перестаёт быть бездушной машиной и становится почти живым собеседником.