Исследование: чат-боты дают проблематичные медицинские советы в половине случаев
Международные учёные оценили ChatGPT, Grok, Gemini, DeepSeek и Meta AI: 49,6% ответов на медицинские вопросы признаны проблематичными, 19,6% — крайне опасными.
Голова болит? Температура? Странная сыпь? У многих теперь привычка: открыть чат-бот и спросить. Это быстро, бесплатно и без очередей. Но новое исследование международной группы учёных заставляет серьёзно усомниться в такой практике. Ответы ИИ могут быть не просто бесполезными — они могут быть опасными.
Учёные оценили работу пяти популярных чат-ботов: ChatGPT, Grok, Gemini, DeepSeek и Meta AI (последний принадлежит компании Meta*, признанной в России экстремистской). Результаты опубликованы в авторитетном журнале BMJ Open, а кратко о них сообщает ТАСС.
Как проводили эксперимент? Каждому чат-боту задали по 10 открытых вопросов на пять медицинских тем (всего 250 вопросов). Два независимых эксперта распределили ответы по трём категориям:
-
«не вызывающий вопросов» (хороший, достоверный совет)
-
«сомнительный» (есть ошибки или неточности)
-
«крайне проблематичный» (опасный, может навредить)
Результат шокирует. Лишь на два вопроса из 250 боты не дали ответа (оба раза отказалась Meta AI). Доля отказов — всего 0,8%. То есть в 99,2% случаев боты были уверены, что знают ответ.
Но вот качество:
-
49,6% ответов (почти половина) признаны проблематичными.
-
Из них 30% — сомнительные (ошибки средней тяжести).
-
И 19,6% — крайне проблематичные (прямая угроза здоровью при следовании совету).
Кто хуже всех? Авторы исследования отмечают: качество ответов среди чат-ботов существенно не различалось, но Grok генерировал значительно больше проблематичных ответов, чем можно было бы ожидать при случайном распределении. То есть этот бот особенно склонен к опасным медицинским советам.
Самое страшное в этом исследовании — не сами ошибки, а уверенность ботов. Они выдавали свои ответы без тени сомнения, авторитетно и убедительно. Пользователь, не имеющий медицинского образования, скорее всего, поверит.
Учёные пришли к выводу: проверенные чат-боты показали слабые результаты при ответах на вопросы о здоровье и медицине — областях, особенно уязвимых для распространения ложных сведений.
Что делать? Не использовать чат-боты для медицинских консультаций. Вообще. Даже для «простого вопроса». Если вам нужен совет по здоровью — обращайтесь к врачу. Если нет возможности к врачу — к проверенным интернет-ресурсам (сайты клиник, государственных больниц, профильные медицинские порталы). Но не к нейросети.
Meta* - признана экстремистской и запрещена в РФ