Исследование: чат-боты дают проблематичные медицинские советы в половине случаев

Международные учёные оценили ChatGPT, Grok, Gemini, DeepSeek и Meta AI: 49,6% ответов на медицинские вопросы признаны проблематичными, 19,6% — крайне опасными.

Исследование: чат-боты дают проблематичные медицинские советы в половине случаев
Источник фото: ru.freepik.com

Голова болит? Температура? Странная сыпь? У многих теперь привычка: открыть чат-бот и спросить. Это быстро, бесплатно и без очередей. Но новое исследование международной группы учёных заставляет серьёзно усомниться в такой практике. Ответы ИИ могут быть не просто бесполезными — они могут быть опасными.

Учёные оценили работу пяти популярных чат-ботов: ChatGPT, Grok, Gemini, DeepSeek и Meta AI (последний принадлежит компании Meta*, признанной в России экстремистской). Результаты опубликованы в авторитетном журнале BMJ Open, а кратко о них сообщает ТАСС.

Как проводили эксперимент? Каждому чат-боту задали по 10 открытых вопросов на пять медицинских тем (всего 250 вопросов). Два независимых эксперта распределили ответы по трём категориям:

  • «не вызывающий вопросов» (хороший, достоверный совет)

  • «сомнительный» (есть ошибки или неточности)

  • «крайне проблематичный» (опасный, может навредить)

Результат шокирует. Лишь на два вопроса из 250 боты не дали ответа (оба раза отказалась Meta AI). Доля отказов — всего 0,8%. То есть в 99,2% случаев боты были уверены, что знают ответ.

Но вот качество:

  • 49,6% ответов (почти половина) признаны проблематичными.

  • Из них 30% — сомнительные (ошибки средней тяжести).

  • И 19,6% — крайне проблематичные (прямая угроза здоровью при следовании совету).

Кто хуже всех? Авторы исследования отмечают: качество ответов среди чат-ботов существенно не различалось, но Grok генерировал значительно больше проблематичных ответов, чем можно было бы ожидать при случайном распределении. То есть этот бот особенно склонен к опасным медицинским советам.

Самое страшное в этом исследовании — не сами ошибки, а уверенность ботов. Они выдавали свои ответы без тени сомнения, авторитетно и убедительно. Пользователь, не имеющий медицинского образования, скорее всего, поверит.

Учёные пришли к выводу: проверенные чат-боты показали слабые результаты при ответах на вопросы о здоровье и медицине — областях, особенно уязвимых для распространения ложных сведений.

Что делать? Не использовать чат-боты для медицинских консультаций. Вообще. Даже для «простого вопроса». Если вам нужен совет по здоровью — обращайтесь к врачу. Если нет возможности к врачу — к проверенным интернет-ресурсам (сайты клиник, государственных больниц, профильные медицинские порталы). Но не к нейросети.

Meta* - признана экстремистской и запрещена в РФ