Люди не могут получить полезные советы по здоровью от чат-ботов — новые данные
Исследование Оксфордского университета показало, что попытки получить медицинские рекомендации через ИИ-чаты часто приводят к обратному эффекту. Вместо квалифицированной помощи люди сталкиваются с недооценкой серьезности симптомов и ошибочными выводами.

Почему чат-боты подводят в критических ситуациях
Эксперимент с участием 1300 человек из Великобритании выявил парадокс: использование GPT-4o и Llama 3 не только снизило точность самодиагностики, но и заставило людей воспринимать потенциально опасные состояния как незначительные. Участникам предлагались медицинские сценарии, разработанные врачами, где требовалось определить необходимость визита в больницу.

«Произошел явный разрыв в двусторонней коммуникации, — объясняет Махди, соавтор исследования. — Чат-боты не помогали принимать более обоснованные решения по сравнению с обычным поиском в интернете».

Риски повседневного использования ИИ-помощников
Примерно каждый шестой взрослый американец ежемесячно обращается к чат-ботам за медицинскими советами. Эта тревожная статистика становится особенно актуальной на фоне растущих очередей к специалистам и стоимости медицинских услуг.

Ключевая проблема — неспособность пользователей правильно формулировать запросы. Люди часто не понимают, какие именно симптомы нужно описать, чтобы получить релевантный ответ. В результате ИИ-системы выдают общие или неточные рекомендации, маскируя неопределенность псевдонаучными формулировками.

Контраст с контролируемыми медицинскими ИИ
Парадоксально, но специализированные чат-боты в клинических исследованиях демонстрируют противоположные результаты. Например, 10-дневное использование тематических ботов улучшало:
- Самостоятельный уход (коэффициент d=0.36)
- Показатели депрессии (d=–0.26)
- Осознанность (d=0.37)

Однако эти улучшения исчезали через месяц, что указывает на необходимость персонализации и интеграции с профессиональным наблюдением.

Можно ли исправить ситуацию?
Эксперты предлагают три направления развития:
1. Обучение пользователей — курсы по грамотному взаимодействию с ИИ в медицинских целях
2. Гибридные модели — сочетание чат-ботов с удаленным доступом к врачам
3. Строгий аудит — сертификация медицинских ИИ по аналогии с фармацевтикой

Пока же авторы исследования рекомендуют воспринимать советы чат-ботов как первичный фильтр, а не конечную инстанцию в вопросах здоровья.