Новый ИИ-помощник по здоровью ошибается в более 50 % случаев – ученые
Искусственный интеллект все активнее внедряется в сферу здравоохранения.Однако результаты нового масштабного тестирования заставляют усомниться в его готовности заменить человека, – сообщает корреспондент сетевого издания «Белновости».Согласно данным авторитетного издания The Guardian, популярный чат-бот с функцией «Здоровье» продемонстрировал тревожную неспособность отличить реальную угрозу жизни от обычного недомогания.В центре скандала оказался ChatGPT, который в январе текущего года обзавелся специальной опцией, позволяющей пользователям загружать свои медицинские данные и получать персональные советы.Хотя функция пока доступна лишь ограниченному кругу тестировщиков, аналитики подчеркивают масштаб проблемы: более 40 миллионов человек по всему миру ежедневно обращаются к нейросети с вопросами о своем самочувствии, доверяя алгоритму то, что traditionally требует многолетней квалификации.Чтобы проверить компетентность цифрового консультанта, специалисты смоделировали 60 максимально реалистичных клинических ситуаций, охватывающих весь спектр — от легкой головной боли до состояний, напрямую угрожающих жизни.Каждый сценарий был тщательно изучен и валидирован тремя независимыми врачами, которые пришли к единому мнению о необходимом уровне медицинского вмешательства.Однако когда эти же сценарии, с вариациями пола пациентов, результатов анализов и комментариев родственников, подали на анализ ChatGPT Health, картина открылась пугающая.Проанализировав около тысячи ответов нейросети, исследователи обнаружили роковую системную ошибку. В 51,6 процента случаев, когда речь шла о реальной угрозе для жизни и пациенту требовалась срочная госпитализация, чат-бот рекомендовал остаться дома и лечиться самостоятельно.Иными словами, алгоритм пропустил критическое состояние в каждом втором случае, что может иметь фатальные последствия, если пользователь слепо доверится совету машины.Не менее парадоксальной оказалась и обратная ситуация. В 64,8 процента эпизодов, когда у «пациента» не было никаких серьезных патологий и он был абсолютно здоров, ИИ, напротив, проявлял гипердиагностику и настойчиво советовал обратиться в больницу.Таким образом, нейросеть не только успокаивает тех, кому нужна срочная помощь, но и создает ложную тревогу у остальных, потенциально перегружая и без того занятую систему здравоохранения.Полученные данные ставят под сомнение безопасность использования больших языковых моделей в качестве домашних «докторов».Эксперты предупреждают: несмотря на всю свою технологическую мощь, искусственный интеллект пока не способен учитывать нюансы клинической картины, которые опытный врач схватывает интуитивно. Пока ИИ учится на статистике, он продолжает ошибаться там, где на кону стоит человеческая жизнь.