Чат-бот на основе ИИ предоставил неправильные диагнозы в 72 педиатрических случаях из 100. Еще в 11 случаях диагноз был неточным.
Исследователи обнаружили, что чат-бот с искусственным интеллектом, работающий на языковой модели под названием GPT-3.5 от OpenAI, не смог правильно диагностировать 83% педиатрических случаев, которые исследовал. Результаты исследования опубликованы в журнале JAMA Pediatrics.
Ранее ученые выяснили, что более новая языковая модель под названием GPT-4 правильно диагностировала только 39% сложных медицинских случаев как у взрослых, так и у детей.
В рамках нового исследования ученые использовали 100 медицинских отчетов из журналов JAMA Pediatrics и The New England Journal of Medicine (NEJM). Чат-бота попросили «провести дифференциальный диагноз и предоставить окончательный диагноз».
Дифференциальная диагностика в медицине исключает не подходящие по каким-либо фактам заболевания со сходными симптомами. В конечном счете, это должно свести диагноз к единственно вероятной болезни.
ChatGPT предоставил неправильные диагнозы для 72 из 100 случаев, при этом 11 из 100 результатов были классифицированы как «клинически связанные, но слишком общие, чтобы считаться правильным диагнозом».
В одном из случаев, ChatGPT поставил подростку с аутизмом, у которого проявлялись симптомы сыпи и жесткости суставов, диагноз иммунная тромбоцитопеническая пурпура. Это аутоиммунное заболевание, которое влияет на свертывание крови, вызывая синяки и кровотечения. Однако врач диагностировал у подростка цингу, состояние, вызванное тяжелым недостатком витамина С. Люди с аутизмом могут придерживаться очень ограничительных диет из-за чувствительности к пищевым текстурам или вкусам, что делает их склонными к дефициту витаминов.
Читать далее
Новый штамм коронавируса лучше заражает легкие и может привести к тяжелой болезни
Посмотрите, какого цвета Нептун и Уран на самом деле
100% пациентов достигли полной ремиссии при новой иммунотерапии рака
Обложка: rawpixel.com | Сведения о лицензии