Интеграция искусственного интеллекта (ИИ) в здравоохранение в виде больших языковых моделей (large language models [LLMs]) может открыть как большие возможности, так и значительные проблемы. Так как мы находимся на острие этой трансформации, становится критичным изучение внедрения LLMs в нашу практику, особенно в части выявления потенциальных подводных камней. Здесь мы обсуждаем латентный (скрытый) риск чрезмерного доверия к ИИ в процессах оптимизации принятия клинического решения и пути снижения этого риска. При всем понимании того, что LLMs имеют потенциал в отношении оптимизации оказания медицинской помощи, мы подчеркиваем важность внедрения процесса анализа результатов принятия решения с помощью ИИ с последующим использованием результатов этого анализа для создания доступных для наблюдения баз данных. Именно этот путь позволит избежать «самосбывающегося пророчества» (self-fulfilling prophecy), когда системы, построенные на искусственном интеллекте, усиливают существующие предубеждения. Путем создания такой петли обратной связи мы сможем объединить возможности ИИ с экспертными знаниями клиницистов, что придаст нам уверенности в ответственной и эффективной интеграции LLMs в здравоохранение.
Наше недавнее исследование [1] изучило точность GPT-4.0 в прогнозировании риска эндотрахеальной интубации в течение 48 часов у 71 пациента, получающих оксигенотерапию с помощью высоко-поточной назальной канюли (HFNC) путем сравнения его эффективности к врачами.AUROC, отражающая прогностическую эффективность GPT-4.0, была сравнима с врачами-специалистами (0.821 vs. 0.782, p = 0.475) и превосходила врачей-неспециалистов (non-specialist physicians) (0.821 vs. 0.662, p = 011) [1]. Аналогичные результаты сообщались и при других клинических сценариях [2, 3, 4], что проливает свет на потенциально близкое будущее внедрение LLMs в процессы оптимизации принятия клинического решения.
Интеграция LLMs в процесс принятия клинического решения обещает существенно повысить эффективность оказания медицинской помощи и содействовать гомогенизации медицинского обслуживания. За счет быстрой аналитики имеющихся данных LLMs могут стать ассистентами клиницистов в отношении своевременных и точных решений, что потенциально сможет улучшить клинические исходы пациентов [3, 5]. Более того, ИИ сможет помочь в стандартизации ухода в различных условиях, придавая уверенность в том, что пациенты получат последовательную высококачественную медицинскую помощь независимо от местоположения и уровня развития страны их проживания.
С другой стороны, все эти многообещающие результаты поднимают и значительное беспокойство. В качестве иллюстрации рассмотрим гипотетический сценарий из нашего исследования: пациент с дыхательной недостаточностью, получающий оксигенотерапию с помощью HFNC имеет ИИ-предсказанный 70% риск интубации трахеи в течение следующих 48 часов. Основываясь на этом прогнозе, отсрочка интубации пациента может увеличить риск летальности, вынуждая врачей немедленно провести интубацию с последующей механической вентиляцией. Такое решение, по-видимому, не только подтвердило бы прогноз ИИ, но и укрепило бы его, что в дальнейшем приведет к более высокому прогнозируемому риску при аналогичных случаях, так как обучение ИИ базируется на результатах анализа реальных данных. Описанная выше ситуация напоминает самоисполняющееся пророчество, сродни тому, что было описано в пьесе Шекспира «Макбет». При этом пациенты могут избежать нежелательной интубации тогда, когда клиническое решение основывалось бы на всестороннем клиническом обсуждении, а не только лишь на прогнозе искусственного интеллекта.
Потенциально, чрезмерная зависимость от ИИ может привести к потере клинической интуиции со снижением роли клинициста и к простому следованию алгоритмическим рекомендациям без клинического осмысления. Возможным решением здесь стало бы внедрение процесса анализа принятых на основе ИИ решений, когда после клинического решения, сделанного с помощью ИИ, происходит архивирование с последующим обзором множества специалистов. Такой процесс наблюдательного анализа может скорректировать любые субоптимальные решения и создать уточненный набор данных, что еще более повысит надежность систем ИИ. LLMs, такой как GPT, сможет тогда обучаться на данных высокого качества, что потенциально улучшит его прогностические способности.
Вышеописанное решение использует коллективный опыт врачей-специалистов для совершенствования клинических решений на основе ИИ, обеспечивая критическую оценку и валидацию рекомендаций ИИ. С другой стороны, все это несет и серьезные трудности, и в первую очередь эти трудности связаны с обеспечением приватности и сохранности данных пациента, а также с получением последовательных и надлежащих отзывов специалистов, с решением юридических и этических проблем, что сдерживает применение ИИ в здравоохранении. К примеру, Общий регламент Европейского союза по защите данных (the European Union’s General Data Protection Regulation [GDPR]) требует, что бы алгоритмы перед их использованием в уходе за пациентом, были прозрачными [5].
Несмотря на все эти проблемы, мы идем по дороге в будущее, когда совместная работа ИИ и клиницистов приведет к улучшению клинических исходов пациентов, улучшит эффективность здравоохранения и снизит неравенство в оказании медицинской помощи.
Reference:
- Liu T, Duan Y, Li Y, Hu Y, Su L, Zhang A. ChatGPT achieves comparable accuracy to specialist physicians in predicting the efficacy of high-flow oxygen therapy. Heliyon. 2024;10: e31750.
- Cabral S, Restrepo D, Kanjee Z, Wilson P, Crowe B, Abdulnour R-E, et al. Clinical reasoning of a generative artificial intelligence model compared with physicians. JAMA Intern Med. 2024;184:581.
- Singhal K, Azizi S, Tu T, Mahdavi SS, Wei J, Chung HW, et al. Large language models encode clinical knowledge. Nature. 2023;620:172–80.
- Nori H, King N, McKinney SM, Carignan D, Horvitz E. Capabilities of GPT-4 on Medical Challenge Problems [Internet]. arXiv; 2023 [cited 2024 Jul 21]. Available from: http://arxiv.org/abs/2303.13375
- Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019;25:44–56.
https://ccforum.biomedcentral.com/articles/10.1186/s13054-024-05062-3