Развертывание ИИ в ОИТ: учимся на успехах и провалах. Мнение редактора (Intensive Care Med, сентябрь 2025)

Искусственный интеллект (Artificial intelligence [AI]), что плотно вошел в нашу жизнь, в скором времени, вероятно, станет центральным компонентом здравоохранения, включая и отделения интенсивной терапии (ОИТ) [1, 2]. Это утверждение правдиво в условиях перехода от предиктивных моделей ИИ к генеративным моделям [3], когда алгоритмы не только прогнозируют риск, но и помогают/оказывают поддержку в выборе терапии. 

С другой стороны, несмотря на большое количество публикаций о моделях ИИ, относительно небольшое их количество достигло рутинного клинического применения [4]. Развёртывание ИИ в ОИТ не только техническая задача, это еще и социо-техническая проблема [1]. Обучение модели in silico несет в себе фундаментальные отличия от встраивания системы человек-ИИ в рамках существующих ограничений, вариабельности и культуры реального клинического окружения. В этой работе проведен синтез уроков, полученных при реальном внедрении, — успешном или провалившемся, — а также предложен практический чек-лист, направленный на поддержку эффективности и безопасности внедрения ИИ в ОИТ. Принимая во внимание скудность ОИТ-специфической литературы [4], мы опираемся на примеры острой терапии, что содержат в себе сходные данные, рабочие процессы и регуляторные проблемы.

Успехи и провалы в освоении 

Некоторые инструменты ИИ уже показали ощутимую пользу в виде ранней диагностики, быстрого определения терапии или улучшения рабочих процессов. При том, что обсервационные исследования являются информативными, рандомизированные контролируемые исследования (РКИ) остаются золотым стандартом в установлении причинно-следственных связей. В острой неврологии платформа Viz.ai для раннего выявления ишемического инсульта существенно снизила время до ре-канализации путем автоматического выявления окклюзий больших сосудов на КТ-ангиограммах с оповещением «инсультных команд» в режиме реального времени [5]. Обогащенная ИИ интерпретация ЭКГ ускорила катетеризацию при инфарктах миокарда [6]. В ОИТ алгоритмы раннего выявления сепсиса улучшили соблюдение требований руководящих принципов, что, в некоторых случаях, снизило летальность [7]. Наконец, сортировка в отделениях неотложной помощи на основе ИИ улучшило потоки пациентов и снизило время ожидания [8]. Все эти системы отражают уже применяемые шкалы раннего предупреждения, связывая оценки риска с заранее определенными клиническими вмешательствами и делая это интуитивно понятными и действенными [3]. Другой успешный путь для ИИ — документация, что пассивно захватывается из клинических обсуждений с последующим выпуском структурных записей. К примеру, развертывание «Kaiser Permanente» [9] привело к генерации миллионов записей, что снизило административную нагрузку и улучшило клинические и, в отдельных случаях, пациентские впечатления. К общим чертам успеха можно отнести устранение узких мест в рабочих процессах, интеграцию с наименьшим сопротивлением, получение практических результатов и дополнение, а не замена, клинического суждения [3]. Важно отметить, что многие из них прошли тщательное изучение, включая РКИ, путем сравнения ИИ-ассистированного лечения со стандартной терапией [5, 6, 10]. 

С другой стороны, мы наблюдаем и провалы. Исследование, проведенное в Объединенном Королевстве и посвященное острому почечному повреждению (ОПП), обнаружило, что уведомления в определенных условиях привели к росту 14-дневной летальности [11], что, вероятно, было связано с неожиданными изменениями рабочих процессов, чрезмерной диагностикой и избыточным лечением. ИИ в качестве ассистента в радиологии может улучшить диагностическую точность у одних пользователей и ухудшить у других [12]. Эти случаи подчеркивают, что ИИ необходимо разрабатывать для того, чтобы дополнять, а не отменять, клинический опыт, при этом интерфейсы должны учитывать различающиеся уровни квалификации пользователей. 

Анализ первопричин: почему развертывание ИИ в ОИТ заканчивается провалами? 

Внедрение ИИ в здравоохранение и трансляция академических результатов в уже валидированные медицинские устройства часто терпит неудачу по множеству причин [2, 13]. Ниже мы рассмотрим ключевые причины этого, а со всеобъемлющим обсуждением можно ознакомиться здесь [1, 2, 13, 14]. 

Неправильный вариант использования 

Множество моделей ИИ очень плохо соответствуют клиническим потребностям, к примеру прогнозирование летальности без надлежащих временных рамок или низкая точность (положительная прогностическая ценность) моделей сепсиса вызывает усталость от тревог. Такая рассогласованность часто определяется минимальным вовлечением клиницистов в разработку моделей ИИ. Клиницисты могут выявить значимые и достижимые клинические задачи, такие как упорядочивание документации, автоматизация мониторинга, когда требуются повторяющиеся измерения тех или иных параметров, и оптимизация введения лекарственных препаратов. Следовательно, необходимо мультидисциплинарное сотрудничество [1, 2].     

Проблемы с данными 

ИИ в ОИТ часто требуются данные в реальном времени, при этом эти данные, — от мониторов, шприцевых помп, лабораторий и электронных историй болезни (Electronic Health Records [EHRs]), — поступают с высокой частотой, что отличает эти данные от данных, полученных в радиологии, что представляют собой структурированные снимки. Внедрение ИИ сдерживается гетерогенным форматом данных, незавершенными записями и задержками во вводе [14], что оказывает неблагоприятное влияние на мобильность и обобщаемость.

Стоимость

Высокопроизводительные модели ИИ в ОИТ требуют наличия высокопроизводительной в реальном времени инфраструктуры и специализированного обслуживания [2, 13]. Сочетание неравномерной цифровой зрелости с неясной моделью возмещения расходов/рентабельностью инвестиций препятствует адаптации моделей в условиях ограниченного бюджета лечебных учреждений, что, в свою очередь, может усугубить неравенство в цифровом здравоохранении.

Проблемы с валидацией и безопасностью 

Риски ИИ заключаются в деградации производительности и нанесении прямого вреда пациенту [11, 12]. Высоко-рисковые приложения (к примеру, контроль вазопрессоров, настройки вентилятора) требуют тщательной и часто длительной валидации. Обучение моделей с подкреплением является примером того, что обучение в реальном времени остается небезопасным [14], но эта проблема гораздо шире. К тому же генеративные модели, такие как большие языковые модели, привносят новые риски, такие как галлюцинации и ограничения в интерпретации [1, 2, 13], следовательно мы сталкиваемся с острой необходимостью в согласованных механизмах валидации (имитационные тестирования, контрольные показатели безопасности и т.д.), что могут применяться до проспективного использования [2, 3, 14]. 

Проблемы с интеграцией в рабочие процессы

Недостаточно хорошо разработанные интерфейсы могут увеличивать когнитивную нагрузку или даже разрушить уже имеющиеся рабочие процессы, когда эти проблемы появляются во время использования в реальном времени. Без гладкой интеграции в существующие рутинные процессы даже высоко-производительные модели могут быть отставлены в сторону [9, 15]. Еще одним риском может стать предвзятость к автоматизации (слепое доверие к результатам).

Вопросы этики и отвественности 

Нормативно-правовая база для ИИ остается неопределенной. В случае причинения вреда ответственность, неважно с чьей стороны, —клинициста, разработчика или института, — часто остается неясной [13]. Столь же нерешенным остается вопрос о том, чему должен соответствовать эталонный ИИ: усредненной производительности клинициста, консенсусу экспертов или группы? Без внесения ясности в этот вопрос ИИ может вызывать как недоверие, так и чрезмерные ожидания. Если клиницистам сохранят полную подотчетность, то им придется подвергать проверке каждый результата ИИ, что сведет на нет ожидаемое повышение эффективности. 

Выводы и рекомендации

Успешная адаптация ИИ в острой терапии требует извлекать уроки как из успехов, так и из провалов. Такие метрики, как AUC (area under the curve) очень полезны на этапах разработки, но неэффективны в клинических условиях. Адаптация должна управляться человеческим фактором, безопасным техническим проектированием и валидацией в реальном времени. Разработка моделей ИИ должна подчиняться бесшовной интеграции в рабочие процессы, быть связанной с ясными действиями человека и прогрессивной валидации во избежание известных и непредвиденных рисков. В идеале необходимо тестирование с помощью РКИ для обнаружения улучшений в клинических исходах пациентов, при этом не исключены и альтернативные дизайны исследований, такие как прагматичные исследования, проспективные обсервационные исследования и поэтапное внедрение с обратной связью, что также могут предоставить достоверные доказательства пользы. Техническая поддержка после развертывания ИИ, управление ИИ и итеративная доработка ИИ имеют определяющее значение, при этом во многих юрисдикциях действуют нормативные требования для обеспечения постоянной безопасности, производительности и доверия.   

References 

  1. Cecconi M, Greco M, Shickel B et al (2025) Implementing artificial intel- ligence in critical care medicine: a consensus of 22. Crit Care 29:290. https:// doi. org/ 10. 1186/ s13054- 025- 05532-2 
  2. Pinsky MR, Bedoya A, Bihorac A et al (2024) Use of artificial intelligence in critical care: opportunities and obstacles. Crit Care 28:113. https:// doi. org/ 10. 1186/ s13054- 024- 04860-z
  3. Smit JM, Krijthe JH, van Bommel J et al (2023) The future of artificial intelli- gence in intensive care: moving from predictive to actionable AI. Intensiv Care Med 49:1114–1116. https:// doi. org/ 10. 1007/ s00134- 023- 07102-y 
  4. Zhang J, Whebell S, Gallifant J et al (2022) An interactive dashboard to track themes, development maturity, and global equity in clinical artificial intelligence research. Lancet Digit Health 4:e212–e213. https:// doi. org/ 10. 1016/ S2589- 7500(22) 00032-2 
  5. Siegler J, Frost E, Penckofer M, et al (2025) Treatment time metrics following implementation of the Viz.ai artificial intelligence intracra- nial occlusion-detection and communication platform: A multicenter analysis. Stroke 6(Suppl_1):ATP243–ATP243. https:// doi. org/ 10. 1161/ str. 56. suppl_1. TP243 
  6. Lin C-S, Liu W-T (2023) Artificial Intelligence Enabled Rapid Identification of ST-Elevation Myocardial Infarction Using Electrocardiogram (ARISE): A Pragmatic Randomized Controlled Trial. NEJM AI 1(7):AIoa2400190. https:// doi. org/ 10. 1056/ AIoa2 400190 
  7. Boussina A, Shashikumar SP, Malhotra A et al (2024) Impact of a deep learning sepsis prediction model on quality of care and survival. npj Digit Med 7:1–9. https:// doi. org/ 10. 1038/ s41746- 023- 00986-6 
  8. Taylor RA, Chmura C, Hinson J et al (2025) Impact of artificial intelligence- based triage decision support on emergency department care. NEJM AI 2:AIoa2400296. https:// doi. org/ 10. 1056/ AIoa2 400296
  9. Tierney AA, Gayre G, Hoberman B et al (2025) Ambient artificial intel- ligence scribes: learnings after 1 year and over 2 5 million uses. Catal Non-issue Content 6:CAT.25.0040. https:// doi. org/ 10. 1056/ CAT. 25. 0040 
  10. Arabi YM, Alsaawi A, Alzahrani M et al (2025) Electronic sepsis screening among patients admitted to hospital wards: a stepped-wedge cluster randomized trial. JAMA 333:763–773. https:// doi. org/ 10. 1001/ jama. 2024. 25982 
  11. Wilson FP, Martin M, Yamamoto Y et al (2021) Electronic health record alerts for acute kidney injury: multicenter, randomized clinical trial. BMJ 372:m4786. https:// doi. org/ 10. 1136/ bmj. m4786 
  12. Yu F, Moehring A, Banerjee O et al (2024) Heterogeneity and predictors of the effects of AI assistance on radiologists. Nat Med 30:837–849. https:// doi. org/ 10. 1038/ s41591- 024- 02850-w 
  13. Kwong JCC, Nickel GC, Wang SCY, Kvedar JC (2024) Integrating artificial intelligence into healthcare systems: more than just the algorithm. npj Digit Med 7:1–3. https:// doi. org/ 10. 1038/ s41746- 024- 01066-z 
  14. Nauka PC, Kennedy JN, Brant EB et al (2025) Challenges with reinforce — ment learning model transportability for sepsis treatment in emergency care. npj Digit Med 8:1–5. https:// doi. org/ 10. 1038/ s41746- 025- 01485-6 
  15. Davis FD (1989) Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Q 13:319–340. https:// doi. org/ 10. 2307/ 249008

Источник: https://doi.org/10.1007/s00134-025-08131-5

Наш сайт работает без рекламы, и мы рады, что вы с нами! Для поддержки проекта и его развития сканируйте QR-код ниже!

Buy Me a Coffee