Системы здравоохранения сегодня сталкиваются со значительными трудностями в виде роста госпитализаций, роста расходов и нехватки медицинского персонала. Согласно Всемирному экономическому форуму, все вышеозначенные проблемы ограничивают предоставление последовательной, высоко качества медицинской помощи [1]. Ожидается, что без интеграции искусственного интеллекта (ИИ) здравоохранение деградирует с увеличением неравноправности в отношении доступности медицинской помощи и ее качества. ИИ обладает потенциалом в обеспечении поддержки здравоохранению в виде усовершенствования административной эффективности и клинических рабочих процессов. От автоматизации рутинных задач, таких как ввод данных пациента для помощи с лабораторными отчетами и результатами лечения, ИИ снижает когнитивную нагрузку на профессионалов здравоохранения, что позволяет им уделять большее внимание уходу за пациентами. Совсем недавно большие языковые модели (large language models [LLMs]) показали свои возможности в генерации медицинских отчетов, сравнимых с отчетами, написанными врачами, но с гораздо меньшими затратами времени [2]. Более того, поддержка ИИ принятия клинического решения помогает в прогнозировании сепсиса и летальности в отделении интенсивной терапии (ОИТ), а также ИИ применяется в качестве помощника при прогнозировании ранних вмешательств при механической вентиляции [3]. Но, несмотря на всю пользу, внедрение ИИ, особенно в ОИТ, остается ограниченным. Это связано со множеством факторов, включая риск предвзятости (bias), ограниченность баз данных и отсутствие прозрачности [4]. С другой стороны, за такую нерешительность в отношении внедрения ИИ в практику ОИТ приходится платить. Возможные издержки при отсрочке или даже при отказе от внедрения ИИ в ОИТ очень существенны и потенциально приводят к худшим результатам лечения и к неэффективному использованию имеющихся ресурсов.
Представление возможных издержек в сфере здравоохранения с ИИ
В текущем контексте термин «возможные издержки» относится к потере потенциальной пользы при отказе учреждений здравоохранения от применения технологий ИИ. В медицине критических состояний такие возможные издержки имеют далеко идущие последствия. К примеру, при ранней диагностике сепсиса [5] клиницисты получат возможность более адекватного и раннего введения антибиотиков, что потенциально снизит сепсис-ассоциированную заболеваемость и летальность. Модели повторной госпитализации (readmission models) с использованием ИИ смогут помочь специалистам здравоохранения в предоставлении более целевого наблюдения и ухода, тем самым снижая повторные госпитализации. И, наконец, технологии ИИ и LLMs могут помочь провайдерам здравоохранения с сообщениями пациентов и ведением записей, позволяя больше фокусироваться на уходе за пациентами. Более того, было показано, что эмпатия LLMs сравнима с эмпатией людей-клиницистов или даже превосходит ее, что также позволит улучшить использование ресурсов за счет прогнозирования усугубления состояния пациентов и управления ранними вмешательствами [6]. Но следует признать, что большинство моделей ИИ еще не вышли из фазы прототипа, особенно это касается ОИТ [4, 7]. Несмотря на такой пробел в реализации, уже можно утверждать, что отказ от внедрения систем ИИ может привести к потере как административной, так и клинической эффективности и, возможно, к потерям со стороны удовлетворенности пациентов.
Этическое «quo vadis»?
Имеющиеся на сегодня модели ИИ сталкиваются со множеством этических проблем. К примеру, эти модели могут увековечить расовые предубеждения [8] и другие дискриминационные исходы в связи с неполными (ограниченными) наборами данных [9]. Для примера, алгоритм, разработанный для выявления критически больных пациентов и для лучшего управления вмешательствами, показывает расовую предвзятость. Модель, что использовала стоимость оказания медицинской помощи в качестве показателя тяжести заболевания, приводила к некорректному выводу, что черные пациенты были менее тяжелыми, чем белые пациенты с аналогичным заболеванием. Это привело к недостаточному выявлению черных пациентов для получения дополнительной терапии [10]. Очень важно отметить, что модели ИИ обладают способностью быстрого усвоения и воспроизводства существующих предубеждений, что ведет к аналогичным паттернам расовой предвзятости на выходе. Примеры не ограничиваются расовой предвзятостью и включают социо-экономические и гендерные предубеждения, когда эффективность модели лучше видна у мужчин при условии, что ее обучение проходило на несбалансированных по половой принадлежности данных. Все эти примеры диктуют необходимость в локальной валидации и стратегий структурной оценки предвзятости, как, впрочем, и в создании заслонов, на что указывается в недавней публикации этических и управленческих руководящих принципов по использованию ИИ от Всемирной организации здравоохранения (ВОЗ) [11].
Всегда сохраняется риск, что предвзятость может проникнуть в системы ИИ для здравоохранения через рабочие процессы, при использовании данных или иметься в самой модели. К примеру, использование для обучения не репрезентативных данных, которые на самом деле не отражают локальную желаемую популяцию, может создать проблемы с безопасностью для определенных групп населения. Таким образом, методы выявления предвзятости необходимо использовать на каждой стадии разработки модели [12, 13], а пользователи должны быть осведомлены, каким образом влияние предвзятости смягчено. К примеру, некоторые инициативы предполагают устранение предвзятости как количественно, так и качественно, за счет прямого вовлечения профессионалов здравоохранения, к примеру медицинских сестер. Оценка медицинскими сестрами напрямую в клинических условиях может помочь в устранении предвзятости на всех стадиях жизненного цикла ИИ [12]. Все эти заслоны имеют критическое значение для защиты пациентов и обеспечения уверенности в надлежащем уровне принятия клинического решения.
С другой стороны, неудачи с внедрением технологий ИИ также поднимают этические вопросы, в особенности в ОИТ. Движение к прикроватному использованию ИИ (по аналогии с прикроватными мониторами) может быть достигнуто без больших рисков и затрат путем внедрения моделей в небольших масштабах и с ограниченным кругом пользователей или с помощью клинических исследований целесообразности такого подхода [14]. Этот путь позволит оценить значение моделей в реальном мире — насколько удобно ими пользоваться и насколько они полезны, получая отзывы от профессионалов медицины, использующих эти модели. На сегодня исследование моделей ИИ часто фокусируется на технической производительности, но без должных корреляций между технической и клинической эффективностью в среде применения. При этом отказ от внедрения моделей ИИ привел бы не только к растрате инвестиций на их разработку, но и к глобальной предвзятости в виде бездействия в отношении разработок, что могли бы быть использованы во всеобщее благо.
Все это подчеркивает важнейшую этическую проблему — неспособность принять технологические инновации, что могут послужить во всеобщее благо, само по себе является предвзятостью. При том, что рисками неправильного использования ИИ можно эффективно управлять, риски бездействия, особенно в медицине критических состояний, не менее значительны. Крайне важно, чтобы системы здравоохранения вышли за пределы этических дебатов, что тормозит внедрение ИИ, и в большей степени сосредоточились на ощутимых преимуществах, что эти системы могут предложить. Такое движение потребует от госпиталей полной готовности по всем фронтам: технический, профессиональный и этический. Техническая и профессиональная готовность заключается в построении инфраструктуры и в обучении медицинского персонала в целях эффективной работы с ИИ. Об этической готовности можно судить тогда, когда внедрение ИИ согласуется с основными ценностями, такими как справедливость, прозрачность и забота о пациенте. Только путем технической и этической подготовки можно прийти к использованию всего потенциала ИИ при минимизации рисков.
Движение к ИИ, основанному на ценностях
Для снижения возможных издержек, связанных с недоверием к ИИ, системам здравоохранения перед внедрением ИИ необходимо одобрить подход, основанный на ценностях (a value-based approach). Уход, основанный на ценностях, означает улучшение результатов лечения пациентов по сравнению с затратами на достижение этих результатов [15]. Этот подход очень хорошо согласуется с целями ИИ в здравоохранении, к которым относятся оптимизация клинической и административной деятельности, снижение расходов и рост удовлетворения от работы при одновременном улучшении ухода за пациентом. Следовательно, такой подход будет направлен на решение конкретных проблем, связанных с внедрением, гарантируя, что ИИ будет полностью интегрирован в систему здравоохранения, а не изолирован от ухода за пациентом. Более того, в рамках модели, основанной на ценностях, работники здравоохранения в большей степени заинтересованы в результатах лечения пациентов. Внедрение ИИ может включать прямые измерения здоровья, такие как улучшение качества жизни пациентов или снижение смертности, что оправдает его внедрение. Важно отметить, что несмотря на то, что подход, основанный на ценностях, рассматривает расходы и эффективность, одновременно с этим он обеспечивает баланс между ними и результатами лечения пациентов. Поэтому его не следует путать с чисто экономическим подходом, скорее всего подход, основанный на ценностях, следует рассматривать, как нечто среднее между экономической эффективностью и уходом, ориентированным на пациента.
В основе ухода, основанного на ценности, лежит оценка значения ИИ в отношении такого показателя, как «возвращение к здоровью» (Return on Health [ROH]). Определение ROH является синонимом возможных издержек, поскольку упущенное ROH эквивалентно упущенному улучшению показателей здоровья. Такие оценки могут заранее предвидеть, действительно или нет технологии ИИ отвечают ожиданиям и нуждам пациентов и институтам здоровья, для службы в которых эти технологии и разрабатываются. Мы призываем к использованию ROH с вовлечением на всех этапах разработки моделей конечных пользователей, от профессионалов здравоохранения до пациентов, как для определения ценности модели ИИ, так и для завоевания доверия еще до момента разработки. Подход, основанный на ценности, приводит к разработке инструментов ИИ, отвечающих потребностям пациентов и клинических процессов и, таким образом, требует участия всех заинтересованных лиц (Рис. 1*).
Что же касается перспективы для пациентов, то ИИ может улучшить взаимодействие между пациентом и врачом путем более раннего информирования о состоянии и возможных видах лечения, помогая пациенту и его родственникам более активно участвовать в процессе лечения. Подход, основанный на ценностях, под эгидой ИИ даст гарантию, что пациенты получат эффективное и скоординированное лечение, направленное улучшение их здоровья при меньших затратах. Важно отметить, что не все модели ИИ созданы равными. Поэтому очень важно внимательно относится к выбору инноваций для последующего внедрения их в работу ОИТ.
Поворот к ИИ, основанному на ценностях, несет дополнительную пользу, смещая фокус с попыток сделать так называемый «черный ящик ИИ» (black box AI) прозрачным, что остается нерешенной проблемой, когда большинство систем ИИ не могут объяснить, каким образом они пришли к своим выводам и что ведет к утрате доверия к таким системам. В отличие от этого, подход, основанный на ценностях, фокусируется на улучшении доверия среди пользователей системами ИИ. В результате как доверие, так и дополнительная клиническая ценность абсолютно необходимы для использования систем ИИ непосредственно у койки пациента. В ОИТ основанный на ценностях ИИ вовлечен в модели, что могут прогнозировать ухудшение состояния пациента, помогать более эффективно использовать ресурсы и указывать на необходимость ранних вмешательств. К примеру, система поддержки клинического решения, ведомая ИИ, может помочь врачам ОИТ планировать более чем на день вперед, предлагая прогнозы, что позволят улучшить наблюдение за пациентами и долгосрочный менеджмент, в котором больше персонализации, социальной работы и своевременные осмотры. Это не только улучшит уход за пациентами в ОИТ, но и повысит выживаемость с одновременным снижением повторных переводов в ОИТ.
Мы отдаем себе счет в том, что до того момента, как мы полностью сможем интегрировать системы ИИ в клинические условия ОИТ, нам необходимо преодолеть несколько структурных препятствий. Мы имеем ввиду улучшение управления данными, создание реестра прозрачных моделей ИИ, снижение расходов на ИИ (что в настоящее время весьма существенные), формализацию методологий выявления предвзятости и улучшение грамотности среди конечных пользователей.
Выводы
С каждой новой волной технологий всегда имеются риски, проблемы и, иногда, ошибки. До того момента, пока этические проблемы в отношении предвзятости, прозрачности и доверия не будут решены, возможные издержки от непринятия ИИ в ОИТ, или даже в госпитале, остаются не менее важно этической проблемой. Задержки во внедрении ИИ для систем здравоохранения несут риски клинической стагнации, более худших результатов лечения пациентов и неэффективного использования ресурсов. Госпитали должны создать структуры, такие как подход к ИИ, основанный на ценностях, что обеспечит эффективную и ответственную интеграцию ИИ в медицинском учреждении. Необходимость в движение ИИ от «битов к койке пациента» (from bytes to bedside) является не просто технологической целью, это моральный императив.
References
- Forum WE (2024) AI in healthcare: Buckle up for change, but read this before takeoff.
- Schoonbeek R et al. Completeness, correctness and conciseness of physician‑written versus large language model generated patient sum‑maries integrated in electronic health records. Available at SSRN 4835935
- Nguyen D, Ngo B, van Sonnenberg E (2021) AI in the intensive care unit: up‑to‑date review. J Intensive Care Med 36(10):1115–1123
- van de Sande D et al (2021) Moving from bytes to bedside: a systematic review on the use of artificial intelligence in the intensive care unit. Inten‑sive Care Med 47(7):750–760
- Komorowski M et al (2018) The Artificial Intelligence Clinician learns optimal treatment strategies for sepsis in intensive care. Nat Med 24(11):1716–1720
- Ayers JW et al (2023) Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med 183(6):589–596
- Schouten JS et al (2024) From bytes to bedside: a systematic review on the use and readiness of artificial intelligence in the neonatal and pediatric intensive care unit. Intensive Care Med 50(11):1767–1777. https:// doi. org/ 10. 1007/ s00134‑ 024‑ 07629‑8
- World Health O (2021) Artificial intelligence is changing the health sector. In: WHO consultation towards the development of guidance on ethics and governance of artificial intelligence for health. World Health Organi‑zation, pp 3–7
- van Genderen ME et al (2024) Charting a new course in healthcare: early‑stage AI algorithm registration to enhance trust and transparency. npj Digit Med 7(1):119
- Obermeyer Z et al (2019) Dissecting racial bias in an algorithm used to manage the health of populations. Science 366(6464):447–453
- World Health O (2024) Ethics and governance of artificial intelligence for health: guidance on large multi‑modal models. 2024
- Cary Jr MP et al (2024) Empowering nurses to champion Health equity & BE FAIR: bias elimination for fair and responsible AI in healthcare. J Nurs Sch. https:// doi. org/ 10. 1111/ jnu. 13007
- van Genderen ME, Cecconi M, Jung C (2024) Federated data access and federated learning: improved data sharing, AI model development, and learning in intensive care. Intensive Care Med 50(6):974–977
- Van de Sande D et al (2022) Developing, implementing and governing artificial intelligence in medicine: a step‑by‑step approach to prevent an artificial intelligence winter. BMJ Health Care Inform 29(1):e100495. https:// doi. org/ 10. 1136/ bmjhci‑ 2021‑ 100495
- Teisberg E, Wallace S, O’Hara S (2020) Defining and implementing value‑based health care: a strategic framework. Acad Med 95(5):682–685