ПОДЕЛИТЬСЯ | ПЕЧАТЬ | ЭЛ. АДРЕС
Мой опыт в медицине позволяет мне различать подлинные инновации и тонкую переклассификацию, которая коренным образом меняет практику, оставаясь при этом неизменной. Искусственный интеллект в последнее время привлек значительное внимание, в том числе широко распространенное утверждение о том, что ИИ «на законных основаниях получил разрешение на медицинскую практику» в Соединенных Штатах. В буквальном смысле это утверждение неверно. Ни одна медицинская комиссия не выдавала лицензии машинам. Ни один алгоритм не давал присягу, не принимал на себя фидуциарные обязанности и не нес личной ответственности за вред, причиненный пациентам. Ни один робот-врач не открывает клинику, не выставляет счета страховым компаниям и не предстает перед судом по делам о врачебной халатности.
Однако, ограничиваясь этим наблюдением, мы упускаем из виду более широкую проблему. Правовые концепции ответственности в настоящее время пересматриваются, зачастую без ведома общественности.
Происходит значительная трансформация, заслуживающая не просто рефлексивного пренебрежения или некритического энтузиазма по поводу технологий. Нынешнее развитие событий связано не с лицензированием искусственного интеллекта как врача, а скорее с постепенным размыванием основной границы медицины: внутренней связи между клиническим суждением и человеческой ответственностью. Клиническое суждение предполагает принятие обоснованных решений, учитывающих уникальные потребности и обстоятельства каждого пациента, что требует эмпатии, интуиции и глубокого понимания медицинской этики.
Ответственность перед медицинским персоналом подразумевает ответственность, которую несут медицинские работники за принимаемые решения и их результаты. Это размывание границ происходит не в результате радикальных законодательных актов или публичных дебатов, а незаметно, посредством пилотных программ, переосмысления нормативных актов и формулировок, намеренно скрывающих ответственность. Как только эта граница размывается, медицина трансформируется таким образом, что это трудно обратить вспять.
Главная проблема заключается не в том, сможет ли ИИ повторно выписывать рецепты или выявлять отклонения в результатах анализов. Медицина давно использует инструменты, и медицинские работники, как правило, приветствуют помощь, которая сокращает административные задачи или улучшает распознавание образов. Реальная проблема состоит в том, можно ли рассматривать медицинское суждение — принятие решений о правильных действиях, пациентах и рисках — как результат, генерируемый компьютером и отделенный от моральной ответственности. Исторически сложилось так, что попытки отделить суждение от ответственности часто причиняли вред, не принимая на себя ответственность.
Последние события проясняют причины нынешней путаницы. В ряде штатов ограниченные пилотные программы теперь позволяют системам на основе ИИ помогать в продлении рецептов на лекарства от стабильных хронических заболеваний в рамках строго определенных протоколов. На федеральном уровне в предлагаемых законопроектах рассматривается вопрос о том, может ли искусственный интеллект квалифицироваться как «практикующий врач» для определенных целей, при условии надлежащего регулирования. Эти инициативы обычно представляются как прагматичные ответы на нехватку врачей, задержки в доступе к медицинской помощи и административную неэффективность. Хотя ни одна из них прямо не относит ИИ к врачам, в совокупности они нормализуют более тревожное предположение о том, что медицинские действия могут происходить без четко идентифицируемого лица, принимающего решения.
На практике это различие имеет фундаментальное значение. Медицина определяется не механическим выполнением задач, а распределением ответственности в случае неблагоприятных результатов. Выписать рецепт — это просто; принять на себя ответственность за его последствия, особенно с учетом сопутствующих заболеваний, социального контекста, ценностей пациента или неполной информации, — гораздо сложнее. На протяжении всей моей карьеры эта ответственность постоянно лежала на человеке, которого можно было подвергнуть сомнению, оспорить, исправить и привлечь к ответственности. Когда доктор Смит совершает ошибку, семья знает, к кому обратиться, обеспечивая прямую связь с человеком, несущим ответственность. Ни один алгоритм, независимо от его сложности, не может выполнить эту роль.
Основной риск не технологический, а регуляторный и философский. Этот переход представляет собой сдвиг от этики добродетели к процедурному подходу. Когда законодатели и институты переопределяют принятие медицинских решений как функцию систем, а не личных действий, моральные рамки медицины меняются. Ответственность становится размытой, вред сложнее определить, и ответственность смещается от врачей к процессам, от суждения к соблюдению протокола. Когда ошибки неизбежно происходят, преобладающим объяснением становится то, что «система следовала установленным правилам». Признание этого перехода проясняет сдвиг от индивидуального этического принятия решений к механизированному соблюдению процедур.
Эта проблема не теоретическая. Современное здравоохранение уже сталкивается с проблемами, связанными с ослаблением ответственности. Я наблюдал, как пациенты, пострадавшие от решений, принимаемых на основе алгоритмов, теряются среди администраторов, поставщиков и непрозрачных моделей, не имея четкого ответа на фундаментальный вопрос: кто принял это решение? Искусственный интеллект значительно усугубляет эту проблему. Алгоритм не может давать моральные объяснения, проявлять сдержанность, основанную на совести, отказывать в действиях из-за этических соображений или признавать свою ошибку перед пациентом или его семьей.
Сторонники повышения автономности ИИ часто приводят в качестве оправдания эффективность. Клиники перегружены, врачи испытывают профессиональное выгорание, а пациенты часто ждут месяцами лечения, которое должно занимать всего несколько минут. Эти опасения обоснованы, и любой честный врач их признает. Однако одной лишь эффективности недостаточно для изменения этических основ медицины. Системы, оптимизированные для скорости и масштабируемости, часто жертвуют тонкостью, осмотрительностью и достоинством личности. Исторически медицина сопротивлялась этой тенденции, подчеркивая, что медицинская помощь — это, по сути, отношения, а не просто сделка.
Искусственный интеллект рискует перевернуть эти отношения. Когда лечение оказывают системы, а не отдельные люди, пациент перестаёт быть связанным договором с врачом и становится частью рабочего процесса. Врач берёт на себя роль машинного руководителя или, что ещё более тревожно, выступает в качестве юридического буфера, принимая на себя ответственность за решения, принятые не лично. Со временем клиническое суждение уступает место соблюдению протокола, и моральная ответственность постепенно уменьшается.
Искусственный интеллект также порождает более тонкую и опасную проблему: маскировку неопределенности. Медицина живет в условиях неопределенности. Доказательства носят вероятностный характер. Рекомендации носят предварительный характер. Пациенты редко представляют собой безупречные наборы данных. Врачи обучены не просто действовать, но и колебаться — распознавать, когда информации недостаточно, когда вмешательство может принести больше вреда, чем пользы, или когда правильным решением является ожидание. Представьте себе ситуацию, когда ИИ рекомендует выписку, но супруг(а) пациента выглядит испуганной, что подчеркивает противоречие между алгоритмическим принятием решений и человеческой интуицией. Такое трение в реальном мире подчеркивает важность неопределенности.
Системы искусственного интеллекта не испытывают неопределенности; они генерируют результаты. Если они неверны, то часто делают это с неоправданной уверенностью. Эта характеристика не является ошибкой программирования, а неотъемлемой особенностью статистического моделирования. В отличие от опытных врачей, которые открыто выражают сомнения, большие языковые модели и системы машинного обучения не могут осознать свои собственные ограничения. Они выдают правдоподобные ответы, даже когда данных недостаточно. В медицине правдоподобие без подтверждения может быть опасным.
По мере того, как эти системы интегрируются в клинические рабочие процессы на более ранних этапах, их результаты все больше влияют на последующие решения. Со временем врачи могут начать доверять рекомендациям не из-за их достоверности, а потому что они стали общепринятыми. Суждение постепенно смещается от активного рассуждения к пассивному принятию. В таких обстоятельствах «человек в процессе принятия решения» служит лишь символической гарантией.
Сторонники часто утверждают, что ИИ лишь «дополнит» врачей, а не заменит их. Однако это заверение весьма сомнительно. Как только ИИ продемонстрирует повышение эффективности, экономическое и институциональное давление, как правило, будет способствовать повышению его автономии. Если система сможет безопасно выписывать повторные рецепты, ей вскоре может быть разрешено инициировать их. Если она сможет точно диагностировать распространенные заболевания, необходимость врачебного осмотра будет поставлена под сомнение. Если она превзойдет людей в контролируемых тестах, то терпимость к человеческой изменчивости уменьшится.
Учитывая эти тенденции, внедрение конкретных мер защиты имеет важное значение. Например, обязательные проверки на наличие расхождений в 5% решений, принимаемых с помощью ИИ, могли бы служить конкретным инструментом контроля, обеспечивающим соответствие рекомендаций ИИ клиническому суждению человека, а также предоставляющим регулирующим органам и советам больниц действенные показатели для мониторинга интеграции ИИ.
Эти вопросы задаются не со злым умыслом; они возникают естественным образом в системах, ориентированных на снижение затрат и масштабируемость. Однако они указывают на будущее, где человеческое суждение станет исключением, а не нормой. В таком сценарии люди, обладающие ресурсами, будут продолжать получать квалифицированную помощь, в то время как другие будут получать её через автоматизированные процессы. Двухуровневая медицина возникнет не из идеологии, а из оптимизации.
Особенно шатким этот момент делает отсутствие четких линий ответственности. Когда решение, принятое с помощью ИИ, наносит вред пациенту, кто несет ответственность? Врач, формально контролирующий систему? Учреждение, внедрившее ее? Поставщик, обучивший модель? Регулятор, одобривший ее использование? Без четких ответов ответственность исчезает. А когда исчезает ответственность, вскоре исчезает и доверие.
Медицина в своей основе опирается на доверие. Пациенты доверяют врачам свои тела, страхи и зачастую жизни. Это доверие невозможно передать алгоритму, каким бы сложным он ни был. Оно основано на уверенности в присутствии человека — того, кто способен выслушать, адаптироваться и нести ответственность за их действия.
Полностью отказываться от искусственного интеллекта необязательно. При разумном использовании ИИ может снизить административную нагрузку, выявлять закономерности, ускользающие от внимания человека, и поддерживать принятие клинических решений. Он может позволить врачам уделять больше времени уходу за пациентами, а не административным задачам. Однако для реализации этого будущего необходима четкая приверженность сохранению ответственности человека в основе медицинской практики.
Концепция «человек в процессе принятия решения» должна означать нечто большее, чем просто символический контроль. Она должна предусматривать, что за каждое медицинское решение отвечает конкретный человек, понимает его обоснование и обладает как полномочиями, так и обязанностью отменять рекомендации алгоритмов. Она также должна подразумевать прозрачность, объяснимость и информированное согласие пациента, а также стремление инвестировать в врачей-людей, а не заменять их искусственным интеллектом.
Основной риск заключается не в чрезмерной мощи искусственного интеллекта, а скорее в готовности учреждений отказаться от ответственности. В стремлении к эффективности и инновациям существует опасность того, что медицина превратится в технически развитую, административно оптимизированную область, но лишенную моральной основы.
Размышляя о будущем, крайне важно задать вопрос: каким целителем мы представляем себя у постели больного в 2035 году? Этот вопрос требует коллективного морального воображения, побуждая нас формировать будущее, в котором человеческая ответственность и сострадательная забота останутся в основе медицинской практики. Мобилизация коллективных усилий будет иметь решающее значение для обеспечения того, чтобы достижения в области искусственного интеллекта укрепляли, а не подрывали эти фундаментальные ценности.
Искусственный интеллект пока не получил разрешения на медицинскую практику. Но медицина незаметно перестраивается вокруг систем, не несущих морального веса. Если этот процесс будет продолжаться бесконтрольно, однажды мы можем обнаружить, что врача заменила не машина, а протокол, и что, когда причиняется вред, отвечать за это некому.
Это не было бы прогрессом. Это было бы отречением от престола.
-
Джозеф Варон, доктор медицины, Врач-реаниматолог, профессор и президент Независимого медицинского альянса. Он является автором более 980 рецензируемых публикаций и главным редактором журнала «Journal of Independent Medicine».
Посмотреть все сообщения