Волгоград, Волгоградская область, Россия
ВАК 5.1.1 Теоретико-исторические правовые науки
ВАК 5.1.2 Публично-правовые (государственно-правовые) науки
ВАК 5.1.3 Частно-правовые (цивилистические) науки
ВАК 5.1.4 Уголовно-правовые науки
ВАК 5.1.5 Международно-правовые науки
УДК 340.143 Юриспруденция. Роль юриспруденции и ученых-правоведов в установлении правовых норм
ГРНТИ 10.00 ГОСУДАРСТВО И ПРАВО. ЮРИДИЧЕСКИЕ НАУКИ
ГРНТИ 10.07 Теория государства и права
ОКСО 10.05.05 Безопасность информационных технологий в правоохранительной сфере
ББК 67 Право. Юридические науки
ББК 60 Общественные науки в целом
ТБК 2323 Правоведение
BISAC LAW LAW
Целью работы является определение основных направлений развития искусственного интеллекта при оказании телемедицинской помощи, требующих дополнительного правового регулирования. Оказание медицинской помощи принципиально видоизменяется под влиянием информатизации, проявляющейся в том числе в увеличении роли искусственного интеллекта и телемедицинских технологий. В своей совокупности два этих явления порождают сложности для законодательных и правоприменительных органов. Работа направлена на выявление и выработку предложений по улучшению правового регулирования искусственного интеллекта в телемедицине. В результате исследования обозначены основные проблемы использовании искусственного интеллекта в телемедицине: (1) проблема качества исходных данных; (2) проблема потери способности к обобщению; (3) проблема длительности использования непрерывного обучения; (4) проблема уникальности данных; (5) проблема ответственности; (6) проблема персональных данных.
медицина, телемедицина, информатизация, цифровизация, искусственный интеллект, правовое регулирование, телемедицинские технологии
Оказание медицинской помощи должно развиваться сообразно тенденциям времени, обеспечивая наилучшую возможную заботу о жизни и здоровье людей. Это означает неизбежность все большего вовлечения в указанный процесс информационных технологий. Однако инновации неизбежно несут за собой новые, нетипичные для прошлых периодов риски. Один из способов их избежать, не препятствуя прогрессу – создать полное и точное правовое регулирование информационных технологий в медицине.
Проблемы правового регулирования искусственного интеллекта в медицине, в т.ч. в телемедицине, являлись объектом исследований в зарубежных странах и в России. Наиболее содержательные работы зарубежных ученых по данной тематике принадлежат Ahmad R.W., Chouhan S.S., Forgo N., Gioulekas F., Kalra A., Nobile C.G., Prainsack B. [4]. Среди отечественных ученых следует выделить Афанасьеву Е.Н., Варюшина М.С., Давыдову М.Л. [5], Киселева А.С. [6], Никитенко С.В., Старчикова М.Ю., Подузову Е.Б. [7].
При этом работы по тематике настоящего исследования носят преимущественно обзорный характер, ограничиваются описанием сфер использования искусственного интеллекта в телемедицине, правовых актов в этой области и их основных проблем. Предложенные решения имеют обычно самый общий характер.
В исследовании наибольшее внимание уделяется следующим методам: синергетика, позволяющая объединить достижения в сферах медицины, права и информационных технологий; методы системного и структурного анализа. Теоретическая основа исследования основывается на основных принципах правового регулирования отношений в сфере охраны здоровья, в том числе – соблюдения прав граждан, приоритета интересов пациента, приоритета профилактики, соблюдения врачебной тайны.
Искусственный интеллект в сфере оказания медицинской помощи и телемедицина по отдельности – явления не новые, а уже достаточно апробированные и на сегодняшний день активно развивающиеся и масштабирующийся. Однако их совместное применение еще весьма мало распространено, а правовое регулирование весьма ограничено, что создает ряд вопросов, касающихся преимущественно безопасности, эффективности и ответственности соединения искусственного интеллекта с телемедициной.
Указанные риски в целом типичны для применения искусственного интеллекта. Обладая неоспоримыми преимуществами (автономность, способность принимать незапрограмированные решения, способность к обучению), искусственный интеллект при этом непредсказуем, может развиваться бесконтрольно, что в области медицины означает возможность причинения вреда жизни и здоровью человека [8]. Эти риски, имманентно присущие искусственному интеллекту, требуют как технических, так и правовых решений, позволяющих их минимизировать либо устранить.
Непрерывное обучение искусственного интеллекта предполагает четыре основных проблемы [2]:
1. Качество исходных данных. Принципиально различаются между собой ситуации, когда исходные данные для ИИ предоставляет врач и когда они заносятся пациентом либо устройством в автоматическом режиме. Так, уже достаточно распространены устройства, которые собирают данные об организме человека (например, о количестве сахара в крови) и на этой основе выдают рекомендации о дальнейших действиях. Но если программы без использования ИИ делают это по установленному алгоритму, то устройство с ИИ способно адаптироваться к конкретному пациенту, вырабатывать для него более точные и индивидуальные рекомендации. Однако здесь возрастает риск некорректного применения, которому в особенности подвержены дети или пожилые люди, т.е. пациенты, которые в силу различных факторов не всегда могут правильно оценить, проконтролировать свои действия или представить серьезность их последствий.
Например, ребенок может получить неверный совет от устройства, лишь потому что сам неправильно его использовал или вовсе передал другому лицу, что теоретически способно повлечь вред здоровью пациента. Неизбежно возникает вопрос, кто должен будет понести ответственность в данном случае: производитель устройства, врач или законный представитель пациент (либо сам пациент)? Представляется верным ответ на этот вопрос, который дан в законодательстве Европейского Союза, которое предусматривает презумпцию вины производителя, которая предполагается до момента, когда установлено, что пользователь «существенно вмешался в условия работы системы искусственного интеллекта или был обязан и мог определить условия работы системы искусственного интеллекта, но не сделал этого».
2. Потеря способности к обобщению. Некоторые модели искусственного интеллекта сталкиваются с проблемой переобучения. После завершения обучения модель должна самостоятельно формировать новые правила, новые данные обобщать до закономерностей. При этом некоторые модели по разным причинам (имманентная склонность к этому, ошибки разработчиков, поведение пользователя), сталкиваясь с новыми данными, начинают переобучаться на них – не формируя правила, а фиксируя отдельные исключения. Например, медицинский ИИ, получив данные о пользователе устройства во время болезни, не обобщает и адаптирует свои рекомендации к комплексу наблюдаемых данных, а, напротив, не может объединить разнородные данные в единый вывод, разработать рекомендации с учетом всей их общности. Конкретные данные в итоге не возводятся на уровень обобщений, а остаются на уровне конкретных примеров, при которых даются одинаковые ответы. Нивелировать этот риск можно фактически только с помощью установления требования к разработчикам выпускать в обращение только устойчивые модели ИИ, и закрепления ответственности разработчика во всех случаях потери способности к обобщению.
3. Длительность использования непрерывного обучения. Указанные выше проблемы особенно сильно проявляются в случаях, когда непрерывное обучение проводится на длительных временных отрезках. Если устройство наблюдает отдельного человека на протяжении месяцев и лет, повышаются риски и некачественных исходных данных, и потери способности к обучению. Более того, сам факт наблюдения за конкретным человеком, с одной стороны, адаптирует ИИ к особенностям его организма, а с другой – увеличивает вероятность «когнитивных» искажений ИИ, связанных с объемом данных, выборка которых существенно ограничена.
4. Уникальность данных. Медицинские устройства, использующие ИИ, рассчитаны на среднестатистических людей, но поскольку обучение происходит на больших массивах данных, для них не становится непреодолимым препятствием некое отклонение от нормы. Проблемы могут возникать, например, когда пациент обладает некими уникальными особенностями организма или болезни. ИИ в этих случаях приходится «импровизировать», что создает неконтролируемые риски его поведения.
Закон ЕС об искусственном интеллекте устанавливает для минимизации рисков двух последних групп обязанность производителей осуществлять постпродажный мониторинг. Полагаем, этой обязанности недостаточно – поскольку она, в первую очередь, позволяет исправить поведение ИИ на основе уже случившихся ситуаций, повлекших негативные последствия. Более того, существует дискуссия и об ответственности в таких случаях – насколько должен отвечать производитель устройства за последствия ситуаций, которые возникли по причине развития ИИ на основе данных, которые производитель не контролировал, их сбор происходит в нормальном порядке, однако в итоге ИИ принял неверные решения [3]. Полагаем, что ответ в этой ситуации будет являться неидеальным и спорным, но единственно возможным – производитель должен являться лицом, несущим ответственность, что будет стимулировать его улучшать свой продукт и предпринимать превентивные меры по обеспечению его безопасности.
Еще одним вопросом, который неизбежно возникает при объединении искусственного интеллекта и телемедицины – защита персональных данных пациентов [1]. Однако правовое решение здесь является не слишком сложным: медицинские учреждения вправе передавать такие базы данных в обезличенном виде, не позволяющем привязать конкретную информацию к определенному лицу, поскольку в этом случае сведения утратят характер персональных данных.
Таким образом, применение искусственного интеллекта в телемедицине сопряжено с определенными рисками, проистекающими из имманентно присущих ему проблем: (1) проблема качества исходных данных; (2) проблема потери способности к обобщению; (3) проблема длительности использования непрерывного обучения; (4) проблема уникальности данных. Указанные проблемы требуют в том числе юридических решений. Дополнительно возникают сугубо правовые проблемы: ответственности за решения, принятые с помощью искусственного интеллекта, и проблема сохранности персональных данных.
1. Chouhan S.S. (2025). «The Role of AI in Telemedicine: Legal and Regulatory Perspective». International Journal of Law Management & Humanities. Vol. 8, № 3, p. 1296-1305.
2. Gallese Nobile C. (2023). «Legal Aspects of the Use Artificial Intelligence in Telemedicine». Journal of Digital Technologies and Law. № 1(2), p. 314–336.
3. Matthias A. (2004). «The coming collision between autonomous vehicles and the liability system». Santa Clara Law Review. № 52, p. 1321-1340.
4. Prainsack B., Forgo N. (2024). «New AI regulation in the EU seeks to reduce risk without assessing public benefit». Nature Medicine. № 30, p. 1235-1237.
5. Давыдова М.Л. Телемедицина и экспериментальные правовые режимы в области здравоохранения: проблемы и перспективы внедрения // Вестник Российского университета дружбы народов. Серия: Юридические науки. – 2023. – Т. 27, № 3. – С. 564-582.
6. Киселев А.С. Проблемы и перспективы правового регулирования общественных отношений, связанных с применением нейросетей // Lex russica. –2024. – 77(2). – С. 140-151.
7. Подузова Е.Б. Персональные данные пациента и его законного представителя: специфика электронного предоставления в контексте применения технологий «искусственного интеллекта» в digital-медицине // Актуальные проблемы российского права. – 2023. – Т. 18, № 4(149). – С. 86-92.
8. Никитенко С.В. Международно-правовое регулирование использования искусственного интеллекта в области медицины / С.В. Никитенко // Вестник Волжского университета им. В.Н. Татищева. – 2023. – Т. 1, № 3(105). – С. 215-229.



