<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Advances in Law Studies</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Advances in Law Studies</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Advances in Law Studies</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">2409-5087</issn>
   <issn publication-format="online">2500-428X</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">106336</article-id>
   <article-id pub-id-type="doi">10.29039/2409-5087-2025-13-4-106-110</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>ЧАСТНО-ПРАВОВЫЕ НАУКИ</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>PRIVATE LAW SCIENCES</subject>
    </subj-group>
    <subj-group>
     <subject>ЧАСТНО-ПРАВОВЫЕ НАУКИ</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">The main problems of legal regulation of artificial intelligence in telemedicine</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Основные проблемы правового регулирования искусственного интеллекта в телемедицине</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Усенков</surname>
       <given-names>Иван Алексеевич</given-names>
      </name>
      <name xml:lang="en">
       <surname>Usenkov</surname>
       <given-names>Ivan Alekseevich</given-names>
      </name>
     </name-alternatives>
     <email>usenivan@yandex.ru</email>
     <bio xml:lang="ru">
      <p>кандидат юридических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>candidate of jurisprudence sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Волгоградский государственный университет</institution>
     <country>Россия</country>
    </aff>
    <aff>
     <institution xml:lang="en">Волгоградский государственный университет</institution>
     <country>Russian Federation</country>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2025-12-25T01:32:35+03:00">
    <day>25</day>
    <month>12</month>
    <year>2025</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2025-12-25T01:32:35+03:00">
    <day>25</day>
    <month>12</month>
    <year>2025</year>
   </pub-date>
   <volume>13</volume>
   <issue>4</issue>
   <fpage>106</fpage>
   <lpage>110</lpage>
   <history>
    <date date-type="received" iso-8601-date="2025-11-09T00:00:00+03:00">
     <day>09</day>
     <month>11</month>
     <year>2025</year>
    </date>
   </history>
   <self-uri xlink:href="https://alsj.ru/en/nauka/article/106336/view">https://alsj.ru/en/nauka/article/106336/view</self-uri>
   <abstract xml:lang="ru">
    <p>Целью работы является определение основных направлений развития искусственного интеллекта при оказании телемедицинской помощи, требующих дополнительного правового регулирования. Оказание медицинской помощи принципиально видоизменяется под влиянием информатизации, проявляющейся в том числе в увеличении роли искусственного интеллекта и телемедицинских технологий. В своей совокупности два этих явления порождают сложности для законодательных и правоприменительных органов. Работа направлена на выявление и выработку предложений по улучшению правового регулирования искусственного интеллекта в телемедицине. В результате исследования обозначены основные проблемы использовании искусственного интеллекта в телемедицине: (1) проблема качества исходных данных; (2) проблема потери способности к обобщению; (3) проблема длительности использования непрерывного обучения; (4) проблема уникальности данных; (5) проблема ответственности; (6) проблема персональных данных.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>The aim of the work is to identify the main directions of artificial intelligence development in the provision of telemedicine care that require additional legal regulation. The provision of medical care is fundamentally changing under the influence of informatization, which is manifested, among other things, in the increasing role of artificial intelligence and telemedicine technologies. Taken together, these two phenomena create difficulties for legislative and law enforcement agencies. The work is aimed at identifying and developing proposals for improving the legal regulation of artificial intelligence in telemedicine. As a result of the study, the main problems of using artificial intelligence in telemedicine are identified: (1) the problem of the quality of the source data; (2) the problem of loss of generalization ability; (3) the problem of the duration of continuous learning; (4) the problem of data uniqueness; (5) the problem of responsibility; (6) The problem of personal data. The study is financially supported by the Russian Science Foundation, project № 23-78-10175, https://rscf.ru/project/23-78-10175/.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>медицина</kwd>
    <kwd>телемедицина</kwd>
    <kwd>информатизация</kwd>
    <kwd>цифровизация</kwd>
    <kwd>искусственный интеллект</kwd>
    <kwd>правовое регулирование</kwd>
    <kwd>телемедицинские технологии</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>medicine</kwd>
    <kwd>telemedicine</kwd>
    <kwd>informatization</kwd>
    <kwd>digitalization</kwd>
    <kwd>artificial intelligence</kwd>
    <kwd>legal regulation</kwd>
    <kwd>telemedicine technologies</kwd>
   </kwd-group>
   <funding-group>
    <funding-statement xml:lang="ru">Исследование выполнено за счет средств гранта Российского научного фонда № 23-78-10175, https://rscf.ru/project/23-78-10175/.</funding-statement>
    <funding-statement xml:lang="en">The study is financially supported by the Russian Science Foundation, project № 23-78-10175, https://rscf.ru/project/23-78-10175/.</funding-statement>
   </funding-group>
  </article-meta>
 </front>
 <body>
  <p>Оказание медицинской помощи должно развиваться сообразно тенденциям времени, обеспечивая наилучшую возможную заботу о жизни и здоровье людей. Это означает неизбежность все большего вовлечения в указанный процесс информационных технологий. Однако инновации неизбежно несут за собой новые, нетипичные для прошлых периодов риски. Один из способов их избежать, не препятствуя прогрессу – создать полное и точное правовое регулирование информационных технологий в медицине.Проблемы правового регулирования искусственного интеллекта в медицине, в т.ч. в телемедицине, являлись объектом исследований в зарубежных странах и в России. Наиболее содержательные работы зарубежных ученых по данной тематике принадлежат Ahmad R.W., Chouhan S.S., Forgo N., Gioulekas F., Kalra A., Nobile C.G., Prainsack B. [4]. Среди отечественных ученых следует выделить Афанасьеву Е.Н., Варюшина М.С., Давыдову М.Л. [5], Киселева А.С. [6], Никитенко С.В., Старчикова М.Ю., Подузову Е.Б. [7].При этом работы по тематике настоящего исследования носят преимущественно обзорный характер, ограничиваются описанием сфер использования искусственного интеллекта в телемедицине, правовых актов в этой области и их основных проблем. Предложенные решения имеют обычно самый общий характер.В исследовании наибольшее внимание уделяется следующим методам: синергетика, позволяющая объединить достижения в сферах медицины, права и информационных технологий; методы системного и структурного анализа. Теоретическая основа исследования основывается на основных принципах правового регулирования отношений в сфере охраны здоровья, в том числе – соблюдения прав граждан, приоритета интересов пациента, приоритета профилактики, соблюдения врачебной тайны.Искусственный интеллект в сфере оказания медицинской помощи и телемедицина по отдельности – явления не новые, а уже достаточно апробированные и на сегодняшний день активно развивающиеся и масштабирующийся. Однако их совместное применение еще весьма мало распространено, а правовое регулирование весьма ограничено, что создает ряд вопросов, касающихся преимущественно безопасности, эффективности и ответственности соединения искусственного интеллекта с телемедициной.Указанные риски в целом типичны для применения искусственного интеллекта. Обладая неоспоримыми преимуществами (автономность, способность принимать незапрограмированные решения, способность к обучению), искусственный интеллект при этом непредсказуем, может развиваться бесконтрольно, что в области медицины означает возможность причинения вреда жизни и здоровью человека [8]. Эти риски, имманентно присущие искусственному интеллекту, требуют как технических, так и правовых решений, позволяющих их минимизировать либо устранить.Непрерывное обучение искусственного интеллекта предполагает четыре основных проблемы [2]:1. Качество исходных данных. Принципиально различаются между собой ситуации, когда исходные данные для ИИ предоставляет врач и когда они заносятся пациентом либо устройством в автоматическом режиме. Так, уже достаточно распространены устройства, которые собирают данные об организме человека (например, о количестве сахара в крови) и на этой основе выдают рекомендации о дальнейших действиях. Но если программы без использования ИИ делают это по установленному алгоритму, то устройство с ИИ способно адаптироваться к конкретному пациенту, вырабатывать для него более точные и индивидуальные рекомендации. Однако здесь возрастает риск некорректного применения, которому в особенности подвержены дети или пожилые люди, т.е. пациенты, которые в силу различных факторов не всегда могут правильно оценить, проконтролировать свои действия или представить серьезность их последствий. Например, ребенок может получить неверный совет от устройства, лишь потому что сам неправильно его использовал или вовсе передал другому лицу, что теоретически способно повлечь вред здоровью пациента. Неизбежно возникает вопрос, кто должен будет понести ответственность в данном случае: производитель устройства, врач или законный представитель пациент (либо сам пациент)? Представляется верным ответ на этот вопрос, который дан в законодательстве Европейского Союза, которое предусматривает презумпцию вины производителя, которая предполагается до момента, когда установлено, что пользователь «существенно вмешался в условия работы системы искусственного интеллекта или был обязан и мог определить условия работы системы искусственного интеллекта, но не сделал этого».2. Потеря способности к обобщению. Некоторые модели искусственного интеллекта сталкиваются с проблемой переобучения. После завершения обучения модель должна самостоятельно формировать новые правила, новые данные обобщать до закономерностей. При этом некоторые модели по разным причинам (имманентная склонность к этому, ошибки разработчиков, поведение пользователя), сталкиваясь с новыми данными, начинают переобучаться на них – не формируя правила, а фиксируя отдельные исключения. Например, медицинский ИИ, получив данные о пользователе устройства во время болезни, не обобщает и адаптирует свои рекомендации к комплексу наблюдаемых данных, а, напротив, не может объединить разнородные данные в единый вывод, разработать рекомендации с учетом всей их общности. Конкретные данные в итоге не возводятся на уровень обобщений, а остаются на уровне конкретных примеров, при которых даются одинаковые ответы. Нивелировать этот риск можно фактически только с помощью установления требования к разработчикам выпускать в обращение только устойчивые модели ИИ, и закрепления ответственности разработчика во всех случаях потери способности к обобщению.3. Длительность использования непрерывного обучения. Указанные выше проблемы особенно сильно проявляются в случаях, когда непрерывное обучение проводится на длительных временных отрезках. Если устройство наблюдает отдельного человека на протяжении месяцев и лет, повышаются риски и некачественных исходных данных, и потери способности к обучению. Более того, сам факт наблюдения за конкретным человеком, с одной стороны, адаптирует ИИ к особенностям его организма, а с другой – увеличивает вероятность «когнитивных» искажений ИИ, связанных с объемом данных, выборка которых существенно ограничена. 4. Уникальность данных. Медицинские устройства, использующие ИИ, рассчитаны на среднестатистических людей, но поскольку обучение происходит на больших массивах данных, для них не становится непреодолимым препятствием некое отклонение от нормы. Проблемы могут возникать, например, когда пациент обладает некими уникальными особенностями организма или болезни. ИИ в этих случаях приходится «импровизировать», что создает неконтролируемые риски его поведения.Закон ЕС об искусственном интеллекте устанавливает для минимизации рисков двух последних групп обязанность производителей осуществлять постпродажный мониторинг. Полагаем, этой обязанности недостаточно – поскольку она, в первую очередь, позволяет исправить поведение ИИ на основе уже случившихся ситуаций, повлекших негативные последствия. Более того, существует дискуссия и об ответственности в таких случаях – насколько должен отвечать производитель устройства за последствия ситуаций, которые возникли по причине развития ИИ на основе данных, которые производитель не контролировал, их сбор происходит в нормальном порядке, однако в итоге ИИ принял неверные решения [3]. Полагаем, что ответ в этой ситуации будет являться неидеальным и спорным, но единственно возможным – производитель должен являться лицом, несущим ответственность, что будет стимулировать его улучшать свой продукт и предпринимать превентивные меры по обеспечению его безопасности. Еще одним вопросом, который неизбежно возникает при объединении искусственного интеллекта и телемедицины – защита персональных данных пациентов [1]. Однако правовое решение здесь является не слишком сложным: медицинские учреждения вправе передавать такие базы данных в обезличенном виде, не позволяющем привязать конкретную информацию к определенному лицу, поскольку в этом случае сведения утратят характер персональных данных.Таким образом, применение искусственного интеллекта в телемедицине сопряжено с определенными рисками, проистекающими из имманентно присущих ему проблем: (1) проблема качества исходных данных; (2) проблема потери способности к обобщению; (3) проблема длительности использования непрерывного обучения; (4) проблема уникальности данных. Указанные проблемы требуют в том числе юридических решений. Дополнительно возникают сугубо правовые проблемы: ответственности за решения, принятые с помощью искусственного интеллекта, и проблема сохранности персональных данных.</p>
 </body>
 <back>
  <ref-list>
   <ref id="B1">
    <label>1.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Chouhan S.S. (2025). «The Role of AI in Telemedicine:  Legal and Regulatory Perspective». International Journal of Law Management &amp; Humanities. Vol. 8, № 3, p. 1296-1305.</mixed-citation>
     <mixed-citation xml:lang="en">Chouhan S.S. (2025). «The Role of AI in Telemedicine:  Legal and Regulatory Perspective». International Journal of Law Management &amp; Humanities. Vol. 8, № 3, p. 1296-1305.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B2">
    <label>2.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Gallese Nobile C. (2023). «Legal Aspects of the Use Artificial Intelligence in Telemedicine». Journal of Digital Technologies and Law. № 1(2), p. 314–336.</mixed-citation>
     <mixed-citation xml:lang="en">Gallese Nobile C. (2023). «Legal Aspects of the Use Artificial Intelligence in Telemedicine». Journal of Digital Technologies and Law. № 1(2), p. 314–336.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B3">
    <label>3.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Matthias A. (2004). «The coming collision between autonomous vehicles and the liability system». Santa Clara Law Review. № 52, p. 1321-1340.</mixed-citation>
     <mixed-citation xml:lang="en">Matthias A. (2004). «The coming collision between autonomous vehicles and the liability system». Santa Clara Law Review. № 52, p. 1321-1340.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B4">
    <label>4.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Prainsack B., Forgo N. (2024). «New AI regulation in the EU seeks to reduce risk without assessing public benefit». Nature Medicine. № 30, p. 1235-1237.</mixed-citation>
     <mixed-citation xml:lang="en">Prainsack B., Forgo N. (2024). «New AI regulation in the EU seeks to reduce risk without assessing public benefit». Nature Medicine. № 30, p. 1235-1237.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B5">
    <label>5.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Давыдова М.Л. Телемедицина и экспериментальные правовые режимы в области здравоохранения: проблемы и перспективы внедрения // Вестник Российского университета дружбы народов. Серия: Юридические науки. – 2023. – Т. 27, № 3. – С. 564-582.</mixed-citation>
     <mixed-citation xml:lang="en">Davydova M.L. Telemedicine and experimental legal regimes in the field of healthcare: problems and prospects of implementation // Bulletin of the Peoples' Friendship University of Russia. Series: Legal Sciences. – 2023. – Vol. 27, No. 3. – pp. 564-582.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B6">
    <label>6.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Киселев А.С. Проблемы и перспективы правового регулирования общественных отношений, связанных с применением нейросетей // Lex russica. –2024. – 77(2). – С. 140-151.</mixed-citation>
     <mixed-citation xml:lang="en">Kiselev A.S. Problems and prospects of legal regulation of public relations related to the use of neural networks // Lex russica. -2024. – 77(2). – Pp. 140-151.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B7">
    <label>7.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Подузова Е.Б. Персональные данные пациента и его законного представителя: специфика электронного предоставления в контексте применения технологий «искусственного интеллекта» в digital-медицине // Актуальные проблемы российского права. – 2023. – Т. 18, № 4(149). – С. 86-92.</mixed-citation>
     <mixed-citation xml:lang="en">Poduzova E.B. Personal data of the patient and his legal representative: the specifics of electronic provision in the context of the use of &quot;artificial intelligence&quot; technologies in digital medicine // Actual problems of Russian law. – 2023. – Vol. 18, No. 4(149). – pp. 86-92.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B8">
    <label>8.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Никитенко С.В. Международно-правовое регулирование использования искусственного интеллекта в области медицины / С.В. Никитенко // Вестник Волжского университета им. В.Н. Татищева. – 2023. – Т. 1, № 3(105). – С. 215-229.</mixed-citation>
     <mixed-citation xml:lang="en">Nikitenko S.V. International legal regulation of the use of artificial intelligence in the field of medicine / S.V. Nikitenko // Bulletin of the V.N. Tatishchev Volga State University. - 2023. – Vol. 1, No. 3(105). – pp. 215-229.</mixed-citation>
    </citation-alternatives>
   </ref>
  </ref-list>
 </back>
</article>
