ДОВЕРИЕ ПАЦИЕНТА К ПРИМЕНЕНИЮ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕДИЦИНЕ КАК НОВЫЙ ЭТИЧЕСКИЙ ВЫЗОВ

© 2024 Валерия Николаевна СОКОЛЬЧИК, Алексей Иванович РАЗУВАНОВ, Лина Сергеевна НАВИЦКАЯ

МАиБ 2024 – № 1(27)


DOI: https://doi.org/10.33876/2224-9680/2024-1-27/02

Ссылка при цитировании: Сокольчик В.Н., Разуванов А.И., Навицкая Л.С. (2024) Доверие пациента к применению искусственного интеллекта в медицине как новый этический вызов, Медицинская антропология и биоэтика, № 1(27).


Валерия Николаевна Сокольчик –

кандидат философских наук,

рук. Республиканского центра биоэтики,

доцент каф. организации здравоохранения Института повышения квалификации и переподготовки кадров здравоохранения Белорусского гос. медицинского университета

(Минск, Республика Беларусь)

https://orcid.org/0000-0002-4975-4052

Email: vsokolchik@mail.ru


Алексей Иванович Разуванов –

кандидат медицинских наук,

ученый секретарь ГУ

«Республиканский научно-практический центр медицинской экспертизы и реабилитации»

.

(Минск, Республика Беларусь)

.

https://orcid.org/0000-0001-5033-2933

Email:doc-rai@yandex.by


Лина Сергеевна Навицкая –

.

сотрудница Республиканского центра биоэтики,

магистрантка факультета философии и социальных наук

Белорусского государственного университета

.

(Минск, Республика Беларусь)

.

Email: 

polina.navitskaya@mail.ru


Ключевые слова:  доверие пациента; ответственность; искусственный интеллект; здравоохранение; система здравоохранения; этико-правовые рекомендации; этическое сопровождение

Аннотация.  Один из самых сложных вызовов применения искусственного интеллекта в современном здравоохранении – это доверие пациентов (и самих медицинских работников) к его использованию. Формирование доверия к искусственному интеллекту (далее – ИИ) складывается из многих факторов, где в числе наиболее значимых нужно назвать преодоление страхов и неуверенности в ИИ, опору на его правовое и этическое регулирование и разрешение вопросов ответственности за ошибки. Огромную роль в решении всех поставленных вопросов играет этическое сопровождение ИИ на всех этапах его создания, обучения и применения. На основании проведенного исследования, включавшего в том числе интервьюирование и опросы представителей системы здравоохранения, специалистов информационной сферы, педагогов, пациентов, ученых и т.д., авторы заключают, что реализация мер этико-правовой регламентации использования ИИ, создание экспертных и консультативных социально-этических структур для сопровождения использования ИИ, формирование этических требований к взаимодействию с ИИ и просвещение общества по поставленной проблеме – основные задачи и ступени формирования доверия общества к применению ИИ в медицине.


Введение

Один из самых сложных вызовов искусственного интеллекта заключается в ответе на вопрос: можем ли мы доверять ИИ? Доверие традиционно рассматривают как открытые взаимоотношения между людьми (либо между человеком и субъектом), содержащие уверенность в порядочности другого человека (субъекта), с которым доверяющий находится в тех или иных отношениях (Гайдук 2017).

Формирование ощущения доверия другому человеку (сообществу) – процесс достаточно сложный, неоднозначный, связанный с феноменами веры, ответственности, ценностей, понимания и т.д. Соответственно, вопрос доверия ИИ выходит за рамки традиционного восприятия понятия «доверие», поскольку здесь проблематизация взаимоотношений затрагивает взаимодействие с искусственным разумом, обладающим совершенно иными характеристиками, нежели человек, и, кроме того, не артикулирующим человеческую систему ценностей.

Особое значение доверие ИИ приобретает в системе здравоохранения, где использование систем ИИ возрастает с каждым днем и определяет «лицо» современной медицины. Здесь мы имеем в виду «нагруженность» медицины информационными технологиями – в сфере скрининга и анализа данных, работу с медицинскими изображениями, использование ИИ для проведения сложнейших манипуляций, организацию менеджмента здравоохранения, отслеживание состояния и динамики здоровья пациентов (через специальные девайсы и программы) и т.д.

Эффективность ИИ в медицине сложно отрицать. Положительный эффект его применения основывается на том, что он способен обрабатывать большой массив информации в сжатые сроки, что также может улучшить и облегчить деятельность человека и минимизировать количество ошибок. Так, по данным компании Deloitte (DeloitteToucheTohmatsuLimited 2023), сегодня искусственный интеллект входит в десятку лучших инноваций в сфере здравоохранения; компания USM Systems в своем исследовании утверждает, что до 50% международных медицинских организаций запланировали внедрить элементы искусственного интеллекта к 2025 г. (United States Cellular Corporation (USM) 2022). Согласно статистике, элементы ИИ в области здравоохранения чаще всего используются для помощи в диагностике и управлении процессами (United States Cellular Corporation (USM) 2022). Огромную помощь, оказываемую ИИ здравоохранению, представляет также работа с медицинской документацией, переведенной в цифровой формат, консультирование пациентов в режиме онлайн.

Медицинские информационные системы, построенные на основе алгоритмов ИИ, не только позволяют анализировать большие объемы данных, обрабатывая их статистически, но также упрощают принятие управленческих решений в организациях здравоохранения, обеспечивают контроль финансовых затрат на лечение и реабилитацию пациентов, алгоритмизируют организацию медицинских исследований, аккумулируют вспомогательную информацию в учреждениях здравоохранения.

Вместе с тем  все эти безусловные преимущества развития системы здравоохранения при применении ИИ порождают большое количество вопросов, связанных с этико-правовыми установками использования ИИ  и его обучения, с формированием продуманной системы применения ИИ в здравоохранении и созданием новой триады взаимоотношений «медицинский работник – ИИ – пациент», основанной на ответственности, этическом контроле и, главное, доверии.

Во многом именно доверие определяет нашу готовность взаимодействовать с ИИ, устанавливать ограничения для его использования, выстраивать механизмы контроля, и, в конечном итоге, принимать результаты и выводы, предложенные ИИ. В паттерне взаимоотношений человека и ИИ доверие становится основой сотрудничества и фундаментом для дальнейшего развития ИИ.

Основные результаты проведенных опросов по изучению этического сопровождения ИИ

В рамках проекта Республиканского центра биоэтики1 по изучению этического сопровождения ИИ наряду с анализом литературы и законодательных документов по рассматриваемой теме авторами настоящей статьи было проведено интервьюирование представителей медицинского исследовательского сообщества, членов независимых этических комитетов (НЭК), инженеров-программистов; организованы анонимные пилотные опросы представителей системы здравоохранения, специалистов IT-сферы, ученых, преподавателей, а также обучающихся об использовании ИИ в медицине, науке, образовании и возникающих новых этических вызовах. В рамках обозначенной темы были подготовлены и осуществлены конференции и вебинары совместно со странами СНГ.

Первый опрособ использовании ИИ в медицине и этических проблемах, возникающих в связи с этими перспективами, проводился в январе–марте 2023 г., в котором в общей сложности приняли участие 105 человек (был применен метод «снежного кома»).

Среди респондентов преобладали лица женского пола – 75,2% опрошенных, по профессиональной принадлежности включавшие научных сотрудников (87,5%), преподавателей (74,1%), врачей-специалистов (63,0%).

Большинство опрошенных находились в возрастном промежутке от 26 до 55 лет со следующим внутренним распределением: 26–35 лет – 36 (34,3%) человек, 36–45 лет – 29 (27,6%) человек, 46–55 лет – 23 (21,9%) человека. 16 респондентов (15,2%) указали, что являются членами НЭК (Разуванов, Сокольчик  2023) (рис. 1).

Рис. 1. Таблица – качественная характеристика респондентов опроса

* Таблица составлена на основании данных статьи: Разуванов А.И., Сокольчик В.Н. (2023) Этические вызовы применения элементов искусственного интеллекта в медицине и медицинских исследованиях, Вопросы организации и информатизации здравоохранения, № 2, с. 84–95.

**категория «иные» подразумевает следующих специалистов: учащийся, безработный, психолог, социальный работник, главный специалист отдела статистики, эмбриолог, библиотекарь, медицинский представитель, специалист колл-центра, аудитор.

Второй опрос «ChatGPT и другие инструменты генеративного искусственного интеллекта: влияние на современное образование и науку» проводится с июня 2024 г., также с применением метода «снежного кома», по данным на ноябрь 2024 г. в нем приняли участие 130 человек. Среди респондентов преобладают лица женского пола (65,5%), по профессиональной принадлежности состоящие из ученых/исследователей (33,6%), преподавателей (28,2%), медицинских работников (21,8%). Большинство опрошенных находятся в возрастном промежутке от 18 до 55 лет со следующим внутренним распределением: 18–25 лет – 23 (20,9%) человека, 26–35 лет – 21 (19,1%) человек, 36–45 лет – 33 (30,0%) человека, 46–55 лет – 20 (18,2%) человек, 5 респондентов (4,5%) указали, что являются членами НЭК.

В целом, на основании приведенных в опросах мнений респондентов, а также с учетом интервьюирования специалистов и дискуссий на вебинарах, посвященных этическому сопровождению ИИ в науке и образовании, проводимых Республиканским центром биоэтики в 2024 г., можно сделать вывод о том, что уровень доверия ИИ как в медицине, так и в науке/образовании недостаточно высок.

Среди наиболее частых проблем использования ИИ, отражающих недоверие пользователей, участники первого опроса об применении ИИ в медицине отмечали актуальность ошибок ИИ, были обеспокоены обеспечением конфиденциальности данных пациентов при использовании ИИ, отмечали важность оценки влияния дискриминации при применении ИИ (например, разный уровень знаний испытуемых) и т.д.  Комментарии респондентов: «список вопросов, полагаю будет, расти в геометрической прогрессии» и «необходимо определить предел “компетенций” ИИ в медицине – что может и чего не может делать ИИ», на наш взгляд, также подчеркивают некоторую тревогу и недоверие к использованию ИИ в медицине (Разуванов, Сокольчик, 2023).

В опросе, посвященном влиянию генеративного ИИ на науку и образование, респонденты также отмечают негативные факторы, связанные с использованием ИИ, – такие как снижение достоверности научных исследований (41,4%), проблемы с научной честностью (42,9%), снижение креативности мышления ученых, преподавателей, обучающихся (32,9%), а также рост плагиаризма, ошибки и галлюцинации ИИ, недоверие к полученным с помощью ИИ данным и т.д.

В целом, причин недоверия к ИИ может быть названо несколько. Прежде всего, недоверие связано с недостаточным уровнем понимания, что же такое ИИ. В рамках пилотного опроса, посвященного использованию ИИ в медицине, респонденты преимущественно обозначали ИИ как «Технологии, имитирующие (моделирующие) мыслительные функции человека», «Машины или программы, обеспечивающие решения необходимых задач», «Искусственный аналог человеческого интеллекта».

По мнению авторов, отсутствие четкой артикуляции и понимания классификации систем ИИ в общественном дискурсе порождает ощущение неуверенности, невключенности в систему взаимодействия с ИИ и, соответственно, недоверие пользователей (в контексте здравоохранения – как медицинских работников, так и пациентов).

В свою очередь, «разночтения» в понимании ИИ не позволяют адекватно и единообразно проводить экспертизу медицинских научных исследований с использованием ИИ членами этических комитетов. Решением данной проблемы является дополнительное обучение специалистов, проводящих медицинские исследования и осуществляющих их экспертизу, – т.е. необходимы специализированные семинары/воркшопы/круглые столы о современных исследованиях по применению элементов ИИ в медицине, о существующей этико-правовой базе в отношении ИИ, новых подходах и преимуществах использования ИИ в исследованиях для аспирантов и докторантов, врачей-специалистов, членов НЭК.

Так, большинство респондентов в ходе нашего первого опроса отметили, что «слышали об ИИ» (86,7%), но только  шесть (5,7%) респондентов ответили, что «знают и постоянно работают с элементами ИИ в своей практической деятельности».

Рис. 2. Сводная таблица – осведомленность респондентов о применении ИИ в медицинской деятельности и практической работе с ним (по результатам опроса медицинских работников)

* Таблица составлена на основании данных статьи: Разуванов А.И., Сокольчик В.Н. (2023) Этические вызовы применения элементов искусственного интеллекта в медицине и медицинских исследованиях,  Вопросы организации и информатизации здравоохранения, № 2, с. 84–95.

Опираясь на данные пилотного опроса и интервьюирования специалистов, авторы констатируют наличие проблемы понимания сущности ИИ в медицинской среде (как, впрочем, и в обществе в целом). Безусловно, понимание варьируется в зависимости от уровня знаний и опыта в сфере информационных технологий, что, в целом, являлось ожидаемым. Далеко не все опрошенные видят в ИИ потенциал для автоматизации работы систем здравоохранения и улучшения их производительности, включая потенциал ИИ для проведения медицинских исследований и соответствующего обучения. В то же время многие респонденты обозначают ИИ как возможную угрозу для рабочих мест и безопасности данных. Так, в рамках проводимого в данный момент опроса о влиянии генеративного ИИ на образование и науку, большая часть респондентов (77,6%) считает, что серьезной проблемой для социума и человека станет ошибочная информация, предлагаемая ИИ, а 49,3% респондентов считают, что генеративный ИИ оказывает существенное негативное влияние на развитие науки.

Проблему непонимания ИИ и, как следствие, недоверия к нему обозначил еще в 70-е годы прошлого века японский ученый Масахиро Мори (Mori, MacDorman, Kageki  2012), определив ее как «феномен зловещей долины» (uncanny velley). В этом феномене был зафиксирован страх людей перед антропоморфными роботами и ИИ, проявляющим признаки человеческого интеллекта. Несмотря на значительный промежуток времени, отделяющий нас от высказывания Мори, ситуация не становится более сбалансированной, скорее наоборот, колоссальные темпы развития и использования систем ИИ на практике при недостаточности просвещения пользователей по этому вопросу, по прежнему вызывают страх, непонимание и недоверие у значительной части населения.

Еще одна важная причина недоверия к применению ИИ в здравоохранении – это достаточно частые ошибки и галлюцинации ИИ (в том числе ошибки, которые в профессиональной сфере могут привести к трагическим последствиям), ложь и заблуждения, которые ИИ нередко продуцирует в ответ на запросы человека, предубеждения ИИ (связанные с особенностями представлений разработчиков, некорректным использованием баз данных и отсутствием учета социокультурных особенностей среды, где будут применяться системы ИИ), непрозрачность предоставляемых ИИ выводов (результатов) и т.д.

Безусловно, многие основания недоверия к ИИ будут со временем «сниматься», вследствие развития последнего, однако, во-первых, с расширением нашего постоянного взаимодействия с ИИ будут появляться новые проблемы и вызовы доверия, и, во-вторых, в отсутствие внимания к проблеме и в отсутствие потребности ее решать, феномен «зловещей долины», вероятно, будет прогрессировать в общественном и индивидуальном сознании (Fisher, Gillespie, Malta, Gobbi 2023).

Непонимание сущности ИИ усиливается недостаточностью его этико-правового сопровождения и регулирования. Это – еще одна базовая причина недоверия к ИИ. В контексте системы здравоохранения пациенты (равно как медицинские работники) должны быть уверены, что сформирована система ответственности за действия и решения ИИ, что этические принципы и правила современной медицины (начиная от принципов современной биомедицинской этики – автономия личности, справедливость, принципы «не навреди» и «делай добро»), ее базовые ценности (ценность человеческой жизни и ценность улучшения ее качества) заложены в основу обучения ИИ.

Сегодня обществу необходимы этико-правовые стандарты и рекомендации, обеспечивающие взвешенное и взаимообусловленное сотрудничество в системе взаимоотношений «разработчик ИИ – ИИ – пользователь ИИ». Необходимо понимать, что такие стандарты могут опираться, скорее, на этические нормы регулирования взаимоотношений, нежели на жесткие нормы права. Это связано со скоростью развития ИИ и технологий его разработок и непредсказуемостью путей совершенствования и распространения ИИ. По мнению авторов, наиболее приемлемым путем регулирования взаимодействия ИИ с человеком в контексте доверия последнего к искусственному интеллекту являются этико-правовые рекомендации и общая регламентация принципов взаимодействия.

В ряду наиболее общих уже действующих документов, регулирующих развитие, обучение и взаимодействие с ИИ, можно назвать этические рекомендации Международной коалиции регуляторных органов в области лекарственных средств (ICMRA) для сфер клинической медицины и фармацевтики 2021 г. (ICMRA  2021); рекомендации по этике использования ИИ Юнеско 2021 г. (UNESCO  2021), руководство ВОЗ (WHO) по этике и управлению использованием Искусственного интеллекта в здравоохранении 2021 г. (WHO  2021), российский кодекс этики искусственного интеллекта (Альянс в сфере искусственного интеллекта (Россия) 2022), Билль о правах ИИ США (The White House  2022) и утвержденный в мае 2024 г. Регламент использования ИИ (Artificial Intelligence Act) Европейского союза (далее – Регламент) (Европейский Союз 2024).

Регламент, подготовленный в 2024 г., аккумулирует и классифицирует наиболее значимые идеи и подходы к работе с ИИ, обозначенные в вышеперечисленных документах. Авторы регламента, определяя цели создания соответствующего документа, отмечают значимость ограничений ИИ в контексте его влияния на человека и общество и в контексте формирования доверия общества к ИИ. Акцентируется, что регламент нацелен на уважение свободы науки и развитие ИИ, «очерчивает» общие направления и этические рамки такого развития.

Так, в Регламенте ИИ, обозначены  три группы систем ИИ и общие установки их регулирования (Европейский Союз 2024).

Первую группу составляют «запрещенные системы», которые воздействуют на подсознание человека, могут «вычислять» слабые стороны социальных групп, взаимоотношений, человеческой личности и т.д., а также системы ИИ, которые осуществляют разного рода социальную оценку, выработку критериев распределения и принимают соответствующие решения. Такие системы должны быть взяты под постоянный контроль общественных структур (включая и профессиональные службы), требуют применения достаточно жестких ограничений вплоть до полного запрещения (ограничения) соответствующих исследований.

Вторую группу составляют системы высокого риска, где вероятность причинения ущерба, несправедливого распределения и т.д. достаточно велика. По мнению разработчиков документа, использование таких систем может привести к дискриминации и стигматизации в обществе, установлению несправедливых систем распределения и другим неблагоприятным последствиям для социума. С системами высокого риска мы сталкиваемся в сфере финансов, медицины, правосудия, при организации доступа к значимым ресурсам – таким как электричество, телекоммуникации и др. Типичный пример – сортировка пациентов для неотложной медицинской помощи (например, в ситуации катастроф, пандемий и проч.), которая при отсутствии этического обучения ИИ (а также разработчика) может привести не только к «механистическому» подходу к человеку, но и к летальным исходам, которых можно было бы избежать, и даже к разрушению ценностей нашей цивилизации. По мнению авторов, к таким системам сегодня уже можно отнести и некоторые системы генеративного ИИ, которые оказывают значимое негативное влияние на образование, науку, искусство. В ходе изучения систем высокого риска  (с точки зрения их воздействия на человека), в контексте приоритетной социальной и личностной коммуникации с ИИ также могут формироваться проблемы эмоциональной зависимости от ИИ, разрушения социальной адаптации, потери адекватного восприятия реальности. Особенностями работы с системами ИИ высокого риска, реализация которых может обеспечить доверие общества, являются:

– требование использования систем ИИ с учетом предполагаемой цели создания;

– непрерывная система управления рисками на протяжении всего жизненного цикла;

– постоянный мониторинг взаимодействия ИИ с человеком и со средой;

– адекватное обозначение (в т.ч. в качестве инструктажа) любых возможных рисков целевого и нецелевого использования ИИ;

– необходимость социально-этической экспертизы систем ИИ;

– обучение ИИ с использованием высококачественных данных, обязательное использование при обучении ИИ этических регулятивов (принципы, ценности, нормы).

Особую значимость в контексте систем высокого риска приобретает постоянный контроль и экспертиза решений, принимаемых ИИ, и, по возможности, использование этих решений только в статусе рекомендаций.

Рис. 3. Этические принципы в системе координат заинтересованных лиц (пользователи, разработчики)

Третья группа систем ИИ, обозначенная в Регламенте, – это системы низкого риска, которые не оказывают значимого негативного воздействия на пользователей. Однако, в свете решения проблемы доверия общества, разработчики Регламента акцентируют обязательность информирования пользователей о том, что он взаимодействуют с ИИ даже при отсутствии видимых рисков (например, при анонимном анкетировании или опросе). Своевременное получение адекватной правдивой информации о взаимодействии с ИИ, по мнению авторов – это также одно из условий формирования доверия общества к использованию ИИ.

Рис. 4. Удостоверение на рационализаторское предложение «Этическая экспертиза разработки и использования систем искусственного интеллекта в медико-социальной экспертизе и реабилитации»

К сожалению, на сегодня среди примеров этико-правовой регламентации использования ИИ не так много документов (международного и национального характера), которые непосредственно касались бы применения ИИ в здравоохранении. Обращает на себя внимание и тот факт, что в Республике Беларусь значимые этико-правовые документы, регулирующие применение ИИ в здравоохранении (и других сферах жизни общества) пока отсутствуют.

Наряду с регламентами взаимодействия с ИИ необходимо также и принятие единых этических принципов его использования, на основании которых можно выстраивать этические рекомендации по работе с системами ИИ, а также организовывать этическое обучение ИИ. Авторами были разработаны этические принципы (Сокольчик, Разуванов 2024), а также на их основании подготовлен чек-лист для исследователей и этических комитетов, осуществляющих соответствующую экспертизу системы здравоохранения. Эти идеи и наработки можно использовать для подготовки соответствующих документов, регламентов и рекомендаций по использованию ИИ в здравоохранении. Тезис о важности этического сопровождения ИИ поддерживают 85,5% респондентов, предоставивших ответы в рамках опроса о влиянии генеративного ИИ на науку и образование.

Выводы

Таким образом, реализация мер этико-правовой регламентации использования ИИ, создание экспертных и консультативных социально-этических структур для сопровождения использования ИИ, этическое обучение ИИ и формирование этических требований к взаимодействию с ИИ, вкупе с всеобщим информированием, общественным обсуждением поставленного вопроса, образованием и просвещением общества – это основные ступени формирования доверия общества и индивида к использованию ИИ.

Важно отметить, что решение проблемных вопросов, связанных с использованием (совершенствованием) ИИ в медицине и здравоохранении должно быть междисциплинарным практически на всех ступенях жизненного цикла ИИ, поскольку междисциплинарность позволяет объединить усилия специалистов в области создания ИИ, специалистов профессиональной сферы, для которой разрабатывается система ИИ, а также специалистов в области этики, права, психологии и т.д., которые обеспечивают адаптацию ИИ для работы в социуме и адаптацию человека к работе с ИИ.

Необходимым шагом для развития ИИ и, соответственно, для развития научных исследований с использованием ИИ является создание на основе этических принципов работы с ИИ нормативно-правовой базы, определяющей ответственность, права и обязанности сторон – участников процесса разработки и использования ИИ.

Просвещение общества в отношении ИИ, постоянное обучение работе с ИИ участников процесса научных исследований служит необходимым фундаментом развития сбалансированных взаимоотношений между пользователями ИИ (пациентами и медицинскими работниками), его разработками и, собственно, искусственным интеллектом.

Важная роль как при проведении исследований с использованием ИИ, так и при контроле применения ИИ в практическом здравоохранении должна отводиться этическим комитетам, комиссиям (или иным этическим структурам). Обеспечивая в медицинских исследованиях их этическую экспертизу, контролируя защищенность человека при работе с ИИ, включая защищенность от ошибок, галлюцинаций и предубеждений, соответствующие этические структуры могут стать «проводниками» доверия человека искусственному интеллекту.

Примечания

1См.: https://www.youtube.com/channel/UCSvQ4Nts3s1bDU1faM4PxXg

Библиография

Алексеева М.Г., Зубов А.И., Новиков М.Ю. (2022) Искусственный интеллект в медицине, Международный научно-исследовательский журнал, № 7 (121), с. 10–13.

Альянс в сфере искусственного интеллекта (2022) Кодекс деятельности ИИ (Россия, 2022). (https://ethics.a-ai.ru) (01.12.2023).

Гайдук А.Б. (2017) Доверие в бизнесе: восприятие общественностью,  Известия Санкт-Петербургского государственного экономического университета, вып. 5 (107), с. 87–95.

Европейский Союз (2024) Регламент Европейского союза об искусственном интеллекте. Анализ основных положений и принципов регулирования/EU (2024).  (https://ai.gov.ru/knowledgebase/dokumenty-po-razvitiyu-ii-v-drugikh-stranakh/2024_reglament_evropeyskogo_soyuza_ob_iskusstvennom_intellekte_ano_cifrovaya_ekonomika) (10.09.2024).

Разуванов А.И., Сокольчик В.Н. (2023) Этические вызовы применения элементов искусственного интеллекта в медицине и медицинских исследованиях,  Вопросы организации и информатизации здравоохранения, № 2, с. 84–95.

Сокольчик В.Н., Разуванов А.И. (2024) Этические принципы использования искусственного интеллекта в исследовательской практике (на примере биомедицинских исследований,  Известия Национальной академии наук Беларуси, Серия гуманитарных наук, т. 69, № 2, с. 95–107.

Mori, M., MacDorman, K.F. and Kageki, N. (2012) The Uncanny Valley, IEEE Robotics and Automation Magazine, 19, 98–100.

The White House (2022) Blueprint for an AI Bill of Rights. (https://www.whitehouse.gov/ostp/ai-bill-of-rights/)  (15.09.2024).

Fisher, R., Gillespie, N., Malta, J., Gobbi, L. (2023) Trust in artificial intelligence: Global study on the shifting public perceptions of AI, KPMG , (https://assets.kpmg.com/content/dam/kpmgsites/xx/pdf/2023/09/trust-in-ai-global-study-2023.pdf.c oredownload.inline.pdf) (15.09.2024).

WHO  (2021)  WHO Guidance Ethics and Governance of Artificial Intelligence for Health.  (https://www.who.int/publications/i/item/9789240029200) (15.09.2024).

UNESCO (2021) Recommendation on the ethics of artificial intelligence.  (https://unesdoc.unesco.org/ark:/48223/pf0000380455.locale=en) (15.09.2024).

ICMRA  (2021)  Horizon Scanning Assessment Report – Artificial Intelligence in medicine regulation.  (https://www.ema.europa.eu/en/news/artificial-intelligence-medicine-regulation)  (15.09.2024).

Deloitte Touche Tohmatsu Limited (2023) Top 10 health care innovations.  (https://www2.deloitte.com/us/en/pages/life-sciences-and-health-care/articles/top-10-health-care-innovations.html)  (15.09.2024).

United States Cellular Corporation (USM) (2022) Top 5 AI Use Cases in Pharma & BioMedicine. (https://usmsystems.com/ai-in-pharma-and-biomedicine) (15.09.2024).

References

Alekseeva, M.G., Zubov, A.I., Novikov, M.Ju. (2022) Iskusstvennyj intellekt v medicine [Artificial intelligence in medicine], Mezhdunarodnyj nauchno-issledovatel’skij zhurnal [International Research Journal], No. 7 (121), p. 10–13.

Al’jans v sfere iskusstvennogo intellekta [Alliance for Artificial Intelligence] (2022) Kodeks dejatel’nosti II (Rossija, 2022) [AI Code of Conduct (Russia, 2022)]. (https://ethics.a-ai.ru) (01.12.2023).

Gajduk, A.B. (2017) Doverie v biznese: vosprijatie obshhestvennost’ju [Trust in business: public perception], Izvestija Sankt-Peterburgskogo gosudarstvennogo jekonomicheskogo universiteta [Proceedings of the St. Petersburg State University of Economics], No. 5 (107), p. 87–95.

Evropejskij Sojuz [European Union] (2024) Reglament Evropejskogo sojuza ob iskusstvennom intellekte. Analiz osnovnyh polozhenij i principov regulirovanija/EU (2024). [European Union Regulation on Artificial Intelligence. Analysis of the main provisions and principles of the Regulation/EU (2024)] (https://ai.gov.ru/knowledgebase/dokumenty-po-razvitiyu-ii-v-drugikh-stranakh/2024_reglament_evropeyskogo_soyuza_ob_iskusstvennom_intellekte_ano_cifrovaya_ekonomika) (10.09.2024).

Razuvanov, A.I., Sokol’chik, V.N. (2023) Jeticheskie vyzovy primenenija jelementov iskusstvennogo intellekta v medicine i medicinskih issledovanijah [Ethical Challenges of Applying Artificial Intelligence Elements in Medicine and Medical Research], Voprosy organizacii i informatizacii zdravoohranenija [Issues of organization and informatization of health care], No. 2, p. 84–95.

Sokol’chik, V.N., Razuvanov, A.I. (2024) Jeticheskie principy ispol’zovanija iskusstvennogo intellekta v issledovatel’skoj praktike (na primere biomedicinskih issledovanij [Ethical principles of using artificial intelligence in research practice (on the example of biomedical research)], Izvestija Nacional’noj akademii nauk Belarusi, Serija gumanitarnyh nauk [Proceedings of the National Academy of Sciences of Belarus, Series of Humanities], vol. 69, No. 2, p. 95–107.

Mori, M., MacDorman, K.F. and Kageki, N. (2012) The Uncanny Valley. IEEE Robotics and Automation Magazine, 19, 98–100.

The White House (2022) Blueprint for an AI Bill of Rights. (https://www.whitehouse.gov/ostp/ai-bill-of-rights/) (15.09.2024).

Fisher, R., Gillespie, N., Malta, J., Gobbi, L. (2023) Trust in artificial intelligence: Global study on the shifting public perceptions of AI, KPMG, (https://assets.kpmg.com/content/dam/kpmgsites/xx/pdf/2023/09/trust-in-ai-global-study-2023.pdf.c oredownload.inline.pdf) (15.09.2024)

WHO (2021) WHO Guidance Ethics and Governance of Artificial Intelligence for Health. (https://www.who.int/publications/i/item/9789240029200) (15.09.2024).

UNESCO (2021) Recommendation on the ethics of artificial intelligence. (https://unesdoc.unesco.org/ark:/48223/pf0000380455.locale=en) (15.09.2024).

ICMRA (2021) Horizon Scanning Assessment Report – Artificial Intelligence in medicine regulation. (https://www.ema.europa.eu/en/news/artificial-intelligence-medicine-regulation) (15.09.2024).

Deloitte Touche Tohmatsu Limited (2023) Top 10 health care innovations. (https://www2.deloitte.com/us/en/pages/life-sciences-and-health-care/articles/top-10-health-care-innovations.html) (15.09.2024).

United States Cellular Corporation (USM) (2022) Top 5 AI Use Cases in Pharma & BioMedicine. (https://usmsystems.com/ai-in-pharma-and-biomedicine) (15.09.2024).