의과대학생을 위한 인공지능 역량체계를 반영한 의료인공지능 윤리 교육 모듈 개발
Development of a Medical AI Ethics Education Module Reflecting AI Competency Framework for Medical Students
Article information
Trans Abstract
As artificial intelligence (AI) technologies advance and become increasingly integrated into medicine and healthcare services, there is a growing consensus that it is necessary to prepare medical students to understand and utilize AI in medical education. Research and discussions are ongoing regarding the AI competencies that healthcare professionals should have. There are diverse opinions on how to integrate the necessary AI competencies for medical graduates into existing curricula. However, wide agreement exists regarding the importance of providing sufficient and appropriate education on the ethical aspects of using AI in clinical practice and research. In this paper, the authors aim to introduce practical educational principles, strategies, and methods for educators interested in teaching AI ethics in medicine. To achieve this, the paper (1) introduces the AI competencies and medical ethics competencies that medical school graduates should possess; (2) explains the necessity of fostering AI ethics competencies in medical education; (3) discusses the principles of developing AI ethics education and considerations for implementing such curricula; and (4) presents educational modules that can be utilized to cultivate AI ethics competencies in medical students and young physicians. The authors of the paper hope that the case-based module on medical AI ethics we have developed may contribute to prepare medical graduates who are familiar with the principles and guidelines of medical AI ethics, enabling them to make the best ethical choices in any given environment.
서론
인공지능 관련 기술이 발전하고 의학과 의료서비스에 확산되어 감에 따라 의료인이 인공지능을 이해하고 활용할 수 있도록 의과대학에서 준비시켜야 한다는 공감대가 증가하고 있다. 무엇이 의료인에게 요구되는 의료인공지능 역량인지에 관하여 연구와 논의가 진행되고 있으며[1-3], 의과대학 졸업자들이 갖추어야 할 의료인공지능 역량을 기존 교육에 어떻게 통합하여 교육할지에 대해서는 다양한 의견이 존재한다[4]. 반면, 진료와 연구 개발과정에서 인공지능을 사용할 때 고려해야 하는 윤리적 측면에 대한 충분하고 적절한 교육이 이루어져야 함에 대해서는 이견의 여지가 없다. 의료분야에서 인공지능에 대한 관심이 증가하고 의학이 연구되고 실천되는 환경으로 인공지능이 이해될 수 있게 됨에 따라 윤리적 고찰을 다룬 논의도 함께 증가되어 왔다[5]. 하지만 의과대학 교육과정 내에서 의료인공지능 관련 윤리를 어떻게 어떤 내용으로 배우게 할지에 대한 논의가 부족하고 실제적인 교육방안도 미흡하다. 이에 의료윤리 교육의 원칙을 바탕으로 학생들이 인공지능을 현장에서 적용할 때 당면하게 될 문제를 해결할 수 있도록 준비시키는 것이 필요하다[6].
본 논문에서 저자들은 의료인공지능 윤리 교육에 관심 있는 교육자들이 활용할 수 있는 실제적인 교육원칙, 전략과 방법을 소개하고자 한다. 이를 위해 의과대학 졸업생이 갖추어야 할 의료인공지능 역량과 의료윤리 역량, 의학교육에서 의료인공지능 윤리 역량의 필요성, 의료인공지능 윤리 교육 개발의 방향성과 교육과정 도입 시 고려사항을 설명한다. 마지막으로 의과대학생이나 젊은 의사들에게 의료인공지능 윤리 역량을 배양하는 데 활용할 수 있는 교육 모듈에 대하여 소개한다.
의료인공지능 역량 개발의 필요성
1. 의료인공지능 역량체계 및 교육전략
의료에서 인공지능기술의 활용은 공상과학물이 아니라 상당 부분 현실화되어 가고 있다. 인공지능기술은 적극적으로 활용하는 사람들에게는 새로운 지평을 확장해주는 도구이기에 인공지능시대를 대비하여 학생, 의사 그리고 의학 교육자 자신을 준비시켜야 하고[7], 이는 단지 미래의 특정한 시점에 대한 막연한 준비가 아니라 현재 의학연구와 임상진료의 실천에 관련된 것이기도 하다. 이는 의사들이 의료환경의 변화에 수동적이지 않고 적극적으로 대처함으로써 전문직의 자율성을 보장해야 한다는 전문직업성의 맥락에서 요구되는 것이기도 하다. 예를 들어 Cooper와 Rodman [8]은 임상의학교육에 인공지능을 통합하는 데 있어 의학교육기관과 인증기관이 주도적인 역할과 책임을 수행하지 않을 때, 강력한 외부기술 기업들이 이 과정을 주도할 수 있음을 경고한다. 이러한 주도적인 준비작업에는 의료진이 의료인공지능을 활용하도록 시설과 기기를 준비하는 것만큼 인공지능을 활용한 새로운 학습 및 교육방식의 도입이 요청된다. 특히 진단 추론, 임상 술기, 시스템 기반 실무와 연관하여 인공지능을 교육함으로써 의과대학생과 의사들이 인공지능에 적응할 수 있도록 준비시키는 작업이 필요하다[8].
의과대학 졸업생이 갖추어야 할 의료인공지능 역량체계에 대한 선행연구에서 Çalışkan 등[3]은 의과대학 졸업생이 인공지능을 효과적으로 활용하는 데 필요한 27개의 역량을 제안했고, Russell 등[9]은 의료진이 실제 진료상황에서 인공지능 기반 도구와 효과적으로 협력하기 위해 필요한 6개의 도메인과 25개의 하위 역량을 제안한 바 있다. Lee 등[1]의 연구에서는 의과대학 졸업생이 갖추어야 할 인공지능 역량체계로 6가지 인공지능 역량 도메인과 36개의 역량을 제안했다(Figure 1). 필수 역량의 도메인은 (1) 변화하는 의료환경에서 의사와 병원의 역할 파악, (2) 의료인공지능의 기본 지식과 기술 습득, (3) 의료인공지능 윤리와 법 이해, (4) 진료에서 의료인공지능 활용, (5) 의료데이터의 처리, 분석 및 평가, 그리고 (6) 의료인공지능 연구와 개발 수행이다[1].
의료인공지능 관련 역량을 학습한다는 것은 다양한 정보와 인공지능프로그램에서 생성한 데이터를 진료에 통합하고, 의학과 기계 사이의 상호작용을 능숙하게 관리하는 능력—이러한 역량을 의료인공지능 역량이라고 정의할 수 있을 것인데[10], 여기에는 빅데이터 및 관련 인공지능도구의 활용, 기계학습과 딥러닝의 기본 원리, 데이터 분석과 데이터 시각화에 대한 탄탄한 배경지식이 포함될 것이다. 이러한 도구적 지식 외에 인공지능 개발과 활용에 관련된 윤리와 법률의 이해, 그리고 인공지능시대에 부합하는 환자와의 소통능력 교육과정이 필요함은 다른 연구에서도 강조되고 있다[11,12].
의료인공지능 교육과정에 관한 연구를 살펴보면 Paranjape 등[13]은 의과대학 입학부터 졸업 후 전공의 교육에 이르는 의학교육 전반에 걸쳐 인공지능교육이 제공되어야 한다고 제안한다. 하지만 그 범위에 있어서 McCoy 등[14]은 데이터 사이언스와 같은 인공지능 기초 역량을 의학교육의 필수과정으로 포함시키는 한편, 인공지능 연구 및 개발은 관련 분야에서 리더십을 발휘할 일부 학생을 대상으로 선택과정으로 제공하는 이중적 접근법을 제안한다. 이와 같이 의료인공지능 역량 강화를 위한 교육과정을 개발하기 위해서 기존 의학교육 과정을 검토하고 의료인공지능 교육을 구성하는 개념, 실제 활용, 윤리적 태도 등의 교육내용이 효과적, 효율적으로 제공될 수 있도록 재구조화할 필요가 있다.
2. 의료인과 의료인공지능의 상호작용: 5가지 원형
의료인공지능 교육과정을 개발하려는 작업은 의료인공지능과 의사의 관계에 대한 개념화를 필요로 한다. 의료인과 인공지능 사이에 상호작용이 이루어지는 접촉점이 단일하지 않다는 관점에서 개념화를 시작할 수 있다. 한편, 이런 개념화는 의과대학 교육의 관점에서 의료인공지능 역량교육은 의료인공지능에 관련된 의료인의 역할이 정책 입안에서 시작하여 인공지능의 개발, 및 사용이라는 광범위한 범주 내에서 이루어진다는 이해를 필요로 한다. 이런 올바른 이해는 의과대학생과 의사들이 인공지능과 관련하여 흔히 갖는 불안감—“코딩, R, 파이선을 전혀 못하는데, 인공지능시대에 생존할 수 있을까?”—을 극복하고 역할에 맞는 자기개발을 시작할 수 있도록 계기를 부여하고, 교육자들이 교육의 방식이나 내용을 조정할 수 있도록 도움을 줄 수 있다. 이런 점에서 영국국가보건의료서비스(National Health Service England, NHS England)의 의료인공지능과 보건의료인의 역할에 관한 고찰은 많은 점에서 유용하다. NHS England는 보건의료인공지능과 의료인 사이의 관계를 5가지 원형으로 제시하였는데, 다음과 같다: 국가 단위에서 정책과 거버넌스 방향성을 지정하는 형성자(shaper), 인공지능의 개발을 옹호하고 적용을 주도하는 추진자(driver), 개발자(creator), 의료체계 내에 도입, 평가하고 감시하는 도입자(embedder), 그리고 의료시스템 내에서 기술을 사용하는 사용자(user). 이 구분에 따르면 의료인 중 의료인공지능 사용자(user)는 “인공지능기술을 의료환경에서 통합하여 환자 진료를 향상시키고, 프로세스를 간소화하며, 연구에 기여하는 의료인 개개인으로서 이들은 인공지능을 윤리적으로 안전하고 투명하게 활용하는” 책무를 지고 있으며, 이를 위해 기관, 법률 및 윤리적 기준을 인지하고, 이에 따라 인공지능기술을 활용하며, 데이터 프라이버시 규정(한국의 경우 개인정보보호법, 의료법 등)을 준수하는 것, 인공지능이 탑재된 의료기기를 배치하기 전에 위험 평가를 수행하고 알고리즘에서 발생할 수 있는 편향을 모니터링하고 해결하며 의료인공지능의 기능을 이해하기 위해 지속적으로 교육을 받으며, 그리고 임상적 활용과정에서 환자 및 대중과 인공지능의 사용 목적, 한계, 그리고 잠재적 영향에 대해 명확히 소통할 책임을 진다[15].
연구와 개발에 참여할 일부 학습자들은 개발자, 도입자와 같은 역할도 하겠지만, 대다수의 의과대학 학생이나 전공의 교육과정에서 의료인공지능 윤리 교육은 사용자의 차원에 중점을 두어야 할 것이다. 물론 교육기관은 기관의 판단에 따라 개발자와 도입자 등의 역할에 해당하는 학습 기회를 제공할 수 있을 것이다. 이런 구분은 앞서 언급한 이중적 접근법 논의에 부합한다.
의료인공지능 윤리 교육의 필요성
의과대학생 및 의료인에게 윤리 교육은 자칫 기술에 집중하여 의료의 본질이나 의사전문직업성에 상충되는 상황이 벌어지지 않도록 하는, 의료인공지능 교육에서 특별한 위상을 갖는다. 즉 의료인공지능 윤리 역량은 인공지능의 개발과 활용과정에서 발생할 수 있는 다양한 윤리적 도전에 대응할 수 있도록 역량을 강화시키며[14], 의학연구와 학업에서 인공지능과 관련된 책임성을 함양하고[16], 환자의 안전과 신뢰를 확보하기 위한 기본적 의사소통능력과 태도를 학습시키며[17], 새로운 윤리적 문제가 발생했을 경우 이에 대처할 수 있는 소양을 함양시킨다[18].
Figure 1에 제시된 역량 중 인공지능 윤리 관련 역량은 ‘도메인 3. 의료인공지능 윤리와 법에 대한 이해’에 속하며, 세부 역량 항목은 (1) 인공지능 윤리에 대한 기본 지식 습득, (2) 인공지능기술 개발과 연구 및 진료 적용 시 발생할 수 있는 윤리적 쟁점 토론, (3) 의료데이터 보안 관련 법률과 제도에 대한 이해, (4) 의료데이터의 법적 쟁점 토론 등이다. 하지만 의과대학에서 의료인공지능 윤리는 아직 명시적으로 제공되고 있지 않으며 의료윤리의 다양한 주제 중 하나로 간주될 수 있는 정도다. 이는 의료윤리 교육과정의 촉박하며 간소한 일정으로 인해 환자-의사관계 속에서 발생하는 의료윤리의 전통적 주제에 집중하고 있기 때문으로 볼 수 있다. 그럼에도 불구하고 의료인공지능 교육에서 윤리 역량에 집중한 교육내용은 특별한 위상을 갖는다.
즉 의료인공지능 윤리 교육은 의사들이 인공지능의 개발과 활용과정에서 발생할 수 있는 다양한 윤리적 도전에 대응할 수 있도록 준비시킨다. 여기에는 윤리적 문제를 인식하고 해결할 수 있는 방안을 활용하는 능력[14], 의학연구와 학업에서 인공지능과 관련된 책임성의 인식과 그 실천[16], 환자의 안전과 신뢰를 확보하기 위한 기본적 의사소통능력과 태도의 체화[17], 그리고 새로운 윤리적 문제가 발생했을 경우 이에 대처할 수 있는 절차의 활용능력이 포함된다[18]. 이와 같은 교육을 통해 의료인은 윤리적 문제가 발생한 후에 해결하는 것이 아니라 그 발생을 예방할 수 있게 될 것이다. 이것은 윤리적 환경을 살펴보고, 정책을 개발하며, 필요시 관련자들(특히 환자와 대중)이 참여한 대화를 주도할 수 있는 역량을 강조한다. 이런 접근을 예방적 의료윤리(preventive medical ethics)라 할 수 있으며[19], 학생들에게 주도적으로 윤리적 문제에 접근할 수 있도록 역량을 개발하는 것이다.
의료인공지능 윤리 교육 개발 시 고려사항
1. 의료인공지능 윤리 교육 개발 시 방향성
의료인공지능 윤리 교육은 앞에서 언급한 바와 같이 윤리적 문제를 인지하고, 해결을 위한 윤리원칙을 확인한 후 이 원칙을 구체화-비교의 과정을 거쳐 실천 가능한 행위규범으로 변환할 수 있는 역량을 갖추는 것이다. 즉 단순히 원칙을 암기하는 것이 아니라 구체화와 비교를 통해 연구와 임상진료에 실제로 적용할 수 있도록 하는 것을 목표로 하는 교육이 되어야 함을 의미한다. 즉 사생활 보호는 감시받지 않을 자유를 포함한다는 개념적 정의가 의료인공지능 개발과정에서 개인의 생각, 활동, 타인과의 관계를 포함한 많은 정보가 노출될 수 있다는 사실을 바탕으로 구체화되고, “의료인공지능 개발자들은 정보주체의 승인범위 이상의 정보에 접근하지 않도록 연구 데이터베이스를 설계해야 한다”와 같은 실천적 지침으로 발전되어야 한다.
의과대학 졸업생이나 의사를 위한 의료인공지능 교육을 위한 역량체계 선행연구에서는 법적 및 윤리적 규범에 따라 건강 데이터를 사용하고 인공지능기술을 사용할 때 윤리적 원칙에 따라 행동할 뿐 아니라[3], 기술의 사회적·윤리적 영향을 고려할 수 있어야 함을 기초 역량으로 제안한 바 있다[9]. 국내 연구도 인공지능 윤리에 대한 기본 지식 습득과 인공지능기술 개발과 연구 및 진료 적용 시 발생할 수 있는 윤리적 쟁점의 이해와 적용 토론을 의과대학 졸업생들이 습득해야 할 관련 역량으로 제안한 바 있다[1]. 교육의 목표, 주요한 내용이 정의된다면 이를 구체화하는 과정을 거쳐야 한다. 먼저 의과대학 교육에서 위의 인공지능 관련 윤리 역량을 학생들에게 교육할 때는 개발자가 아니라 인공지능 사용자 수준에서 고려할 윤리원칙을 우선적으로 다루어야 하는데, 아직 윤리와 법적 원칙이 적용되는 원리를 이해하고 능숙하게 활용하는 단계에 이르지 못한 의과대학생의 경우 더욱 특별한 관심이 필요하다. 별도의 과정을 개설하기보다 현재 의료윤리, 의학통계 또는 보건정보 관련 과정에 통합하는 것, 의료인이 환자 진료에서 활용하는 도구로서 인공지능을 이해하고 이를 바탕으로 책임 있는 판단 및 행위의 필요성과 그 방식을 이해할 수 있도록 할 것, 그리고 토론과 사례를 활용하여 주도적으로 학습할 수 있도록 할 것이다.
의료윤리 교육의 현황[20] 및 원칙[6]을 고려한다면 다음과 같은 의료인공지능 교육과정 개발의 방향성을 고려할 수 있다. 먼저 의료인공지능 윤리 교육은 기존 의학육과정과의 통합 가능성을 고려해야 한다. 즉 교육과정이 의료인공지능 윤리를 별도의 과정으로 다루는 것이 아니라 의료윤리의 한 분야로, 각 학교의 의료윤리 교육에 추가하거나, 다른 인공지능 관련 교과 내에서 제공될 수 있도록 개발해야 한다. 둘째, 현재 법적 체계의 현실을 반영한 교육과정 개발이 필요하다. 인공지능 관련 법(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법)은 2025년 1월에 처음 제정되었고 아직 그 구체적인 조항이 제시되지 않은 상황이기 때문에 교육과정에서 데이터와 관련된 기존 법률을 다뤄야 한다는 한계가 있고 이후 법이 시행되어야 관련된 관점이 반영될 수 있다. 셋째, 의료인의 진료 맥락에서 의료인공지능과 관련 윤리원칙을 이해하도록 유도해야 한다. 의료인공지능은 임상의학의 환경 내에서는 기존의 도구들과 크게 다르지 않기 때문에 그 사용의 최종적 책임은 의료인이 지고 있으며 증거 기반 의학의 맥락 속에서 인간을 보조하는 도구로 어떻게 사용해야 할지 알아야 하며 경쟁하는 것이 아님을 이해하고 윤리적 태도를 유지할 수 있도록 해야 한다. 마지막으로, 사례 중심의 접근을 모색한다. 학생들의 참여 및 실제 문제해결을 통한 지속적인 학습태도의 체화를 위해서는 교육 모듈에 구체적인 사례들이 필요하며, 토론 사례의 경우 윤리적인 것을 주로 하여 실제 사례, 법적 사례를 담아 사례집의 개발도 고려할 수 있다.
교육과정의 개발은 의료인공지능 윤리 역량 정의 → 역량 관련 학습성과의 정의 → 의료인공지능 관련 윤리원칙 → 학습자료의 개발의 순으로 이루지는 것이 필요하다. 먼저, 의료인공지능 윤리의 역량 정의는 Figure 1의 의과대학 졸업생에게 기대되는 의료인공지능 역량 중에서 '3. Ethical and legal aspects in the use of medical AI'의 하위 항목에서 확인할 수 있다. 이어진 학습성과와 윤리원칙은 순환적으로 이루어지는 작업으로 볼 수 있다. 역량을 바탕으로 교육해야 할 내용은 학습성과로, 다시 학습성과를 구성하는 실질적 내용으로서 윤리원칙으로 이어질 수 있지만, 동시에 윤리원칙을 먼저 규정한 후 학습성과를 확정하는 방식으로 이루어질 수도 있다. 본 논의는 두 번째 순서, 즉 원칙을 규정하고 이를 역량에 적용하여 학습성과를 구성하는 방식으로 기술할 것이다. 하지만 이 두 가지 방식은 상호 호환 가능함을 다시 한번 강조하고자 한다.
2. 의료인공지능의 개발과 활용에서 고려해야 할 윤리적 문제들과 윤리원칙
의료인공지능 윤리의 주요한 내용을 다룬 문헌은 다수 출판되고 있으며, 그 중 우리 논의에 적합성을 가진 지침으로는 국립보건연구원(보건의료 분야 인공지능 연구자를 위한 연구윤리 지침, 2023), 세계보건기구(Ethics and governance of artificial intelligence for health: WHO guidance, 2021) 등이 있으며, 그 외 다수의 기관이 다양한 인공지능 관련 윤리지침, 원칙, 합의문을 간행한 바 있다[21,22]. 대부분의 의료인공지능 윤리지침은 다음과 같이 구성된다. 먼저 의료인공지능의 개발과 활용에 관련된 쟁점을 제시한다. 이들 쟁점을 (생명)의료윤리의 논의에 포섭한다. 이들 논의를 구조화하고 해결할 수 있는 윤리원칙을 탐색한 후 의료인공지능의 맥락에서 재정의한다.
Moon 등[23]은 인공지능을 보건의료영역에서 사용하려 할 때 발생할 수 있는 윤리적 쟁점으로 데이터 수집, 임상환경의 적용, 그리고 사회환경의 세 영역에서 발생할 수 있으며, 각 영역은 인간에 대한 존중, 책무성, 그리고 지속 가능성이라는 가치에 연결된다고 보고하였다. 이 연구에 따르면 의료인공지능의 활용과정에서 주요한 윤리적 문제는 다음 세 영역에 걸쳐 발생하는데[22], (1) 데이터 수집영역의 문제들로서 사생활 보호(기밀유지) 관련 문제, 인구집단을 공정(반차별)하게 반영할 것, 그리고 정보 주체의 자율성(동의), (2) 임상환경 적용과정의 문제로서 안전성(보안성, 견고성)의 보장, 의료인의 책무성(책임성), 인공지능이 제시하는 결과물에 관한 투명성(설명 가능성), 그리고 의료인공지능 사용과 관련된 의사-환자 관계의 신뢰문제, 그리고 (3) 지속 가능성의 문제로서 보건의료체계의 자원 활용과 관련한 지속 가능성, 의료인공지능의 활용이 사회적 평등을 해치지 않도록 보장하는 것, 의료인공지능의 개발과 적용과정에 대한 대중 신뢰 및 다자참여 등이다.
이러한 윤리적 쟁점은 보건의료가 추구하는 본질적 가치와 관련된 측면과 의료인공지능의 정보의존성과 사회적 영향력 등이 종합된 것으로 전통적인 환자-의사관계 중심의 의료윤리와 새로운 영역인 인공지능-정보윤리가 중첩되는 지점에 있다. 이들 문제를 해결하기 위해 의료윤리는 원칙을 정의하고 구체화-비교를 통해 문제를 해결하는데[24], Moon 등[23]의 연구에서는 의료인공지능의 윤리원칙을 (1) 사생활 보호, 기밀유지, (2) 형평, 공정, 차별금지, 그리고 평등, 사회정의, (3) 자율성, 동의, (4) 안전성, 보안성, 견고성, (5) 투명성, 설명 가능성, (6) 책무성, 책임성, (7) 의사-환자 관계의 신뢰, (8) 지속 가능성, 포괄적 성장, (9) 대중 신뢰, 다자 참여와 협력으로 제시하고 있다[23].
의료인공지능 윤리 역량 배양을 위한 교육 모듈 개발
1. 의료인공지능 윤리의 학습성과
의료인공지능 윤리 모듈을 개발하기 위하여 의학교육학자, 의료윤리학자로 구성된 연구진과 의료인 및 관련분야 전문가들의 합의를 거쳐 학습성과를 개발하였다. 학습성과는 의과대학생 교육을 위한 의료인공지능 윤리 역량에서 제시된 (1) 의료인공지능 윤리에 대한 기본 지식 습득, (2) 의료데이터 보안 관련 법률과 제도에 대한 이해, (3) 의료인공지능기술 개발과 연구 및 진료 적용 시 발생할 수 있는 윤리적 쟁점 토론, 그리고 (4) 의료데이터의 법적 쟁점 토론의 4가지 역량을 검토하고 각 영역에 관련된 학습성과는 다음과 같다[1].
1) 의료인공지능 윤리에 대한 기본 지식 습득
(1) 의료인의 기본 역량으로서 윤리적 판단 및 실천능력과 인공지능 윤리의 관계 바탕으로 의료인공지능과 관련하여 윤리적 역량이 필요한 이유를 설명할 수 있다.
(2) 의료인공지능과 관련하여 발생할 수 있는 윤리적 문제인 편향성(bias), 설명 가능성, 의료인의 해명책임, 정보 주체의 자기결정권, 보건의료의 불평등 등의 정의와 예를 들어 설명할 수 있다.
(3) 의료인공지능과 관련하여 의료인의 역할이 다양함과 역할에 따라 법적, 윤리적 행위규범에 차이가 있음을 설명할 수 있다.
2) 의료데이터 보안 관련 법률과 제도에 대한 이해
(1) 의료인공지능이 데이터에 의존함을 이해하고 데이터와 관련하여 환자 등 정보 주체의 권리를 나열하고 설명할 수 있다.
(2) 민감정보인 의료정보를 활용한 의료인공지능의 개발 및 활용과정에서 준수해야 할 법적, 윤리적 원칙을 나열하고 설명할 수 있다.
(3) 의료데이터 보안이 필요한 이유와 보안과 관련하여 의료인이 주의해야 할 내용을 설명하고 실천할 수 있다.
3) 의료인공지능기술 개발과 연구 및 진료 적용 시 발생할 수 있는 윤리적 쟁점
(1) 의료인공지능의 활용과정에서 의료인은 환자에게 어떻게 설명해야 하는지 구체적으로 말할 수 있다.
(2) 의료인공지능 활용 시 전문직으로서 임상 결정의 통제권을 가져야 함과 자동화 편향에 대처해야 하는 이유와 그 방법을 설명할 수 있다.
(3) 의료인공지능 활용 시 편향성 문제가 다양한 원인에 의해서 발생할 수 있음과 그 결과를 이해하고, 이를 방지해야 하는 이유를 설명할 수 있다.
4) 의료데이터의 법적 쟁점 토론
(1) 민감개인정보로서 의료데이터의 성격을 이해하고 정보 주체의 권리로서 프라이버시를 설명할 수 있다.
(2) 의료정보 빅데이터를 구성하는 다양한 요소의 관계에서 발생하는 특징적 문제를 이해하고 법적, 윤리적 실천원칙을 설명할 수 있다.
의료인공지능 윤리의 역량과 학습성과를 반영하여 3차시에 걸쳐 교육할 수 있는 모듈로 구성하고 각 모듈별로 제공되어야 하는 하위 학습목표를 Table 1과 같이 설정했다. 각 모듈의 주요 내용은 다음과 같다. 한편, 이 모듈은 각기 의료인공지능 윤리 역량에 대응하는 것으로 모듈 1은 세부 역량 (1) 의료인공윤리의 기본 지식과 (2) 관련 법제 이해, 모듈 2는 (3) 적용 시 발생할 수 있는 윤리적 쟁점, 그리고 모듈 3은 (4) 의료데이터의 법적 쟁점에 관한 내용을 다루도록 설계되었다.
• 모듈 1: 의료인공지능 윤리 개관: 의료인공지능과 의료전문직업성
• 모듈 2: 의료인공지능 관련 의료윤리, 의료인공지능과 의사의 설명 의무, 의사와 인공지능권고안의 의견 상충, 편향성의 이해, 주의 깊은 사용
• 모듈 3: 의료인공지능 관련 정보윤리
각 모듈의 학습을 위해 토론 사례를 개발하였으며, Figure 2에 모듈 1에 해당하는 토론 사례와 질문을 예시로 제시하였다.
2. 모듈 활용방안 제언
연구자가 개발한 모듈과 사례는 의과대학 전임상 기간에 이루어지는 의료윤리 관련 수업 또는 의료인공지능 또는 의료정보학을 수업에 통합하여 활용할 수 있다. 저자들이 소개한 모듈의 활용방안은 다음과 같다. 먼저 모듈 1은 통상적인 의료윤리 교육 중에 제공될 수 있다. 의료윤리 교육과정의 구성은 대학마다 차이가 있을 것이나 흔한 이론/전문직업성(환자-의사관계)/죽음과 죽어감/의학연구/공중보건 등의 범주 중 선택하여, 또는 별도의 범주로 추가하는 방법을 고려할 수 있을 것이다. 모듈 2는 임상실습기간 중 제공할 수 있을 것인데, 적절한 기회를 활용하여 사례 토의 수업에 활용될 수 있을 것이다. 마지막으로 모듈 3은 선택 혹은 필수과정으로 개설되는 의료인공지능 또는 의료정보학 학습기간 중 소개하는 전략을 제안한다. 이러한 내용을 각 대학에서 적용할 때는 기존 교육과정과의 유기적 관계성, 교육자원 등을 종합적으로 고려할 필요가 있다. 강의는 최소화하고 사례에 대한 토론과 상호작용이 가능하게 촉진하되, 문제의 해결방식을 모색하는 과정에서 인공지능 활용에 있어 공정성, 투명성, 책임성을 강조하는 윤리적 초점을 놓치지 않도록 가이드가 병행되어야 한다. 한편, 교수자 개발이 필요하며, 이를 위해서는 학회 등의 협력을 고려해야 할 것이다.
결론
인공지능을 활용한 의료는 더 이상 먼 미래가 아니며 진료의 한 부분으로 일상화될 가능성이 높다. 의과대학 교육이나 전공의 수련과정에서 인공지능의 지식과 기술을 얼마나 교육해야 되는가에 대해서는 지속적인 논의와 합의가 필요하다. 의료인공지능이 진료와 보건에 미치는 영향이나 의료인이 갖추어야 할 인공지능 역량의 범위와 수준은 서로 다를 수 있지만, 인공지능 사용에 대한 윤리적 판단과 행동은 모든 의사들이 그 원리와 원칙을 숙지하고 주어진 환경에서 최선의 윤리적 선택을 할 수 있도록 준비되어야 한다. 최근에 의료인공지능과 관련하여 의료인들이 경험하는 불안의 기저에는 무엇을 알아야 하는지에 대한 의문에 답변이 명확하게 제시되지 않은 것도 위치하고 있다. 또한 의료인은 의료인공지능의 편향성, 필연적인 불확실성에 대한 책임 있는 태도 등을 갖추고 이를 환자와 정보 주체에게 신뢰감 있게 설명해야 할 의무가 있다. 학생들은 의료인공지능 역량을 개발함에 있어 윤리적 태도와 실천적 지혜가 부차적인 것이 아니라 필수적인 요소임을 인식하고 주의 깊게 학습해야 한다. 이를 위해서는 교육자들의 관심이 반드시 뒷받침되어야 한다. 저자들이 개발한 의료인공지능 윤리 사례 중심 모듈이 이러한 준비에 일조할 수 있기를 기대한다.
Notes
Conflict of interest
이 연구에 영향을 미칠 수 있는 기관이나 이해당사자로부터 재정적, 인적 자원을 포함한 일체의 지원을 받은 바 없으며, 연구윤리와 관련된 제반 이해상충이 없음을 선언한다.
Authors’ contribution
이영미, 이일학 모두 논문의 착안, 구성, 초안의 작성 및 검토에 동일하게 기여하였다.
Funding
이 연구는 과학기술정보통신부에서 지원한 '의료 AI 교육 및 해외진출사업'의 일환으로 수행되었다(과제번호: H0801-24-1001).
Acknowledgments
학습성과와 모듈개발에 참여하고 이 논문의 내용을 검토해준 박소연 교수, 김민성, 전현지, 조규범 연구원에게 감사드린다.