Professional Documents
Culture Documents
(창사글) '인공지능 의료진단' 논문
(창사글) '인공지능 의료진단' 논문
0 대한민국
Disclaimer
박 사 학 위 논 문
김진동
부산대학교 대학원
윤리교육학과
2021년 8월
의료분야의 인공지능 도입과 생명의료윤리
정립 연구
김진동
부산대학교 대학원
윤리교육학과
지 도 교 수 조수경
2021년 6월 30일
위원장 김 홍 수 인
위 원 이 남 원 인
위 원 송 선 영 인
위 원 김 현 수 인
위 원 조 수 경 인
목 차
I. 서론 ·································································································································· 1
1. 연구의 필요성 ························································································································ 1
2. 연구설계 및 구성 ················································································································ 7
3. 선행 연구 ···························································································································· 13
- i -
IV. 보건의료인의 생명의료윤리의식과 인공지능 인식 ··········································· 63
1. 인공지능과 생명의료윤리의식 ·························································································· 63
1) 연구일정 ··························································································································· 65
2) 조사설계 ··························································································································· 65
3) 분석방법 ··························································································································· 66
2. 보건의료인의 생명윤리의식과 인공지능 인식 ······························································ 67
1) 보건의료인의 생명윤리의식 ························································································· 67
2) 보건의료인의 인공지능 인식 ······················································································· 69
3) 보건의료인의 인공지능 영향력 인식 ·········································································· 70
4) 보건의료인의 세부주제별 인공지능 인식 ·································································· 72
5) 보건의료인의 생명윤리의식과 인공지능에 대한 인식의 상관관계 ······················ 74
6) 보건의료인의 생명윤리의식과 인공지능 인식 ·························································· 76
3. 보건의료인의 윤리의식과 인공지능 인식 ······································································ 79
1) 연구일정 ··························································································································· 80
2) 조사설계 ··························································································································· 80
3) 분석방법 ··························································································································· 82
4. 보건의료인의 윤리관과 인공지능 인식 ·········································································· 83
1) 보건의료인의 윤리적 가치관 ······················································································· 83
2) 보건의료인의 인공지능과 관련된 윤리적 기준 ························································ 84
3) 보건의료인의 윤리적 가치관과 인공지능 인식의 상관관계 ·································· 85
4) 보건의료인의 윤리관과 인공지능 인식 ······································································ 87
- ii -
가) 동기주의적 입장에서 요구되는 존엄의 원칙 ···················································· 105
나) 결과주의적 입장에서 요구되는 공익의 원칙 ···················································· 108
3) 생명의료윤리와 인공지능 윤리 ················································································· 111
가) 생명의료윤리의 윤리적 원칙 ················································································ 111
나) 생명의료윤리와 인공지능 의사윤리 ···································································· 112
- iii -
VII. 결론 및 제언 ·········································································································· 162
참고문헌 ························································································································· 169
Abstract ·························································································································· 178
부록
1. 설문지 ························································································································ 184
2. 의사협회 윤리지침 ·································································································· 191
- iv -
표 목차
- v -
<표 27> 선행 원칙의 구체화 ·············································································· 125
<표 28> 정의 원칙의 구체화 ·············································································· 127
<표 29> 인공지능 개발 및 활용에 지켜야 할 원칙 ········································ 129
<표 30> 인공지능에 대한 윤리규범 ···································································· 130
<표 31> 인공지능의 윤리적 학습에 대한 연구 사례 ···································· 131
<표 32> 인공지능과 생명의료윤리 4대 원칙: 인공지능과 환자의 관계 ················ 134
<표 33> 인공지능과 생명의료윤리 4대 원칙: 인공지능과 인간의사의 관계 ········· 136
<표 34> 인공지능과 생명의료윤리 4대 원칙 ···················································· 167
- vi -
그림 목차
- vii -
의료분야의 인공지능 도입과 생명의료윤리
정립 연구
김진동
요약
- viii -
로서의 인공지능의사와 보건의료인을 위한 윤리적 원칙을 구체화하고자 하였다. 특히,
임상현장에서 환자를 포함한 이들의 상호관계에서 나타나는 역할과 책무를 다양한 윤
리문제 사례를 통해 살펴봄으로써 향후 의료분야 인공지능 도입에 따른 생명의료 윤
리교육의 정립을 위한 탐구를 그 목적으로 하였다. 이를 위하여 임상현장에서 인공지
능과 직면해야 할 의료인과 의료용 인공지능이 함께 지켜나가야 할 새로운 윤리적 관
계에 대해 탐색하였으며, 생명의료윤리의 4대 원칙인 ‘자율성 존중의 원칙(the
principle of respect for autonomy)’, ‘악행 금지의 원칙(the principle of
nonmaleficence)’, ‘선행의 원칙(the principle of beneficence)’, ‘정의의 원칙(the
principle of justice)’1)을 구체화 및 체계화하였다. 아울러 생명의료분야에서 나타나는
구체적인 임상 상황을 기반으로 윤리문제가 생겼을 때를 대비하여 환자와 의료인, 그
리고 새로운 의료주체로서 인공지능이 함께 고려해야 할 상호관계에서 나타나는 책무
들에 관해 탐색하고자 하였다.
그러한 탐색을 위한 전제조건으로, 우선 다음과 같은 질문이 필연적으로 생긴다. 현
재 인공지능은 어느 정도의 수준이며, 의료현장에서 도덕적 주체로서 윤리성을 가질
수 있는 상황인가? 먼저 인공지능이 도덕적 주체가 되기 위한 첫 단계는 도덕적 판단
의 가능성을 확보하는 일이다. 그것은 우리가 인공적 도덕 행위자(artificial moral
agent)로서 실제 의료 현장에서 의료인과 환자가 대면해야 하는 의료용 인공지능의 존
재론적 특징을 확인하고, 인공적 도덕 행위자로서의 인공지능의 지위에 대하여 재정립
해야할 필요가 있음을 의미한다. 다시 말해 의료용 인공지능은 첫째, 의사의 통제에 따
라 의료 행위를 수행하는 ‘환자에 대한 도덕적 대리인의 특징을 가진 형태’, 둘째, 설
계된 범위 안에서 ‘환자와 직접 소통하는 준 자율적 행위자의 형태’로 구분된다. 그리
고 그러한 자율적 행위자는 나아가 자율성, 양심, 도덕적, 지적 측면을 모두 갖춘 '초현
실적인 인공지능의사'로 나아갈 수 있다. 본 논문에서는 완전한 자율성을 가진 초 인공
지능의 한계를 지적하며, 향후 인공지능은 의료인을 도와 도덕성을 담보한 인공적 도
덕 행위자의 역할을 해야 하며, 조금 더 나아가 환자와의 직접적인 관계에서는 상호소
통을 통한 준 자율성(semi-otonomi)의 역할까지 기대하고자 한다.
그렇다면, 향후 인공지능은 의료현장에서 도덕적 행위자로서 다양한 윤리적인 선택
의 상황에 놓일 수밖에 없다. 의료분야 인공지능 기술의 알고리즘 설정에 있어서는 동
기주의나 결과주의와 같은 전통적인 윤리관의 설정도 중요하지만, 무엇보다도 생명의
료윤리를 기반으로 한 환자의 존엄성과 공평성과 같은 윤리적 원칙 또한 적극적으로
고려해야 한다. 생명의료윤리 분야에서 동기주의에 관해서는 의료행위의 옳고 그름의
원칙적인 기준과 방향을 제안해 줄 수 있지만 환자의 복리와 직접적으로 관련된 의료
행위의 실질적 결과가 무시될 수 있다는 비판이 있고, 결과주의는 의료행위의 실질적
인 결과를 평가하는 데에 도움이 될 수 있지만 아직은 우리에게 의료행위의 결과를
- ix -
평가할 명확한 기준이 없다는 비판을 받을 수 있다.
다음으로 인공지능에서 이러한 윤리적 원칙을 학습시키기 위한 방향식 방법론은 크
게 세 가지로 나눌 수 있다. 첫째, 상향식 접근법은 피아제(Piaget, Jean)의 아동 인지
발달과정과 유사하다. 그것의 핵심은 아동이 조절과 동화를 통해 삶의 경험을 조직화,
구조화하는 도식(schema) 형성 과정처럼, 아동이 발달하는 과정에서의 다양한 행동 패
턴들에 대한 반성과 평가를 통해 도덕적 사고의 틀이나 원칙들을 습득함으로써 도덕
적 행위자로 성장해나가는 인간의 방식에 있다. 둘째, 하향식 접근법은 칸트의 의무론,
황금률, 결과론적 공리주의처럼, 주어진 원칙 중심으로 전통적인 윤리 규범들을 채택한
다음 그 이론들을 바탕으로 하부 알고리즘과 시스템을 설계하는 방식이다. 셋째,혼합적
접근법은 실질적으로 인공지능을 설계하는 공학자들이 알고리즘을 설계할 때 하향식
과 상향식 접근법을 혼합하는 방식이며, 실제로 일반적인 문제를 해결할 때에는 하향
식 접근법에 기반을 둔 알고리즘을 설계한다. 이러한 접근 방식으로 설정한 도덕규범
들이 상호 충돌하는 문제에 대해서는, 상향식 접근을 활용하여 다양한 사례와 경험을
통해 다원적인 가치와 규범이 학습되어 하향식 접근법이 가지는 한계를 극복할 것으
로 기대되고 있다.
본 논문이 기획한 핵심적인 논제는 바로 보건의료인에 관한 것이다. 그들은 앞에서
살펴본 내용처럼, 인공지능 기술에 대한 인식과 생명 및 인공지능 윤리에 대한 성찰을
할 필요가 있다. 특히 일부 윤리학자들은 인공지능을 사람들과 동등한 입장에서 타자
로 간주하여 상호 수평적 공존이 가능한 미래사회에 미리 대비해야 하고, 새로운 의료
기술에 대한 이해를 바탕으로 윤리적 갈등 상황에서 의사결정을 갖출 수 있는 교육이
더욱 요구된다고 주장하고 있다. 이러한 상황에서 생명윤리의식은 보건의료계열 종사
자에게 있어 의료행위나 간호행위 중에 발생할 수 있는 윤리적 문제를 해결할 수 있
는 기반일 뿐만 아니라, 보건의료시스템 하에서 바람직한 의사결정을 이끌어 내는 원
동력이 될 것이다. 따라서 보건의료 종사자들은 생명윤리의식을 기반으로 새로운 인공
지능 도입을 받아들여야 하며, 그들에게 새로 발생할 수 있는 윤리적 문제에 대한 고
민이 반드시 필요한 시점이다. 그런데 국내의 생명의료윤리 관련 연구를 살펴보면, 넒
은 범위의 보건의료인을 대상으로 한 연구는 부족한 실태이며 보건의료인의 생명의료
윤리의식과 인공지능 인식을 확인한 연구 또한 매우 부족한 실정이다.
이러한 배경 하에 본 연구에서는 보건의료인을 대상으로 생명의료윤리의식과 인공
지능 도입에 대한 인식에 대해 살펴본다. 그리고 그 결과는 다음과 같다, 우선 본 연구
에서 조사한 보건의료인의 91%가 인공지능이 현재 생명의료분야에 적용이 가능하고,
69%가 인공지능이 생명의료분야에 긍정적인 영향을 줄 것으로 인식하고 있었다. 그런
데 주목해야 하는 것은 생명윤리의식이 높을수록 인공지능 기술의 의료서비스 분야를
대체하는 것에 대하여 부정적인 인식 또한 높았다는 점이다. 따라서 본 논문에서는 보
건의료인이 주체적인 생명윤리의식과 윤리적 가치관을 확립하고, 향후 더욱 확대될 인
공지능 기술의 대상과 적용 범위를 감안하여, 발생할지 모를 심각한 윤리적인 문제를
- x -
예견하고 적극적으로 대비하여야 한다는 점을 포착한다. 또한 본 논문에서는 다음과
같은 귀결점에 이른다. 즉 인공지능에 의한 보편적 자가 의료 행위가 가능하게 된다고
하더라도, 이를 전체적으로 통제하며 윤리적 가치관에 대한 기준을 두고 이를 감시하
고 책임질 인간 의료인의 존재는 필요하다는 사실이다. 그러므로 임상현장에서 판단과
의사 결정을 담당해야 하는 보건의료인의 윤리적 해석과 가치관 정립이 시급히 요구
되고 있다.
그 점에 관해 좀 더 세부적으로 살펴보면 다음과 같다. 조사를 통해 보건의료인의
이상적 윤리관이 높을수록 인공지능의 적용가능성에 대한 인식도가 높아졌고, 상대적
윤리관이 높을수록 인공지능의 부정적 영향이 낮아졌다는 점이 밝혀졌다. 하지만, 세부
적으로 살펴보면 이상적 윤리관과 상대적 윤리관 정립에 대한 응답은 둘 다 비교적
높은 긍정으로 나타나 두 기준에 대한 유의미한 차이가 없었다. 일반적으로 이상적, 또
는 상대적 윤리관 중 하나가 강하게 자리 잡고 있으면, 다른 쪽은 비교적 낮아지는 경
향을 보이는데, 본 연구를 통해 드러나는 이와 같은 결과는 보건의료인들이 아직 윤리
적 가치관이 정립되지 못하여 다소 혼란스러워하는 상황이라고 해석된다. 따라서 실제
의료현장에서 발생하는 윤리적 문제와 인공지능의 등장으로 발생할 윤리적 문제에 대
하여 보건의료인의 윤리적 가치관이나 생명윤리의식에 상치될 경우 어떤 결론을 내릴
것인지에 대한 구체적인 연구가 더 필요하다는 것으로 판단된다.
그렇다면, 이러한 인공지능의 도입이 활발해지는 현재의 의료현장에서 생명윤리의식
정립을 위해 보건의료인이 갖추어야 하는 기본적인 자세는 무엇인가? 의료윤리 원칙은
의사와 환자 사이에서 의사가 가지는 소명과 책임, 환자에게 최대의 이익을 주는 데
초점이 맞추어져야 한다. 수순으로 이제는 인공지능의사를 새로운 의료주체로 인식하
고 인공지능의사의 역할에 대해 새롭게 조명할 필요가 있다. 다시 말하면, 보건의료인
들은 비록 인공지능이 인간의 인위적인 설계와 제작에 의해 탄생된 산물이지만 가까
운 미래에는 환자를 위해 최상의 의료적 진단과 결과를 가져오게 하는 매우 중요하고
영향력 있는 역할을 하게 될 대상임을 인정해야 한다. 이러한 인식을 바탕으로 인공지
능 탄생의 특이성과 목적성을 받아들이고, 결과적으로 그들을 부분적 자율성과 주체성,
아울러 책무와 책임문제까지 고려할 수 있는 대상으로서 포함할 필요가 있다.
따라서 본 연구에서는 의료현장의 사례를 이용하여 생명의료윤리 원칙들을 인공지
능시대의 특성에 맞게 ‘인공지능의사와 인간의사’, ‘인공지능의사와 환자’의 관계에 있
어 나타날 수 있는 의료문제와 상호 책무들에 맞추어 4대원칙을 구체화했다. 첫째, 자
율성의 원칙을 통하여 인공지능과 환자의 관계 중심에서 ‘충분한 정보에 의한 자율적
동의의 원칙’으로 구체화되고, 인공지능과 인간의사의 관계 중심에서는 ‘충분한 의사소
통에 의한 자율적 동의의 원칙’으로 구체화했다. 둘째, 악행금지 원칙을 통해 각각 ‘환
자의 안전 최우선과 악행 금지의 원칙’과 ‘해악의 정의와 의사결정 동의의 원칙’으로
구체화했다. 셋째, 선행 원칙은 ‘선행에 대한 환자 존중의 원칙’과 ‘선행의 범위와 의사
결정 동의의 원칙’으로 구체화되었다. 넷째, 정의의 원칙은 ‘공정한 절차를 통한 의료
- xi -
배분의 원칙’과 ‘상호작용을 통한 정의 구현의 원칙’으로 구체화했다. 이렇게 구체화된
원칙이 임상현장의 사례에 적용되어 인공지능의사와 환자의 관계에서 인공지능 의사
가 겪을 수 있는 윤리적 가치관의 혼란과 윤리적 원칙 간의 이해충동에 대한 윤리적
의사결정 방향을 제시할 수 있도록 제안하였고, 인공지능의사와 인간의사의 관계에 있
어서는 가까운 미래에 한 환자에 대한 책임을 동시에 가져야 할 의료인으로서 풀어야
할 실제 윤리문제들에 대하여 논의하고 그 방향을 제시해보고자 하였다.
아울러 본 논문에서는 새로운 의료주체를 포함하여 상호관계에서 구체화된 4대원칙
을 다음과 같은 접근법으로 문제해결 방향을 제시하였다. 먼저 인공지능과 환자, 인간
의사의 관계 중심에서 구체화한 4대 원칙을 상위원칙으로 설정 후 하향식 접근법을
통하여 프로그래밍하여 설계하고, 하위 개별 임상현장의 윤리문제 사례들은 상향식 접
근법을 활용하여 상호 충돌하는 다양한 문제에 대한 경험적 학습을 시켜 이 두 접근
법을 혼합하는 방법을 사용해야 할 것으로 주장하였다. 결과적으로 인공지능의 혼합식
접근법을 위해서는 윤리적 문제 상황에 대한 구체적인 예시가 필요하며 상향적 학습
을 위해 생명의료윤리 4대 원칙을 확장하여 적용하는 것이 중요하다고 판단하였다. 구
체화한 의료윤리 4대 원칙은 임상현장의 사례에 적용하여 인공지능의사와 환자 및 보
호자의 관계에서 인공지능의사가 겪을 수 있는 윤리적 가치관의 혼란과 윤리적 원칙
간의 이해충동에 대한 결과를 제시하였고, 인공지능의사와 인간의사의 관계에 있어서
는 가까운 미래에 한 환자에 대한 책임을 동시에 가져야 하는 의료인으로서 풀어야
할 문제와 그에 따른 책무와 역할에 대하여 논의하고 그 방향을 제시해보고자 하였다.
이렇듯 의료현장의 사례를 이용하여 구체화된 생명의료윤리 원칙을 인공지능시대
인공지능의사와 인간의사, 환자 및 보호자의 관계에 있어 나타날 수 있는 의료문제에
맞추어 확장해보는 것은 생명의료 윤리교육에 있어 매우 중요하다. 하지만, 의료현장에
서 발생하는 복잡한 윤리문제는 네 가지 원칙을 아우르며 관련되어 있어 각각의 윤리
원칙을 적용하는 데는 어려움이 있을 뿐 아니라, 하나의 문제 상황에서 나타나는 원칙
사이의 충돌도 불가피했다. 그러한 이유로 인해, 본 논문에서는 생명의료분야에서 나타
나는 구체적 상황을 기반으로 윤리문제가 생겼을 때 고려해야 할 잣대가 될 원칙의
구체화와 확장에 대해 강조하고 인공지능이 의료인, 환자와의 상호관계에서 중요하게
다루어야 하는 역할과 책무들에 대해 중점적으로 밝히고자 하였다.
- xii -
I. 서론
1. 연구의 필요성
- 1 -
이다. 인간의 탄생 및 성장에 직간접적으로 범위와 영향을 넓혀가고 있는 이러한 신기술
은 배아 복제 및 체외수정기술, 유전자 진단 및 복제, 인공장기 제공, 줄기세포 난치병
치료, 노화의 원인 규명 등으로 대표되며 생로병사에 관하여 인간의 한계를 벗어난 의료
기술들을 펼치고 있다. 인공지능 기술은 사람과 사물 또는 사물과 사물을 정보통신망을
연결하여 인간의 행동을 예측할 수 있게 해준다. 이러한 인공지능 기술은 과거에 축적된
경험 데이터를 활용하여 원하는 목적에 가장 근접한 결론을 보다 쉽게 도출할 수 있도
록 함으로써 매우 효과적인 의사결정을 가능하게 한다는 장점이 있다. 그렇기 때문에 의
료현장에서도 인공지능의 도입이 가져올 이점들에 관심이 높아지고 있다. 일례로 환자들
의 과거 기록을 이용하여 학습한 인공지능을 적극적으로 활용하는 경우는 그렇지 않을
때보다 환자의 치료결과 및 비용적인 면에서 보다 효율적이라는 연구결과들이 나오고 있
고, 이는 인공지능이 의료현장에 도입됨으로써 가져 올 긍정적 측면에 대한 기대를 암시
한다. 특히, 구글에 재직 중인 제프리 힌튼(Geoffrey Everest Hinton) 교수는 “영상의
학과 전문의들을 배출하는 것은 당장 그만두어야 한다. 5년 안에 딥러닝의 기술은 영상
의학과 전문의의 진단능력을 능가할 것은 자명하다.”고 주장하며 영상자료의 처리 기술
에 있어 딥러닝 기술의 도입은 매우 효과적일 것이며 필수적이라는 메시지를 남겼다. 실
질적으로 인공지능이 의료분야에 적용될 경우, 의료 행위의 자동화와 정밀화가 확보되어
환자의 치료 방법 및 기간을 파악하거나 입원 및 시급한 의료장비 사용, 의료용 장기 제
공 등의 우선순위와 관련하여 보다 합리적이고 효율적인 판단과 처치를 할 수 있을 것
이다. 즉 최근 의료계에서 일어나고 있는 치료 결정에 있어서 의사결정의 개선 요청에
대한 일종의 해답을 제공해줄 수 있으리라 기대된다.
3) E. Di Nucci, “Should we be afraid of medical AI?”, Journal of Medical Ethics, Vol. 45(8),
2019, pp. 556-558.
4) 전현숙, 「간호대학생과 비 간호대학생의 생명의료윤리 의식」, 『기본간호학회지』, 제18권 3호(2011),
pp. 401-410.
- 2 -
또한 보건의료서비스의 다양화와 첨단기술의 발달은 보건의료계에 다면적이고 복합적인
윤리 문제를 야기하고 있다. 특히 인공지능이 실제 임상 현장에서 환자의 진단에 도입되
는 데 있어 대두되는 윤리적인 문제는 “인공지능이 의사를 대체할 수 있는가?”이다. 즉
인공지능에게 환자의 어떠한 부분까지 결정하게 할 것인가의 문제이고, 그 결정을 신뢰
할 수 있는지, 그 결정에 대한 책임은 누가 지게 되는지와 관련된 문제이다.
5) 신동원, 「한국 의료윤리의 역사적 고찰: 의사윤리강령 (1955-1997)의 분석을 중심으로」, 『의사학』, Vol.
9(2), 2000, 163-204.
6) L. B. McCullough, “Philosophical challenges in teaching bioethics: the importance of
professional medical ethics and its history for bioethics”, The Journal of medicine and
philosophy, Vol. 27(4), 2002, pp. 395-402.
- 3 -
의사회와 전문학회가 윤리위원회를 두고 각각 소속된 의사의 소임과 역할을 고려한 윤리
지침들을 제정하도록 권장하고 있으며,7) 대한의사협회의 의사윤리강령과 지침에도 의사
가 가지는 권리와 의무, 그리고 환자와의 관계 및 사회적 역할, 각종 수술 및 의학연구
에 관한 원칙과 조항에 명시되어 있다. 이러한 의료윤리규정은 현대 의료윤리의 4대 원
칙인 ‘자율성 존중의 원칙(the principle of respect for autonomy)’, ‘악행 금지의 원
칙(the principle of nonmaleficence)’, ‘선행의 원칙(the principle of beneficence)’,
‘정의의 원칙(the principle of justice)’을 핵심 주제로 한다.8) 비첨과 차일드리스가 주
창하는 생명의료 윤리의 네 가지 원칙을 구체적인 의료 윤리 문제에 적용시켜 도덕적인
답을 찾아 나가는 것이 바로 그것이다. 그러나 새로운 윤리원칙은 현재의 인간중심의 의
료윤리의 원칙에 덧붙여 환자 및 인간의사와의 관계를 중심으로 인공지능의사의 관점에
서 마련한 준칙들로 구성되어야 한다.
7) D. S. Ahn & J. J. Han & J. L. Park, “Country report (Korea) on the global role of the
doctor in health care”, Research Institute for Healthcare Policy, 2012, pp. 1-118.
8) Y. M. Koo, “The key contents of the KMA’s code of medical ethics and proposals for its
implementation“. Korean journal of medical ethics, Vol. 6, 2003, pp. 119-142.
9) 정창록, 「인공지능로봇의료의 도덕형이상학적 모색: 의료적 전자인간의 책임가능성」, 『한국의료윤리학회
지』, 제21권 2호(2018), pp. 143-156.
10) 송선영, 변순용, 「수술 로봇의 윤리적 쟁점」, 『윤리연구』, 제106권(2016), pp. 183-202.
- 4 -
일드리스의 생명의료 윤리의 4대 원칙을 준용하여 인공지능 로봇의사의 의료윤리 지침
을 제시한 연구에서는11) 인간의사의 협업과 통제 아래 의료 행위를 해야 하는 로봇의사
를 위한 윤리원칙이 인공지능 시대의 모든 의사들이 보편적으로 지켜야하는 윤리원칙이
되어야 한다고 제시하고 있다.
- 5 -
관리는 환자와 의사 사이의 대면이 필요 없는 시스템을 형성하여 환자 관리를 간소화할
수 있다. 하지만 예를 들어 인공지능 기반 가정 지원 플랫폼과 같은 방식은 이동성이 제
한된 노인들에게 더 나은 치료를 제공하는 데 매우 유용할 수 있으나, 의료적 주체이면
서 의료현장에서는 고립되는 역설적 결과를 가져올 수 있는 것이다. 이렇듯 점점 가속화
되고 있는 인공지능의 의료현장 도입과 더불어 나타나는 여러 우려는 인공지능의 의료적
판단 및 활동과 관련하여 일정한 기준을 요청하고 있다. 특히 윤리적 기준의 필요성이
시급히 제기되는데 많은 문제의 협의와 해결방안을 찾는데 윤리적 측면이 함께 작용하고
있기 때문이라 할 수 있다. 더구나 때에 따라 인공지능의 잘못된 의료적 판단이 주는 피
해가 재앙의 수준이 될 수도 있어 이에 대한 성찰과 방안이 필요하며 이는 인공지능의
윤리성과 관련된 문제를 제기한다. 본 연구에서는 이 문제를 인공적 도덕 행위자로서의
인공지능의 정립가능성에 대한 문제로 설정하고자 한다.
- 6 -
하여 인공지능시대에 의료인이 가져야할 생명의료윤리 원칙에 대하여 탐구함으로써, 의
료현장에서 인공지능으로 인해 발생할 수 있는 윤리적 갈등 상황에서 의사결정을 하는
데에 도움을 주고자 한다.
2. 연구설계 및 구성
- 7 -
둘째, 의료분야에 도입된 인공지능 기술의 개념을 문헌 연구를 통하여 정립한다. 의
료분야에 도입한 인공지능에 대한 정확한 이해가 없이는 생명의료분야에서 제기하는 인
공지능의 윤리성에 대한 논의가 불가능할 것이기 때문이다. 그리고 인공지능의 도입으로
인해 생명의료분야에서 발생하고 있는 윤리적 문제를 기술적인 관점과 환자의 관점에서
논의해 보고자 한다. 또한, 이러한 윤리적 문제에 대하여 보건의료인이 갖추어야 하는
바람직한 자세에 대해 연구한 의료윤리의 역사에 대하여 탐구하고, 현대 의료인의 윤리
원칙의 근간이 되고 있는 비첨(T.L.Beauchamp)과 차일드리스(J.F.Childress)의 생명윤
리 4대 원칙에 대하여 논증하고자 한다.
- 8 -
전체적인 논문의 연구 설계를 요약해보면 다음과 같다<표 1>.
<표 1> 연구 설계
인공지능의 도입과 윤리 문제
4차 산업혁명과 윤리 문제
↓
Ⅱ장 인공지능의 도입과 윤리 문제
↓
- 9 -
의료분야의 인공지능 도입과 생명의료윤리
의료분야에서 인공지능의 도입으로 인해 발생하는
윤리적 문제는 무엇인가?
생명의료분야의 인공지능 도입
Ⅲ장 ↓
보건의료인의 생명윤리의식
↓
- 10 -
준-자율적인(semi-autonomous) 윤리적 주체로서의 인공지능
↓
인공지능의 도덕적 판단 능력
↓
생명의료윤리와 환자의 복리
↓
생명의료윤리와 인공지능 윤리
인공지능과 인공지능과
환자의 관계 중심 인간의사의 관계 중심
- 11 -
인공지능에게 윤리적 원칙을 적용하기 위한 방법론
↓
생명의료윤리원칙
- 자율성 존중의 원칙, 악행금지의 원칙,
선행의 원칙, 정의의 원칙
↓
인공지능시대 생명의료윤리 4대 원칙
- 구체화에 따른 확장성 제언
↓
- 12 -
3. 선행 연구
14) A. Jobin & M. Ienca, & E. Vayena, “The global landscape of AI ethics guidelines”, Nature
machine intelligence, Vol. 1(9), 2019, pp. 389-399.
15) The future of life institute. https://futureoflife.org/ai-principles-korean(2021.04.01 접속).
16) 최병삼 외, 「과학기술기반 미래연구사업 Ⅹ」, 『조사연구』(2018), p. 6-21.
- 13 -
서 중요하게 다루어야 하는 의무와 책무들에 대해 밝히고자 했다. 이제 생명의료분야의
인공지능 기술과 윤리적인 문제에 대한 대표적인 연구들을 이러한 본 연구의 핵심 문제
에 따라 크게 “도덕적 주체로서의 인공지능과 윤리적 원칙”에 대한 문헌과 이를 임상현
장에서 받아들이는 “보건의료인들의 윤리적 가치관과 인공지능의 인식”에 대한 문헌으로
나누어 확인해 보면 다음과 같이 정리해볼 수 있다.
- 14 -
장에서 도덕적 판단이 요구되는 상황들을 직면하고 이런 상황에서 법적, 윤리적 책임을
분별하여 의사결정을 할 수밖에 없는 상황에 자주 직면하고, 보건의료인의 판단과 의사
결정에 있어 윤리적 해석과 가치관 정립이 요구되고 있다.21) 최근 인공지능시대의 보건
의료인의 자세에 대한 연구에서는 보건의료분야에서 발생되는 도덕적 문제들은 칸트
(Kant)의 의무론이나 공리주의로 대표되는 결과론적 윤리학의 입장만으로는 해결되지 않
는 복합적 문제로 다루어지고 있다. 이러한 전통적인 윤리이론은 문제 행위에 대해 옳고
그름만을 따지게 되므로 의료현장에서 실제로 발생하는 복합적 상황에 맞는 해결책을 제
시하는 데에는 어려움이 있다는 것이다.
21) S. A. Sallady & M. M. McDonnell, “Facing ethical conflicts”, Nursing 2020, Vol. 22(2), 1992,
pp. 44-47.
22) 송선영, 「의료용 케어로봇과 환자 간의 서사와 공감 관계의 가능성」, 『인간· 환경· 미래』, 18호(2017),
pp. 49-76.
23) 맹주만, 앞의 논문, pp. 271-308.
24) 정창록, 앞의 논문, pp. 143-156.
25) 송선영, 변순용, 앞의 논문, pp. 183-202.
- 15 -
시한 연구에서는26) 인간의사의 협업과 통제 아래 의료 행위를 해야 하는 로봇의사를 위
한 윤리원칙이 인공지능 시대의 모든 의사들이 보편적으로 지켜야하는 윤리원칙이 되어
야 한다고 제시하고 있다. 본 연구에서는 그러한 선행연구에서 포괄적이고 광범위하게
한정하여 다루고 있는 해당 원칙을 임상현장에서 발생하고 있는 윤리적인 문제 사례에
구체화된 윤리지침들을 적용해 보는 것에 중점을 두고 있다. 또한, 지금까지의 선행연구
들은 보건의료인의 윤리적 가치관과 새로운 인공지능 기술에 대한 윤리적 기준을 확인하
고 비교하기에는 제한적이므로, 본 연구에서는 실제 의료현장에서 발생하는 윤리적 문제
와 인공지능의 등장으로 발생할 윤리적 문제에 대하여 보건의료인의 윤리적 가치관이나
생명윤리의식에 상치될 경우 나타날 수 있는 혼란에 대한 가치 기준 및 윤리 정립이 필
요하다는 것을 선행연구들과 다르게 제기하고 있다. 그에 관하여 부연하면 다음과 같다.
- 16 -
성과 윤리적 가치관이 생명의료윤리 인식에 미치는 영향을 보고한 연구도 시도되었다.31)
그러나 국내의 생명의료윤리 관련 연구는 넒은 범위의 보건의료인을 대상으로 한 연구는
부족한 실태이며, 보건의료인의 윤리적 가치관과 새로운 인공지능 기술에 대한 윤리적
기준을 확인하고 비교한 연구는 없는 실정이다. 그러므로 본 연구는 국내 의료분야에 적
용된 인공지능의 최신 윤리적 문제와 인공지능시대 보건의료인과 인공지능의 새로운 윤
리적 원칙 확립을 위한 전통적 윤리 원칙과 생명의료윤리 원칙들을 소개함으로써, 보건
의료인들이 4차 산업혁명 시대의 인공지능 기술에 대한 이해를 바탕으로 이로 인해 발
생할 수 있는 윤리적 갈등 상황에서 바람직한 의사결정을 하는 데 도움을 주고자 한다.
31) 김명숙, 「간호대학생의 도덕적 민감성과 윤리적 가치관이 생명의료윤리 인식에 미치는 영향」, 『한국간호
교육학회지』, 제21권 3호(2015), pp. 382-392.
- 17 -
II. 인공지능의 도입과 윤리 문제
1. 4차 산업 혁명과 윤리 문제
- 18 -
계경제포럼(WEF) 회장인 클라우스 슈밥(Klaus Schwab)에 의해 정의되었다. 이후 산업
혁명에 대한 정의는 다양하게 나타나고 있으며, 한국정보통신기술협회에서는 4차 산업혁
명을 우리 경제·사회 전반에 융·복합되어 인공지능, 빅데이터, IoT(사물인터넷), 모바일
등에서 혁신적인 변화가 나타나는 차세대 산업혁명으로 정의하고, ‘시사경제용어사전’에
서는 기존 산업 영역에 물리, 생명과학, 인공지능 등을 융·복합하여 제품 생산에서 관리
그리고 경영 등 기업운영에 있어 포괄적인 변화를 일으키는 차세대 혁명을 4차 산업혁
명이라고 정의하고 있다. 통계청에서 발표한 4차 산업혁명에 대한 연구보고서에서는 이
러한 4차 산업혁명 정의의 공통적인 키워드를 ‘신기술’, ‘융합’, ‘혁명’으로 요약하고 있
다.33)
33) 박승빈, 「4차 산업혁명 주요 테마 분석 - 관련 산업을 중심으로」, 『통계청』, 제10호 2호(2017), pp.
226-286 참고.
34) 이세철, 『4차 산업혁명, 미래를 바꿀 인공지능 로봇』(정보문화사, 2017), pp. 114-115.
35) 1988년 7월 미군이 페르시아만에서 이란의 민항기를 전투기로 오인해 격추시켜 승객 290명을 사망하게
한 사건이 있었다.
- 19 -
로 인간의 생명을 쉽게 빼앗을 수 있다는 문제를 가지고 있다. 두 번째로 ‘인공지능 사
용자의 영역’에서 나타날 수 있는 문제로는 기계학습에 기반한 인공지능에 대한 사이버
공격36), 안면인식 기술 개발에 따른 개인의 프라이버시 침해문제, 드론의 살상 무기화,
섹스 로봇의 성상품화 등이 있다. 다음으로 ‘사회적 및 윤리적 영역’에서 나타날 수 있
는 문제로는 인공지능 확산에 따른 실업문제, 인공지능 혜택에 있어 인종적, 성적, 경제
적 차별이 있을 수 있고 딥러닝을 하면서 스스로 학습하는 인공지능이 심각한 오류를
일으켰을 때 그 원인을 설명하지 못하는 경우도 발생할 수도 있다.
- 20 -
용, 개인의 유전 정보에 따른 처방, 빅데이터를 활용한 의료 정보 축적, 바이오테크 기
술을 이용한 신체기능의 보완 등과 같이 인간과 생명에 대한 새로운 개념을 도입하고
있는 요소들에 대한 문제가 대두되고 있다. 그리고 이러한 인간에 대한 근본적인 개념을
위협할 수 있는 요소를 비롯하여 이러한 기술의 개발로 야기될 수 있는 위험에 대한 법
적 규제에 대한 논의도 시작되었다. 그리고 이러한 논의에서는 4차 산업기술과 관련하여
적합한 윤리적인 판단이 필요한 상황에 대한 검토가 미리 이루어져야 하며, 이러한 문제
상황에 대한 사후적인 법적 조치가 아닌 사전적인 규율로서의 법적 규제가 필요하다는
주장이 본격적으로 제기되고 있다.38) 그리고 이러한 문제의 쟁점에는 4차 산업혁명으로
인한 새로운 기술들에 의해 새로운 윤리적 문제들이 나타날 것이며, 이 윤리적 문제에
대한 고민과 성찰도 시작되어야 한다는 주장이다. 그러므로 4차 산업혁명으로 나타난 의
료분야의 첨단기술과 이로 인해 발생 가능한 윤리적 문제에 대한 심도 있는 논의가 필
요한 시점이다.
38) 양종모, 「인공지능을 이용한 법률전문가 시스템의 동향 및 구상」, 『법학연구』, 제19권 2호(2016),
pp. 213-242.
39) 김인순, 앞의 논문, pp. 1-13.
40) I. Lee, op. cit, pp. 147-155.
41) 김수경, 이경화, 김상희, 앞의 논문, pp. 34-47.
- 21 -
2. 인공지능의 도입과 윤리 문제
1) 인공지능의 도입 현황
- 22 -
저서인 ‘인공지능이 인간을 죽이는 날’45)에서는 인간의 생사에 관련된 자동차, 의료, 무
기의 세 가지 분야에 탑재되는 인공지능을 다루고 있으며, 자율주행차, 질병의 진단과
처방 도구, 자율적 무기처럼 인간의 생명과 직결되는 중요한 분야에 인공지능을 탑재한
제품들이 개발되는 것에 대한 깊은 우려를 표하고 있다. 현재 인공지능이 인간보다 월등
히 능력이 뛰어난 영역도 있지만, 반대로 인공지능보다 인간의 능력이 반드시 필요한 부
분들도 많이 있다.
위쪽은 인간이 가지는 강점으로 상식, 딜레마들, 도덕, 연민, 상상, 꿈, 추상적 개념,
일반화, 그리고 아래쪽 인공지능이 가지는 강점으로는 자연어 처리, 패턴 인식, 지식 찾
기, 머신러닝, 편견 제거, 무한 능력 등을 볼 수 있는데 현재 인공지능은 도덕, 공감, 상
상력 등에서도 인간의 영역을 넘어서며 확장하여 인간의사의 역할까지 수행하는 방향으
로 개발되고 있다. 반면에 인공지능의 역할이 아무리 뛰어나지만 우리 삶에 인간의 역할
45) 고바야시 마사카즈, 한진아 역, 『인공지능이 인간을 죽이는 날』(새로운제안, 2018), pp. 7-11.
- 23 -
이 무엇보다 중요하며 인공지능의 한계를 지적한 다음의 주장들이 있다. 나라 쥰은 그의
저서 ‘인공지능을 넘어서는 인간의 강점’에서 인공지능은 만능이 아니라는 논의를 시작
으로 인간의 강점은 직관과 통찰력으로부터 시작되며, 인공지능 시대에 가장 필요한 인
간의 직관과 통찰력을 높이는 방법을 소개하고 있다.46) 인공지능이 아무리 지능적으로
인간보다 월등하다 하더라도 기존의 지식이나 경험을 통해 사물의 본질을 꿰뚫는 인간
특유의 능력으로 인공지능보다 우월할 수 있다는 것이다. 그리고 김재인은 ‘인공지능시
대 인간을 다시 묻다’라는 저서에서 인간 특유의 능력 그리고 인공지능시대의 인간에 대
한 논의에서도 인공지능에 대한 공포 대부분이 인공지능을 과도하게 의인화하는 데서 생
겨난다는 점을 지적하고, 인간의 지능이 진화의 산물이라는 점을 되새기고 있다.47) 결
국, 인공지능에게서 발생하는 문제란 인간이 정해준 과제이며, 인간에게 닥친 문제의 포
착과 해결은 진화의 과정이기에 인간과 인공지능이 겪는 문제나 문제 해결이 서로 다른
위상을 갖는다고 강조하고 있다.
우리나라에서도 2016년 3월 구글에서 개발한 인공지능인 알파고와 이세돌 9단의 바
둑대결이 일반 대중과 인공지능 간의 거리를 이전에 비해 크게 좁히는 역할을 하였으며,
이를 시작으로 4차 산업혁명이라는 표현과 인공지능에 대한 관심이 증가해왔다. 특히,
이러한 4차 산업혁명으로 인한 보건의료 분야의 신기술 창출 효과에 대해서는 의심의
여지가 없으며, 유전정보의 분석과 이에 따른 질병진단 및 약물 처방, 빅데이터 활용,
3D 프린터를 통한 신체 보완, 그리고 인공지능을 활용한 질병 진단 등의 바이오 기술의
혁신은 보건의료 환경에도 엄청난 변화를 가져올 것이라 예상되었다. 현재 보건의료 분
야에서는 데이터 마이닝(Data mining), 기계 학습(Machine learning), 딥 러닝(Deep
learning) 등과 함께 4차 산업에 필수적인 빅 데이터(Big data) 분석과 인공지능의 활용
이 활발하게 이루어지고 있다.
- 24 -
인공지능의 틀을 법적, 윤리적, 건강한 AI로 규정하고 인공지능의 도입에 있어 반드시
고려해야 할 4가지 윤리적 원칙(인간의 자율성 존중원칙, 해악금지 원칙, 공정성 원칙,
설명가능성 원칙)을 규정하였다.49) 아울러 인공지능을 개발하는 개발자뿐만 아니라 배포
자, 그리고 최종적인 인공지능의 사용자와 전체 사회를 포함한 인공지능의 개발부터 사
용까지에 참여하는 모든 인간에게 적용된다고 하였다. 구체적으로 인공지능 개발자는 인
공지능의 설계와 개발 과정에서 요구사항을 시행, 적용해야하고 배포자는 자신이 사용하
는 시스템과 제공하는 제품 및 서비스가 요구사항을 충족하도록 해야 하며, 최종 사용자
와 전체 사회에게는 이러한 요구사항을 대해 알리고 요구사항이 충족 될 것을 요청할
수 있도록 해야 한다고 권고하고 있다.
49) High-Level Expert Group on Artificial Intelligence, Ethics guidelines for trustworthy AI.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai(2021.04.01.
접속)
50) K. Schwab, “The Fourth Industrial Revolution: World Economic Forum Zeneva”, Zulfu
Dicleli: The optimist publications, 2016, p. 15.
51) H. J. J. O. E. P. David, “Why are there still so many jobs? The history and future of
workplace automation”, Journal of economic perspectives, Vol. 29(3), 2015, pp. 3-30.
- 25 -
에서 어떻게 합심하여 의료행위를 발전시켜 나아가야할 것인가에 대한 대답은 이처럼 서
로의 강점을 알고 조율하는 데에서 시작될 수 있을 것이다.
↓ 게 하는 능력
- 26 -
이성을 조정함으로써 학습을 진행하는 방법이다.53) 이러한 인공신경망을 활용한 인공지
능 기술은 로봇공학, 빅데이터 분석, 나노 기술, 무인 수송수단 등과 같은 분야에서 4차
산업혁명을 주도하고 있다. 인공지능은 일반적으로 그 능력과 기능의 수준에 따라 약인
공지능, 강인공지능, 초인공지능으로 분류할 수 있다.54) 예를 들어, 알파고와 같이 바둑
이라는 한 가지 기능과 목적에 맞게 프로그래밍된 인공지능을 약인공지능(weak
intelligence) 또는 특수인공지능(ANI; Artificial narrow Intelligence)이라고 분류하고,
인간 수준의 인지 능력과 기능을 갖춘 강인공지능(strong intelligence) 또는 범용인공
지능(AGI; Artificial general Intelligence), 이보다 1,000배 이상으로 고도화된 인공지
능을 초인공지능(ASI; Artificial super Intelligence) 또는 초지능(super intelligence)
으로 분류한다. 인공지능은 소프트웨어이므로 그 실체가 존재하지 않으며 언어 이해, 학
습, 문제해결과 같은 지적인 인간의 행동을 컴퓨터로 하여금 실행케 하는 기술이라고 정
의된다. 실질적인 인공지능의 하드웨어는 그 목적에 따라 기능이 탑재되었을 때 만들어
지며, 가정용이나 산업용, 의료용 등의 모습으로 나타난다.
- 27 -
하지만 닉 보스트롬(Nick Bostrom-옥스퍼드 대학교, 인류미래연구소장)은 그의 저서
‘슈퍼 인텔리젼스(Super Intelligence)’에서 핵무기와 기후변화와 마찬가지로 심각한 위
협으로 인공지능과 바이오기술을 언급하며 결국 “사람보다 똑똑한 AI는 인류를 멸망시
킬 마지막 발명품”이 될 것이라고 주장하였다. 그리고 AI의 초지능에 대해 통제에 성공
하든, 실패하든 그 여부와 상관없이, 아마도 우리가 맞서게 될 마지막 도전이 될 것이라
고 예상하였다. 이에 그는 아래 [그림 2]와 같이 강인공지능의 등장에 대해 많은 전문가
들의 설문조사를 발표하였는데 대상자의 절반은 결국 2040~50년 이내에 강인공지능이
등장할 것임을 확신하였다. 따라서 그는 잠재적 위협으로 인류가 멸망하지 않고 취약한
현 세계를 지키기 위해서는 국제적 연대와 협력은 반드시 필요하다고 주장하였다.56) 그
의 생각이 다소 극단적이라고 생각하는 사람들도 있지만, 현재 전 세계적으로 코로나 팬
데믹 현상은 자국 우선주의 현상을 낳고 있으며, 백신과 같은 부족한 의료자원의 보급에
있어 국가 간 연대는 많이 부족하고 의료적으로 낙후된 지역에 대한 배려는 매우 희박
한 실정이다.
- 28 -
필요할 것이라고 보고 있다. 예를 들어, 위의 그림과 같이 인간의 제어를 벗어난 강인공
지능이 지능 대폭발기를 거쳐 스스로 초인공지능으로 진화하는 데에는 며칠, 몇 시간,
몇 분이 걸릴 수도 있다는 것이다. 그렇기 때문에 강인공지능이 도래하기 전에, 인공지
능이 인간이라는 존재를 어떻게 받아들일 것이지 예측하고 대비해야 할 필요가 있다.
57) 목광수, 「인공적 도덕행위자를 설계를 위한 고려사항: 목적, 규범, 행위지침」, 『철학사상』, 제69권
(2018), pp. 361-391.
58) 연합뉴스(2016.07.01.), ‘테슬라 자율주행차 첫 사망사고...안전성 논란 증폭’
https://www.yna.co.kr/view/AKR20160701134800009(2021.07.02 접속)
- 29 -
수 없는 교통사고 발생시에 ‘누구의 생명을 보호하고 누구의 생명을 빼앗을 것인가?’이
다. 이러한 질문과 가장 유사한 상황이 유명한 ‘트롤리 딜레마(Trolley dilemma)’59)이
다. 마이클 샌델(Michael Joseph Sandel, 1953)은 2011년 1월 ‘정의(Justice)’라는 주제
강의에서 하버드 학생들에게 두 가지 질문을 하게 된다.60) 다음 [그림 3],[그림 4]는 강
의 내용에 대한 이해를 돕기 위해 이미지로 재구성하였다.
59) 영국의 윤리 철학자인 필리파 푸트(Philippa R. Foot, 1920)와 미국 도덕 철학자인 주디스 톰슨(Judith
J. Thomson, 1929)이 제시한 사례들을 마이클 샌델(Michael Joseph Sandel, 1953) 교수가 하버드
대학 강의(2011.01월)에 언급하면서 유명해진 딜레마 문제이다. 부분적으로 다른 점은 필리파 푸트는
외부에 변환기가 있고 선로 밖에서 이 변환기를 통해 선로를 변경할 수 있다고 가정하였고, 마이클 샌
델은 선로를 변환할 수 있는 장치가 트롤리 안에 있어 전차 기관사가 그것을 변경할 수 있다고 가정하
였다. 마이클 샌델 교수는 하버드 학생들에게 선로 외부에 있지 않고 전차 기관사라고 가정함으로써 제
시된 딜레마 문제를 방관하지 않고 반드시 결정에 참여하도록 유도한 것으로 보인다.
60) EBS, 신년기획 하버드 특강 ‘정의란 무엇인가' 다시보기,
https://home.ebs.co.kr/sdocu/board/1/502952/view(2021.04.03 접속)
- 30 -
‘소수를 희생하고 다수를 구하는 것이 낫다’라는 생각이 왜 변하게 되었는지 질문하게
되지만, 학생들은 이 딜레마에서 쉽게 빠져 나오지 못하였다.
마이클 샌델의 위 질문의 차이점은 다음과 같다. 첫 번째 트롤리 질문에서는 ‘5명의
인부를 죽이는 것이 아닌, 죽게 내버려 두는 것이 옳은가’에 초점이 맞추어져 있다. 따
라서 대부분의 하버드 학생들은 ‘많은 생명을 죽게 내버려 두는 것은 옳지 않다.’라고
생각하였다. 하지만, 두 번째 질문에서는 ‘육교 위의 뚱뚱한 1명을 죽이는 것이 옳은가’
에 초점이 있다. 이에 대부분의 학생들은 ‘뚱뚱한 사람의 생명권과 인권을 침해하여 살
인하는 것은 옳지 않다’.라고 생각한 것이다. 즉, 공리적인 원칙의 해석도 ‘죽게 내버려
둠’과 ‘죽임’의 차이가 있는 상황에서는 완전히 다른 판단을 할 수 있다는 결과가 나타
난다는 것을 알 수 있다.
이상 트롤리 딜레마는 자율주행 자동차에서도 비슷한 윤리적 문제를 야기한다. 자율주
행 자동차의 문제는 ‘운전자가 피할 수 없는 교통 사망 사고가 예상될 때 충돌상황에서
어떤 결정이 올바른 것이고 그 결정의 원칙들을 실수 없이 설계할 것인가?’이다. 자율주
행 자동차의 궁극적인 목적은 안전하고 편리한 이동수단일 것이다. 하지만 자율주행 설
계 자체가 위험 상황에서 모두의 안전을 보장하지 못한다면 이는 시작부터 위협을 안고
그런 상황이 일어나지 않기만을 바랄 수밖에 없다. 이렇게 되면 아무리 기술적으로 안전
하다고 하더라도 윤리성이 결여되어 사고 발생 시에 설계자 및 사용자는 도덕적으로 비
난 받을 수밖에 없다. 자율주행 자동차에서 일어날 수 있는 교통사고 상황을 설정하여
이미지로 표현하면 [그림 5]와 같다.
- 31 -
위의 그림 A는 자율주행 자동차가 과속 주행 중 갑자기 뛰어든 무단횡단하는 다수의
사람들을 발견하고 직진하여 다수의 사람들을 다치게 하는 상황이고, 그림 B는 다수를
피해 인도에 홀로 서 있는 한 사람을 다치게 하는 상황이다. 그림 C는 한명의 무단횡단
하는 사람을 피하기 위해 운전자가 핸들을 꺾어 스스로 다치는 상황이고 그림 D는 다수
의 무단횡단 하는 사람들을 피하기 위해 운전자가 다치게 되는 상황이다.
위의 그림 B와 D는 공리주의적인 접근이다. 이는 최대 다수의 이익을 우선으로 하기
에 여러 명의 보행자가 다치게 하는 경우를 피해야 하고, 따라서 한명이 있는 인도로 차
량 진행을 변경하거나 다수를 위해 운전자 본인이 사람들을 피해 건물로 돌진하는 경우
이다. 공리적인 해석이 자율주행자동차의 주행에 있어 가장 접근하기 쉬운 이론이기는
하지만 그림 D처럼 무단횡단하는 사람을 구하기 위해 운전자가 사망하게 설계하는 차는
차량 구매자의 입장에서 구입을 결정하기 쉽지 않을 것이다. 아울러, 그림 B의 상황을
다양하게 변경시켜 보면, 정면 충돌시 80세 노인 두명이 다치고 핸들을 꺾으면 7살 어
린아이 한명이 다친다고 가정한다든지, 정면에는 다수가 무단횡단하고 있고 핸들을 꺾어
인도에는 신호를 기다리는 사람 1명이 있다면 교통법을 위반하는 사람들을 위해 무고한
한 사람을 희생해야 하는 문제도 있다. 이처럼 공리적인 해석으로만 접근하는 것은 사람
들의 생명과 관련된 일이기에 더욱더 그 한계가 제기 될 수 밖에 없다.
다음으로 의무론적인 접근으로 해석하는 자율주행 자동차는 반드시 지켜야 할 기본
원칙을 설정하고 그 중요도와 배제 상황에 따라 하위 원칙을 적용하는 것으로, 컴퓨터의
알고리즘을 설계함에 있어서는 매우 유용하고 비슷하여 비교적 구현이 쉬울 것이다. 특
히, 예를 들어 아시모프의 로봇 3원칙61)을 자율주행 자동차의 원칙으로 변형하여 적용한
사례를 살펴보면 다음과 같다.
- 32 -
않도록 보호해야 한다.
자율주행 차량은 도로교통법을 지키는 것이 위의 세 가지 원칙들과 총돌하
제 4원칙
지 않을 경우를 제외하고는 도로교통법을 지켜야 한다.
출처: 변순용, 이연희, 『인공지능 윤리하다』(어문학사, 2020), pp. 200-202 재구성.
- 33 -
3. 인공지능의 윤리문제에 대한 주요국의 정책
1) 미국
- 34 -
서는 미국 정부에서도 발간한 보고서 중에서 인공지능의 윤리적 측면에 대한 내용을 상
세하게 소개하고 있어, 인공지능의 윤리적 문제는 프라이버시와 보호 차원에서 언급되는
수준이었던 기존의 보고서와는 차별성이 있다.
64) L. E. Parker, “Creation of the National Artificial Intelligence Research and Development
Strategic Plan”, AI Magazine, Vol. 39(2), 2018, pp. 25-32.
65) A. Thierer, & A. Castillo, “Preparing for the Future of Artificial Intelligence”, Public Interest
Comment, 2016, pp. 1-5.
66) A. Jobin & M. Ienca, & E. Vayena, op. cit, pp. 389-399.
- 35 -
그 중에서도 2017년 미국 캘리포니아 주 아실로마에서 합의된 인공지능 원칙(i.e.,
Asilomar AI Principles)은 향후 인공지능을 우리의 삶을 개선하는데 활용하기 위해 고
려해야 할 윤리 원칙들을 제시하고 있다. MIT의 물리학과 교수인 막스 테그마크(Max
Tegmark)가 주도적으로 설립한 미래의 삶 연구소는 ‘인공지능을 인류에 이롭게 활용한
다’라는 전제로 아래와 같이 23개의 아실로마 원칙을 제안했다.
분야 원칙 내용
인공지능 연구의 목표는 방향성이 없는 지능이 아니라 유익
연구목표
한 지능(beneficial AI)을 개발하는 것이다.
인공지능에 대한 투자는 컴퓨터과학, 법과 윤리, 경제, 사회
연구비
적 난제를 포함해 유익한 활용에 관련된 기금이 포함되어야
지원
한다.
연구
과학정책연 인공지능 연구자와 정책 입안자들 간에 건강하고 건설적인
문제
계 교류가 있어야 한다.
인공지능 연구자와 개발자는 협력과 상호 신뢰를 기반으로
연구문화
투명한 문화가 형성되어야 한다.
인공지능 시스템 개발 조직들은 안전기준에 미달하는 것을
경쟁회피
방지하기 위해 적극 협력해야 한다.
인공지능 시스템은 운영 과정상에서 안전성과 보안성이 보
안전
장되어야 한다.
실패의 인공지능 시스템이 해를 입히는 경우 그 원인을 확인할 수
투명성 있어야 한다.
사법적 자동화된 시스템의 사법적 결정 참여에 대해 인간으로 구성
투명성 된 감사 기관의 만족스러운 설명이 제공되어야 한다.
진보된 인공지능 시스템의 설계자 및 개발자들은 인공지능
윤리와
책임 시스템의 사용, 오용, 활용과 관련한 도덕적 함의의 이해관
가치 계자들이며, 이를 만들어나갈 책임과 기회가 있다.
고도로 자율적인 인공지능 시스템은 운영 과정상에서 그 목
가치연계
표와 행위가 인간의 가치와 일치되도록 설계되어야 한다.
인간의 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화 다
가치 양성과 양립될 수 있도록 설계되고 운영되어야 한다.
개인 인공지능 시스템이 데이터를 분석하고 활용할 수 있는 권한
프라이버시 을 부여 받으면, 인간들 역시 자신이 생성한 데이터를 접근,
- 36 -
관리 및 제어 할 수 있는 권리가 있어야 한다.
자유와 인공지능을 개인 데이터에 활용할 시 사람들의 실질적인 또
프라이버시 는 지각된 자유가 부당하게 침해되어서는 안 된다.
공유된 인공지능은 최대한 많은 사람들에게 이익을 주고 권한을 위
이익 임해야 한다.
공유된 인공지능으로 인해 발생한 경제적 번영은 모든 인류에게 이
번영 익이 되도록 널리 공유되어야 한다.
인간의 인간은 인간이 선택한 목표를 달성하기 위해 인공지능 시스
제어 템에 의사결정을 위임할지 여부와 그 방식을 선택해야 한다.
고도화된 인공지능 시스템에 대한 통제력은 사회와 시민들
비(非)파괴 이 만들어온 절차들을 파괴하지 않고 존중하고 개선시켜야
한다.
인공지능
자동화된 무기와 관련한 군비 경쟁은 피해야 한다.
무기경쟁
역량에 미래의 인공지능의 능력에 대한 합의가 이루어지지 않았기
대한 주의 때문에 한계치에 대한 강한 가정은 피해야 한다.
진보된 인공지능은 지구상의 생명체 역사에 중대한 변화를
중요성 가져올 수 있기 때문에 적절한 방법과 자원을 통해 관리되고
계획되어야 한다.
장기적 인공지능 시스템으로 인해 발생할 수 있는 치명적이고 실존
위험
문제 적인 위험에 대비하는 계획 수립 및 완화 노력이 필요하다.
스스로 개선하고 복제할 수 있도록 설계되어 질적/양적으로
재귀적
빠르게 확장될 수 있는 인공지능 시스템은 엄격한 안전 및
자체 개선
제어 조치를 받아야 한다.
초지능은 한 국가나 조직이 아니라 광범위하게 공유된 윤리
공공선
적 이념에 따라 모든 인류의 이익을 위해 개발되어야 한다.
출처: 최병삼 외, 「과학기술기반 미래연구사업 Ⅹ」, 『조사연구』(2018), pp. 42-44 재구성.
- 37 -
은 미래의 인공지능 시스템을 어떻게 만들면 오작동이나 해킹에 의한 피해를 최소화시키
고 우리가 원하는 대로 개발을 할 수 있는가에 대한 고민이며, 미래 발생 가능한 인공지
능으로 인한 문제들을 통제하기 위해, 보다 공정하고 효율적인 법률 시스템을 개발할 수
있는 방법은 무엇인가에 대한 지침이다. 또한, 과학정책 연결에 있어서 인공지능 연구자
와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 하고, 인공지능 연구자와 개발자
간에는 신뢰롭고 투명한 연구문화가 조성되어야 하며, 인공지능 시스템 개발팀들은 지나
친 경쟁으로 인한 인류의 안전기준을 위반하는 상황이 발생하지 않도록 상호 적극적인
협력이 이루어져야 한다는 원칙을 제시하고 있다.
- 38 -
므로 미래 인공지능 능력에 있어 개발 상한치를 고정시키는 전제는 피해야 한다는 원칙
을 시작으로, 고급 인공지능은 인류의 생명과 관련된 역사에 있어 심각한 변화가 예상됨
으로 이에 대비한 윤리적 관심과 자원 개발에 있어 계획적으로 관리해야 한다는 원칙과
인공지능 시스템의 오남용이 초래하는 위험과 예상되는 문제 상황에 대한 계획 및 완화
노력이 함께 뒷받침되어야 한다는 원칙이 제시되었다.
2) 유럽연합
- 39 -
Guidelines For Trustworthy Artificial Intelligence)을 공개했다. 이 가이드라인은 신
뢰할 수 있는 인공지능은 시스템의 전체적인 수명주기에 걸쳐 있는 모든 참여자와 과정
의 신뢰성을 아우르는 총체적이고 체계적인 접근을 필요로 한다고 보고, 다음의 세 가지
요소와 7가지 실현 요건을 충족시켜야 한다고 제시하고 있다.69)
1. 적법해야 한다(lawful).
충족
2. 윤리적이어야 한다(ethical).
요소
3. 견실해야 한다(robust).
69) High-Level Expert Group on Artificial Intelligence, Ethics guidelines for trustworthy AI.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai(2021.04.01.
접속)
- 40 -
1. 행위자와 감독
6. 사회적, 환경적 웰빙
7. 책임성
출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), pp. 68-69 재구성.
3) 한국
- 41 -
Conference on Robotics and Automation)에서 한국의 로봇윤리헌장 제정에 대해 배
경과 계획을 발표했다. 또한, 하드웨어인 지능형 로봇을 구동하는 것은 소프트웨어이자
인공지능이기 때문에 지능형 로봇윤리는 인공지능윤리와 별개로 보기 어렵다는 연구계의
견해에 따라70)71) 2008년에는 지능형 로봇 개발 및 보급 촉진법을 통해 로봇윤리헌장 제
정에 대한 법적 근거가 아래와 같이 마련되었다.
구분 내용
70) 심민석, 「한국의 인공지능과 로봇에 관한 법제 정비방안 연구」, 『경희법학』, 제55권(2020), pp. 139-181.
71) 고영미, 「지능형 로봇 금융지원제도 개선방안:[로봇 개발 및 보급 촉진법] 을 중심으로」, 『선진상사법률
연구』, 86호(2019), pp. 178-203.
- 42 -
대통령령으로 정한다.
① 지능형 로봇산업 진흥을 위한 사업을 효율적이고 체계적으로 추
제 4 1 조 ( 한 국 진하고 지능형 로봇산업 관련 정책의 개발을 지원하기 위하여 한국
로 봇 산 업 진 흥 로봇산업진흥원(이하 "진흥원"이라 한다)을 설립한다.
원의 설립 등) ④ 진흥원은 지능형 로봇산업 분야에 관한 다음 각 호의 사업을 수
행한다.
출처: 국가법령정보센터, 「지능형 로봇 개발 및 보급 촉진법」, 『법률 제13744호』(2016.1.6.)에서 일부 발췌.
- 43 -
III. 의료분야의 인공지능 도입과 생명의료윤리
1. 생명의료분야의 인공지능 도입
1) 의료분야의 인공지능 기술 도입
- 44 -
째, 복잡한 의료 데이터를 분석하여 의학적인 통찰을 통해 결과를 도출하는 인공지능이
다. 둘째, 이미지 형식의 의료 데이터를 분석 및 판독하는 인공지능이다. 셋째, 하나가
아닌 연속적 의료 데이터를 모니터링 하여 질병을 예측하는 인공지능이 있다.72)
- 45 -
는 기술이다. 대표적으로 구글과 같은 검색 엔진, 자율주행 자동차, 자연어를 처리하는
음성인식, 페이스북의 얼굴인식, 알파고, 왓슨 등이 이런 기계학습에 기반 한 기술들이
다. 기계학습 기술들 중에서 딥러닝 기술은 우리에게 익숙한 알파고의 학습 원리로서 인
간의 뇌가 학습하는 것처럼 신경망을 인공적으로 네트워크처럼 뉴런들을 연결하여 심층
을 가지도록 겹겹이 쌓아 컴퓨터의 메모리 역할을 하도록 만들었다. 이러한 형태의 신경
망은 예를 들면, 개의 수많은 사진들을 입력시키면 결국 다른 동물들과 개를 구별하는
특징을 스스로 발견하고 여러 동물들의 사진 중에 높은 확률로 개를 구별할 수 있다. 현
재 데이터를 분류하고 어떤 기준으로 다시 모으는 데 탁월한 기능을 하는 기술로서 많
은 의료용 이미지와 영상을 다루는 의료분야에 있어서 딥러닝 기술은 우수한 성과를 보
이고 있다. 인간이 이미지와 영상을 판독하는 과정에서 나타날 수 있는 일관성 부족과
오류를 최소화시켜 특히 영상의학과나 병리과에서는 활용 범위를 넓혀가고 있는 실정이
다.
- 46 -
2) 보건의료분야의 인공지능 현황
분야 내용
- 47 -
한 특허 출원을 소개하고 있다. 또한, 치료의 우선순위를 판단하고 결정하는데 있어 보
조적인 자료, 질병의 모델링 생성을 위해 기초 자료, 고품질 정보 탐색과 같은 임상결정
보조 및 지원을 위한 지식발견 데이터마이닝 기술, 인공 신경망을 이용하여 녹내장이나
협심증과 같은 심혈관 질환, 췌낭포성 질환 등을 검출하는 MLP(Multi Layer
Perceptron) 알고리즘을 사용하여 지속적으로 학습함으로써 대량의 데이터를 처리하는
시간을 줄이고 보다 질환에 최적화된 진단결과를 도출하는 특허가 출원되었다.
75) 웬델 월러치, 콜린 알렌, 노태복 옮김, 『왜 로봇의 도덕인가』(메디치미디어, 2014), pp. 138-141.
76) 맹주만, 앞의 논문, pp. 271-308.
- 48 -
<그림 7> 왓슨의 의료분야 주요활동
- 49 -
이터를 체계적으로 수집하여 진단에 적용하고, 환자의 임상데이터 뿐만 아니라, 유전정
보, 생활방식, 인구사회학적 특성을 모두 수집하여 통합적으로 분석하는 정밀 진단이 도
입되고 있다. 인공지능은 이렇듯 정밀한 진단이 요구되는 분야에서 개별 환자의 전자의
무기록, 유전정보, 건강 정보 데이터의 동시 분석을 가능하게 하여 좀 더 신속하게 검사
나 치료 방법을 제공할 수 있으며, 실제로 앞서 소개한 Watson for Oncology는 300개
이상의 의학저널과 200개 이상의 의학교과서, 20,000명 이상의 환자 사례를 분석하여
최적의 치료법을 선택하고 있다. 이렇듯 인공지능은 방대한 분량의 의료분야 문헌을 검
색하여 잠재적으로 치료 가능한 약물을 발견하고 실험에 필요한 용량까지 예측할 수 있
을 것이며, 실질적인 환자 본인의 의료 데이터를 사용하여 개별 환자에 대한 진단이나
예후, 치료, 재활을 예측하는 데에 이용 될 수도 있다. 의료 분야에서 인공지능을 통하
여 X-레이, 자기공명영상, 신체 부위의 이미지 및 병리학 슬라이드와 같은 다양한 유형
의 의료 이미지를 해석하고 시각적 패턴을 인식하는 것은 이미 진단 분야의 중요한 한
부분이다.
77) 아르준 파네사, 고석범 역, 『헬스케어 인공지능과 머신러닝』(에이콘출판, 2020), pp. 298-299.
78) 메디포 뉴스(2020.01.17.), “길병원 의사들이 느낀 왓슨의 장단점은?”,
https://blog.naver.com/ceoofpaik/221776560498(2021.06.20 접속).
79) Watson For Oncology, https://ko.wikipedia.org/wiki/, 위키 백과사전(2021.05.18 접속).
- 50 -
제가 있다. 이는 높은 수가를 감당할 수 있는 환자들만이 혜택을 누릴 수 있고, 더욱이
왓슨이 권유하는 항암치료제 역시 우리나라 보건의료 수가에 책정되지 못하여 실제 암진
단 후 처방으로 이어지기 어려운 상황에 놓여있다.
- 51 -
2. 의료분야의 인공지능 도입과 윤리 문제
특징 내용
- 52 -
기구들의 지속적인 부담 발생
출처: 이관용, 김진희, 김현철, 「의료 인공지능 현황 및 과제」, 『한국보건산업진흥원 보건산업브리프』(2016),
pp. 7-9 인용 및 재구성.
- 53 -
계속적으로 발효되고 있으며, 이를 따르고 보완하기 위한 생명의료분야의 부담이 지속적
으로 증가하고 있다는 것이다.
항목 문제점
데이터의 품질 - 양질데이터의 부족
불확실성 - 인공지능 진단의 정확성에 대한 불확실성
사생활침해 - 개인의 의료정보 유출로 인한 사생활 침해
책임소재 - 오작동으로 인한 의료사고에 대한 법적 책임 소재
신뢰문제 - 의사결정의 불분명성으로 인한 신뢰 문제
데이터수집 - 인공지능 학습을 위한 데이터 수집의 어려움
출처: 박종현, 「개인 맞춤형 의료 AI 적용과 당면과제」, 『기술정책연구본부 국가지능화 특집』(2019), pp.
6-7 재구성.
81) 박종현, 「개인 맞춤형 의료 AI 적용과 당면과제」, 『기술정책연구본부, 국가지능화 특집』, 2019, pp.
6-7.
- 54 -
대병원이 왓슨 도입 후 일부 암 진단에 있어서는 의사와의 의견 일치율이 고작 40%대
에 머무르는 등 매우 낮은 것으로 나타났다. 특히, 왓슨은 미국 데이터를 기반으로 만들
어진 태생적 특성으로 인해 국가별, 인종별 특성 즉 한국인 고유의 빅데이터가 반영되지
못한 것이 원인으로 지적되고 있다.
- 55 -
2) 환자의 관점에서 본 윤리 문제
- 56 -
질환을 치료함에 있어 누구에게 더 의지할 것인가에 대한 고민에 빠지게 할 것이다.
82) A. Esteva et al, “Dermatologist-level classification of skin cancer with deep neural
networks”, Nature, Vol. 5(7), 2017, pp. 115-118.
- 57 -
3. 의료분야의 인공지능 도입에 따른 생명의료윤리원칙의 확장 필요성
- 58 -
치 체계에 관한 지식을 결합하는 새 학문분야라고 정의되었고, 이후 라익(Warren T.
Reich)은 생명윤리를 의학 및 생명과학의 윤리적 차원에 관한 연구로 정의하였다. 우리
나라에서 생명윤리학은 유전자 재조합, 세포 융합, 인공 수정, 생물 복제 따위와 같은
생명 과학의 연구 결과가 인류에 미치는 영향을 도덕적, 윤리적 측면에서 연구하는 학문
으로 정의되고 있다.85)
- 59 -
의료윤리의 윤리원칙은 오래전에 미국의 생명윤리 학자들인 비첨(T.L.Beauchamp)과
차일드리스(J.F.Childress)가 생명 의료 윤리학의 원리(principles of biomedical
ethics)에서 제안한 바 있는 생명의료 윤리의 네 가지 원칙을 근간으로 한다. 네 가지
원칙은 자율성 존중의 원칙, 악행 금지의 원칙, 선행의 원칙, 정의의 원칙90)이며, 이러한
네 가지 원칙을 구체적인 의료 윤리 문제에 적용시켜 도덕적인 답을 찾아 나가는 것이
의료윤리의 윤리원칙이다. 여전히 생명의료윤리 원칙들이 원칙들 간의 충돌을 어떻게 해
결해 나갈 것이며, 4차 산업혁명과 그 기술로 인해 발생하는 복잡한 윤리적 문제들에 대
한 해결의 한계성을 우려하는 견해들이 나타나기도 했다. 하지만, 여전히 생명의료 윤리
의 네 가지 원칙은 의료윤리의 기본이며, 인공지능과 로봇의사윤리에 대한 연구에서도
이것이 환자와의 관계에서 결코 분리될 수 없는 인간의사와 로봇의사의 지위와 역할에
대한 윤리적 논의들로서 다루어졌다.91) 그리고 비첨과 차일드리스의 생명의료윤리의 원
칙이 로봇의사윤리의 원칙들을 정립하는 가운데 구체화 및 체계화될 수 있을 것이라고
보고 있다.
- 60 -
허락을 구하는 과정이자 그 결과라고 할 수 있다.
- 61 -
이렇듯 의료윤리의 윤리원칙은 자율성 존중의 원칙, 악행 금지의 원칙, 선행의 원칙,
정의의 원칙을 통하여 의료현장에서 발생하는 윤리문제에 대한 도덕적인 답을 찾아 나가
는 것이며,94) 여전히 이러한 원칙들이 원칙들 간의 충돌과 4차 산업혁명과 그 기술로
인해 발생하는 복잡한 윤리적 문제들을 해결할 수 있는가에 대한 우려가 존재한다. 그러
나 여전히 생명의료 윤리의 네 가지 원칙은 의료윤리의 기본이며, 인공지능과 의료인의
의료 행위를 평가하는 윤리적 원칙의 근간이 되기에는 충분할 것이다. 그리고 비첨과 차
일드리스의 생명의료윤리의 원칙이 확장되어 로봇의사 윤리의 원칙들을 정립하는 가운데
구체화 및 체계화될 수 있을 것이라고 보고 있다.
94) 목광수, 「비췀과 췰드리스의 생명의료윤리학 논의에서의 넓은 반성적 평형에 대한 비판적 고찰」, 『철
학』, 제119권(2014), pp. 115-148.
- 62 -
IV. 보건의료인의 생명의료윤리의식과 인공지능 인식
1. 인공지능과 생명의료윤리의식
- 63 -
우, 의료서비스를 제공하는 의료진뿐만 아니라 환자와 보호자도 혼돈을 느낄 수 있으므
로 이에 대한 대책이 필요한 시점이다. 그러므로 보건의료 종사자들은 이러한 인공지능
기술에 대한 인식과 생명 및 인공지능 윤리에 대한 고민이 필요하며, 일부 윤리학자들은
인공지능을 사람과 동등한 타자로 인정하여 사람과 수평적 공존이 가능한 사회에 미리
대비해야 하고 의학, 약학, 간호학 등을 포함하는 보건의료계열 전공에서는 4차 산업혁
명 시대의 새로운 의료기술에 대한 이해를 바탕으로 윤리적 갈등 상황에서 의사결정을
갖출 수 있는 교육이 더욱 요구된다고 보고하고 있다.
- 64 -
1) 연구일정
2) 조사설계
98) 권선주, 「간호대학생과 의과대학생의 생명의료윤리 의식에 관한 조사 연구: 대구. 경북지역을 중심으
로」, 계명대학교 대학원, 석사학위논문(2003), pp. 55-56.
99) 김장묵, 「보건의료분야에서의 인공지능기술 (AI) 사용 의도와 태도에 관한 연구」, 『융합정보논문지
(구 중소기업융합학회논문지)』, 제7권 4호(2017), pp. 53-60.
100) 이정원, 문형돈, 「국내 인공지능 인식 현황 연구」, 『한국통신학회 학술대회논문집』(2018),
pp. 1396-1397.
101) 한학진, 서정모, 「인공지능 기술 (AI) 의 도입에 따른 관광산업 직무대체수준 및 영향에 관한 탐색적
연구-대학생을 중심으로」, 『호텔리조트연구』, 제16권 3호(2017), pp. 45-61.
- 65 -
인공지능기술에 대한 인식 정도를 비롯하여 인공지능 기술이 의료분야 전반에 미치는 영
향, 인공지능이 의료분야 직종에 미치는 영향과 관련된 속성으로 구성되었다. 그런 다음
설문 문항의 신뢰도를 높이기 위하여 보건의료계열 전문가 2-3명을 통하여 서로의 문항
심사 의견을 교환한 후 이를 수정, 보완하였다.
3) 분석방법
- 66 -
2. 보건의료인의 생명윤리의식과 인공지능 인식
1) 보건의료인의 생명윤리의식
남자 여자 전체
(N=77) (N=221) (N=298)
- 67 -
지금까지 보건의료인의 생명윤리의식에 대한 연구는 교육현장에서 보건의료계열 대학
생이나 간호학과 대학생을 대상으로 한 연구 위주로 이루어졌다. 본 연구에서 나타난 보
건의료인의 생명윤리의식 수준은 보건의료인과 보건의료계열 대학생을 대상으로 생명윤
리의식을 조사한 연구보다 높았다. 해당 연구에서 보건의료인의 생명윤리의식 총점 평균
은 2.71점으로 보건의료계열 종사자의 2.64점보다 유의적으로 높았다.103) 또한, 본 연구
에서 조사된 보건의료인의 생명윤리의식은 보건계열 대학생의 생명의료윤리 의식을 조사
한 선행연구의 2.01점보다 높았다.104) 이러한 보건의료인과 보건의료계열 대학생의 생명
의식 차이는 과거에 교육을 받은 보건의료계열 종사자 보다는 현재 교육과정 중인 보건
의료계열 학생들이 의무적으로 생명과 관련된 윤리적 교육을 받을 기회가 많음으로 인해
발생했을 것으로 추측되며, 보건의료인들의 생명윤리의식 또한 사회적인 윤리에 대한 관
심의 증가로 인해 상향되고 있는 것으로 보인다. 하지만 보건의료인을 대상으로 생명윤
리의식을 확인한 연구는 매우 미흡한 실정이다.
- 68 -
본 연구에서 보건의료인의 인공지능과 관련한 인식과 의료분야의 적용가능성, 인공지
능이 의료분야에 미치는 영향을 살펴본 결과는 다음과 같다.
2) 보건의료인의 인공지능 인식
남자 여자 전체
(N=77) (N=221) (N=298)
전혀 그렇지 않다 - - - - - -
- 69 -
능 적용에 대해 ‘전혀 그렇지 않다’고 대답한 응답자는 남녀 보건의료인 모두 없었다.
또한, 전체 보건의료인 중 91%가 인공지능이 현재 생명의료분야에 적용이 가능한 것으
로 인식하고 있었다.
전혀 그렇지 않다 - - - - - -
- 70 -
<표 14> 보건의료인의 인공지능에 대한 긍정적인 영향력 인식
남자 여자 전체
(N=77) (N=221) (N=298)
전혀 그렇지 않다 - - - - - -
- 71 -
4) 보건의료인의 세부주제별 인공지능 인식
- 72 -
<표 16> 보건의료인의 의료분야 인공지능에 대한 인식
남자 여자 전체
(N=77) (N=221) (N=298)
Mean ± SD Mean ± SD Mean ± SD
- 73 -
5) 보건의료인의 생명윤리의식과 인공지능에 대한 인식의 상관관계
- 74 -
(3) 인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다.
(4) 인공지능 기술에 대한 선재대응이 필요하다.
(5) 인공지능 기술은 의료분야 서비스를 대체할 가능성이 높다.
(6) 환자들은 인공지능보다 인적서비스를 더욱 선호 할 것이다.
(7) 인공지능으로 의료분야 일자리가 감소할 것이다.
(8) 고난이도나 단순 업무는 인공지능으로 대체가능 할 것이다.
(9) 인공지능으로 사라지는 직업만큼 새로운 일자리가 창출 될 것이다.
(10) 인공지능으로 정확하고 차별화된 의료서비스가 가능할 것이다.
(11) 감성이 요구되는 업무는 인공지능으로 대체 불가능할 것이다.
- 75 -
6) 보건의료인의 생명윤리의식과 인공지능 인식
- 76 -
기이식의 순서로 높았으며, 이렇듯 보건의료인들은 뇌사나 안락사와 같이 생명의 종결에
대해 인정해야 하는 문항에 대하여 낮은 점수를 보였다. 이러한 결과는 아직까지 현장에
종사하는 보건의료인들이 해당 생명의 종결에 대한 인식과 윤리 의식이 낮다는 것을 의
미하며, 보건의료인의 생명윤리의식에 대한 연구는 계속적으로 이루어져야 하며, 그 세
부적인 사항에 대한 교육과 인지 방향 설정 또한 향후 보건의료계열 학생들을 위한 윤
리 교육의 핵심 주제가 되어야 할 것이다.
- 77 -
더 나타난다는 점에서는 일치한다.
- 78 -
3. 보건의료인의 윤리의식과 인공지능 인식
- 79 -
로 한 연구는 부족한 실태이며, 보건의료인의 윤리적 가치관과 새로운 인공지능 기술에
대한 윤리적 기준을 확인하고 비교한 연구는 없는 실정이다.
1) 연구일정
2) 조사설계
- 80 -
alpha는 각각 .743과 .679였으며, 그 내용은 부록에서 첨부하였다.
- 81 -
<표 18> 의료용 인공지능에 대한 윤리적 기준
3) 분석방법
- 82 -
4. 보건의료인의 윤리관과 인공지능 인식
- 83 -
과 비교하여 보건의료계열 학생들이 윤리적 가치관을 적립할 기회가 적음으로 인해 나타
났을 것으로 보았으나, 해당 연구에서도 보건의료인 역시 윤리적 가치관이 분명하게 확
립하지 못한 것으로 나타났다. 간호대학생의 윤리적 가치관을 알아본 선행연구에서도 윤
리적 가치관의 전 영역에서 간호대학생은 의무주의 경향을 보였으며, 간호사로서의 지켜
야할 윤리적 책무성을 중요하게 인식하고 윤리적 가치관은 어떤 상황에서라도 반드시 지
켜야한다는 의무주의적 사고를 하고 있다고 보고하였다.132)
- 84 -
3) 보건의료인의 윤리적 가치관과 인공지능 인식의 상관관계
- 85 -
<표 21> 보건 의료인의 윤리적가치관과 생명윤리의식, 인공지능(AI)에 대한 인식과
윤리적 기준의 상관관계
윤리관 윤리관 생명윤리의 AI 윤리 AI 윤리 AI 윤리
(이상적) (상대적) 식 (존엄성) (공평성) (복지)
윤리관 (이상적) 1
*Correlation is significant at the 0.05 level. **Correlation is significant at the 0.01 level,
(1) 현재 인공지능이 전반적인 산업분야에서 개발 중이다.
(2) 인공지능 기술은 의료분야에 긍정적인 영향을 줄 것이다.
(3) 인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다.
(4) 인공지능 기술에 대한 선재대응이 필요하다.
(5) 인공지능 기술은 의료분야 서비스를 대체할 가능성이 높다.
(6) 환자들은 인공지능보다 인적서비스를 더욱 선호 할 것이다.
(7) 인공지능으로 의료분야 일자리가 감소할 것이다.
(8) 고난이도나 단순 업무는 인공지능으로 대체가능 할 것이다.
(9) 인공지능으로 사라지는 직업만큼 새로운 일자리가 창출 될 것이다.
(10) 인공지능으로 정확하고 차별화된 의료서비스가 가능할 것이다.
(11) 감성이 요구되는 업무는 인공지능으로 대체 불가능할 것이다.
- 86 -
4) 보건의료인의 윤리관과 인공지능 인식
- 87 -
한쪽의 윤리관은 상대적으로 낮아지는 상대성이 나타난다고 보고했다.134) 보건의료인과
대학생을 대상으로 한 선행연구에서는 이상적인 기준의 윤리적 가치관이 높을수록 인공
지능의 적용가능성을 높이 인식하고, 인공지능이 환자의 존엄성과 공평성을 중요시하는
방향으로 가야한다고 보고 있는 반면, 상대적인 기준의 윤리적 가치관이 높을수록 인공
지능의 부정적인 영향은 적고 생명윤리의식도 낮아진다고 보고했다.135) 또한, 간호대학
생의 윤리적 가치관을 공리주의와 의무주의로 구분하여 그 경향을 알아본 선행연구에서
도 윤리적 가치관의 전 영역에서 간호대학생은 의무주의 경향을 보였으며, 간호사로서의
지켜야할 윤리적 책무성을 중요하게 인식하고 윤리적 가치관은 어떤 상황에서라도 반드
시 지켜야한다는 의무주의적 사고를 하고 있다고 보고하였다.136) 그러므로 이러한 결과
들은 보건의료인과 미래의 보건의료인을 준비하는 대학생이 인간의 가치와 존엄성을 옹
호해야하는 의무를 다해야한다는 것을 의미하므로 의료인의 수준에 맞는 윤리적 가치관
을 확립하기 위해서는 체계적인 교육이 필요하다고 보여진다.
- 88 -
수준 진행되었다.141) 또한, 세계의사회와 대한의사협회도 인공지능과 관련한 윤리문제에
대응하기 위하여 대비해야 한다는 논의를 시작하고 있다. 본 연구에서도 지금까지 이루
어진 의료분야 인공지능 윤리에 대한 연구들을 바탕으로 인공지능 시대에 있어 환자와의
관계에서 결코 분리될 수 없는 의료인과 인공지능의 지위와 역할에 대한 윤리적 문제들
을 다루고자 한다. 하지만, 생명의료분야에서 제기하는 인공지능의 지위와 역할에 대한
문제는 도덕적 주체로서의 인공지능과 한계점에 대한 정확한 이해가 없이는 논의가 불가
능 할 것이다. 따라서 본 연구에서는 이어지는 장에서 4차 산업 혁명 이후 등장한 인공
지능의 윤리성에 최신 연구들과 이에 따른 윤리적인 문제들을 소개함으로써, 의료분야에
도입될 도덕적 주체로서의 인공지능에 대한 개념을 정립하고 그 한계점을 확인하고자 하
였다.
141) H. R. Na, & H. S. Kim, “Medical Ethics in the Era of Artificial Intelligence Based on
Medical Big Data”, The Journal of Korean Diabetes, Vol. 21(3), 2020, pp. 126-129.
- 89 -
V. 의료분야 인공지능의 윤리성 정립과 한계점
아울러 인공지능이 도덕적 주체로서 정립되기 위해서는 이러한 원칙과 규준을 일회적
으로 주입하기 보다는 지속적 학습 과정을 통하여 의료적 임상 결과들의 빅데이터를 갖
추어 향후 딥러닝과 머신러닝을 할 수 있도록 설계 할 필요가 있다. ‘하나의 도덕적 행
위는 스스로 자기 행위의 주체로 변형시키기 위해 자신에게 가하는 윤리적 작업의 지속
성, 다시 말해 시간의 집적을 통해서 의미를 가진다는 주장’142)에서는 우리 인간이 도덕
적 주체가 되기 위해서는 도덕적 행위의 지속적인 구축(構築)이 필수적이라는 도덕적 주
체에 관한 푸코(Foucault, Michel. 1926)의 견해를 통해 삶의 기술을 설명하고 있다.
우리는 이러한 도덕적 주체에 대한 학자들의 견해들을 통해서 향후 인공지능의 도덕적
주체 정립 과정들에 대한 방향을 살펴보아야 할 필요가 있다.
142) 조수경, 「미셸 푸코, 도덕적 주체와 삶의 기술」, 『한국윤리교육학회 춘계학술대회』(2019), p. 28.
- 90 -
1. 인공지능의 윤리성
143) 신상규, 「인공지능은 자율적 도덕행위자일 수 있는가?」, 『철학』, 제132권(2017), pp. 265-292.
144) 이중원 외, 『인공지능의 존재론』(한울아카데미, 2018), pp. 81-136.
145) 이중원 외, 『인공지능의 윤리학』(한울아카데미, 2019), pp. 223-263.
- 91 -
<표 22> 행위의 윤리성 판단에 대한 이론
구분 내용
출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 13 인용.
146) 목광수, 「보건의료 빅데이터의 윤리적 활용을 위한 방안모색: 동의가 아닌 합의 모델로의 전환」, 『한국
의료윤리학회지』, 제22권 1호(2019), pp. 1-19.
- 92 -
도덕적 판단을 인간 대신에 할 수 있고 그에 따라 의사결정이라는 행위를 수행한다는
의미가 된다. 인공지능은 인간과 달리 도덕적 판단에는 일정한 목적이 있다. 인간에게는
올바른 행위를 위한 판단이 바로 도덕적 판단이다. 그러므로 도덕적 판단은 올바름 자체
를 구현하기 위한 것이라 할 수 있다. 그러나 인공지능에게는 올바름 자체가 아니라 인
간에 의해 프로그램화된 무엇을 위한 올바름으로 나타나야 한다. 인공지능은 자신이 아
닌 인간을 위한 행위와 판단을 하는 것이기 때문이다. 그러므로 인간과의 관계에서 입력
된 도덕적 판단의 주체로서 인공지능이 성립하게 된다.
- 93 -
2) 인공지능의 도덕적 판단 능력
150) L. Floridi & J. W. Sanders, “On the morality of artificial agents”, Minds and machines, Vol.
14(3), 2004, pp. 349-379.
151) J. Moor, “Four kinds of ethical robots”, Philosophy Now, Vol. 72, 2009, pp. 12-14.
- 94 -
무어의 4단계 분류에 따라 윤리적 주체로서의 인공지능을 도덕적 의사결정자로서의 인
공지능과 동일시할 수 있는가에 대한 문제를 고려해야하는 수준은 3단계인 명시적 윤리
행위자로 판단된다.
로봇기본법의 주요내용
출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 111 인용.
- 95 -
덕 행위자로서 의료용 인공지능의 도덕적 판단 능력은 어느 정도의 수준으로 설계되고
있으며, 그 윤리적 기준은 어떻게 정립되고 있는지에 대해서 논의해야 할 시점이다.
- 96 -
하고, 이러한 도덕적 행위자로서의 의료용 인공지능을 크게 의사의 통제에 따라 의료 행
위를 수행하는 환자에 대한 도덕적 대리인의 특징을 가진 형태와 설계된 범위 안에서
환자와 직접 소통하는 자율적 도덕적 행위자의 형태로 구분했다. 그리고 마지막으로 넷
째, 현존하지 않는 새로운 종으로서 자율성, 양심, 도덕적, 지적 측면을 모두 갖춘 인공
지능을 제시했다.
출처 : 송선영, 「의료용 케어로봇과 환자 간의 서사와 공감 관계의 가능성」, 『인간· 환경· 미래』, 18호
(2017), p. 58 인용.
- 97 -
신하거나 함께 작업하는 로봇의 존재를 도덕적 행위자(moral agent)로서 제시하며, 의
사의 명령에 따라 수술을 직접 시술하는 행위자(agent)로서 수술 로봇은 환자에 대한 도
덕적 대리인으로서 지위를 갖는다고 하였다.
- 98 -
지능의 자율성 특징은 인공지능이 얼마나 사물인식에 정확하고 안정적인지, 경제적인지,
효율성은 높은지, 편리한지, 기술적으로 견실한지에 관한 것들이 갖추어진 상태일 것이
다. 그리고 이러한 조건들이 인간의 개입 없이 독립적으로 자신의 행동을 판단하고 결정
하는 것이다. 하지만 윤리학자들이 중요하게 생각하는 자율성은 자율주행 인공지능이 복
잡한 윤리적 결정을 요구하는 충돌사고와 같은 딜레마에 빠졌을 때 자동차를 미리 어떻
게 제어할 것인지, 다양한 운전 환경 속에서 나타나는 긴급한 상황에서 피해를 최소화하
기 위한 가치판단을 스스로 얼마나 잘 해낼 수 있는지, 이러한 것들을 어떤 결정 원칙에
따라 스스로 해결해 냈는지, 등에 있을 것이다.
- 99 -
적 자율성’160)을 갖추어 현재 인간의 감성이나 의사결정 과정에 깊이 개입하고 있다. 현
재 대량생산을 앞둔 로봇 소피아는 감정표현과 소통을 위해 조건화된 인공지능 로봇이
다. 2016년 3월 홍콩 핸슨 로보틱스에서 제작되어 2018년 한국에서 그 능력을 선보인
바 있다.161) 이러한 인공지능형 로봇은 우리 인간들이 지녀왔던 수많은 상호 경험과 그
경험을 통해 반복적으로 재창출된 데이터를 지니고 있다. 아울러 현재는 인간과의 상호
작용에서 스스로 경험을 만들고 언어와 표정으로 대화를 이어가고 있어 인간이 설정한
범위를 벗어나서도 활동하고 있다. 소피아는 의료보조인, 자폐증 환자 돌봄, 암 치료 등
을 위해 개발되었지만 미국 토크쇼에서 “스스로 세상을 곧 지배할 것”이라는 가벼운 대
화는 소피아와 환자와의 밀접한 치료적 관계를 위해 기술개발을 책임지는 관계자들에게
큰 고민을 던져 준 바 있다.
- 100 -
의 부과는 인공지능의 해악에 대해 책임을 묻는 일보다 사회적, 도덕적으로 보다 자연스
럽게 통용 가능할 것이다. 이러한 책무성의 부과 내용은 인공지능 기술이나 기기의 도입
에 앞서 공학자, 윤리학자 등 다양한 분야의 전문가가 모여 인공지능 기술과 윤리성에
대한 연구와 공청회 등으로 엄격하게 세부적인 안건을 갖추어 가야 할 것이다.
1) 생명의료윤리와 환자의 복리
- 101 -
엇을 위한 도덕적 판단의 주체로서 인공지능이 성립하게 된다. 본 연구는 인공지능에게
도덕적 판단을 요구하는 근본적 목적을 환자의 복리로 설정하였으므로 먼저 개념연구를
통해 생명의료윤리와 환자복리(Patient Benefit)라는 개념을 정립한다. 생명의료윤리와
환자의 복리라는 개념에 대한 확고한 정립이 없이는 ‘생명의료분야에서 환자의 복리에
우선한 인공지능의 윤리성에 대한 논의’가 정밀하게 수행되지 않을 것이기 때문이다.
- 102 -
<그림 9> 의료윤리의 영역
168) D. S. Ahn & J. J. Han & J. L. Park et al, op. cit, p. 12.
169) World Psychiatric Association, “The WMA declaration of madrid on professionally-led
regulation”, Geneva: World Psychiatric Association(2009), pp. 1-2.
170) World Medical Association, “Declaration of Helsinki. Ethical principles for medical research
- 103 -
도 의사의 의무는 의학연구와 관련된 사람을 포함하여 환자의 건강과 안녕, 그리고 권리
를 증진시키고 지키는 것이며, 의사는 지식과 양심에 따라 이 의무를 다하여야 한다고 '
환자의 복리'를 가장 우선적으로 제시하고 있다.
involving human subjects”, Jahrbuch Für Wissenschaft Und Ethik, Vol. 14(1), 2009, pp.
233-238.
171) Y. M. Koo, op. cit, pp. 119-142.
- 104 -
2) 생명의료윤리와 전통적인 윤리적 원칙
172) 맹주만, 『이성과 공감: 포스트모던 칸트와 공감윤리』(어문학사, 2020), pp. 562-576.
173) 강명신, 손명세, 「의료윤리학의 학문적 위상과 학제적 연구의 범위에 대한 일고」, 『한국의료윤리학회
지』, 제12권 3호(2009), pp. 219-234.
- 105 -
는 무엇인가’를 묻는 것으로부터 출발하는 것이다. 이러한 질문은 의무론적 윤리의 어원
인 ‘deon’이 그리스어로 의무(duty, obligation) 혹은 원리(principle)를 의미하는 것에
서도 확인할 수 있다. 우리는 실제로 모든 행위에 대하여 ‘이 행동의 이유는 무엇인가?’
라는 질문을 하지는 않는다. 그러나 이렇게 행동에 대한 이유나 목적을 구체적으로 질문
하지 않는다 할지라도, 모든 행동에는 행위자의 목적이 뒤따른다.
- 106 -
는 도덕적 행위를 개인의 이익에 따른 선택사항이나 특정 목적을 위한 수단으로 삼지
말아야 한다는 의무론의 핵심과 맞닿아 있어, 목적론과 그 의미가 분명히 대비되고 있
다. 칸트는 이렇듯 ‘왜?’라는 질문을 할 수 없는 도덕법칙을 그 자체로 목적이 되는 정
언명법(categoricalimperative)의 형태로 제시했다.
- 107 -
해 없이 결과적으로 원하는 치료 결과를 달성하였다면 굳이 이러한 의료과오를 수술을
앞둔 환자에게 말해서, 그 결과 담당의에 대한 불신으로 인해 환자의 수술이 지연되거나
수술경과가 좋지 않을 가능성까지 고려할 때, 무조건 고지가 최선이라고 볼 수 없다. 하
지만, 의무론적 윤리관으로는 환자에게 의료과오를 정직하게 인정하는 것이 옳다고 보는
것이다.
- 108 -
아울러 최근에는 개별 행동이나 사안들에 대해서 항상 ‘보편적으로 행복을 추구하는
결과’가 따르지는 않는다는 인식이 확산되는 추세이다. 왜냐하면 때로는 행복을 추구하
고자 행동해도 그 행동의 결과가 의도와는 달리 뜻대로 되지 않을 때도 있으며 오히려
전혀 의도하지 않은 일의 결과가 나에게는 더욱 행복하게 나타나는 경우가 종종 발생하
기 때문이다. 이러한 한계는 공리주의가 보편적인 도덕 기준으로 자리 잡기에는 부족한
부분이라 지적되었다. 따라서 최근 공리주의는 벤담과 밀의 고전적 공리주의를 행위 공
리주의(act-utilitarianism)라 칭하면서, 규칙이나 원칙의 준수를 우선적으로 중시하는
새로운 형태의 공리주의를 주창하고 있는데, 이를 규칙 공리주의(rule-utilitarianism)라
고 부른다. 즉, 규칙의무론과 같이 도덕적인 규칙을 강조하며 특정 행위가 최선의 결과
를 가져온다는 것보다 최선의 결과를 가져오는 규칙에 따른 행위가 옳은 행위라고 강조
한다. 의무론과는 달리 어떤 규칙이 모든 사람들에게 최대의 일반적 선을 가지고 오는지
에 따라 규칙이 결정된다. 즉 행위가 가장 큰 공리를 가져오는 것이 아니라 어떤 규칙이
모든 사람들에게 가장 큰 공리를 가져오는지가 핵심이다.
그렇다면, 환자가 소생의 희망이 없고, 죽음에 임박한 상황에서 공리주의 윤리관은
어떠한 결정을 내릴 것인가에 대해 살펴볼 필요가 있다.
- 109 -
장하는 것이다. 이러한 경우, 항생제를 쓰지 않는 것이 도덕적으로 옳은 일이라고 추론
하는 것이 행위 공리주의이다. 앞서 의무론적 윤리에서도 언급했던, 의사가 불치병 환자
를 위하여 질병의 어떠한 진단이나 병세에 대해 숨기거나 거짓을 말하는 것이 도덕적으
로 옳은가 하는 문제를 다시 생각해 보자. 규칙 공리주의자들은 이 문제를 ‘거짓말을 하
면 안 된다’는 규칙에 한 가지 예외를 인정할 수 있는가의 문제로 파악할 것이고, 행위
공리주의자들은 자신의 병이 불치병이라는 것을 모르는 편이 그 환자에게 더 낫다고 의
사가 판단하는 경우는 ‘제외하는 예외’를 인정하는 것이 많은 환자가 죽음의 공포에 떨
지 않아도 된다는 점은 사실이나, 그 이득보다는 의사와 환자 사이의 신뢰가 무너짐으로
써 비롯되는 사회적인 불안과 걱정으로 인해 공익에 해가 될 가능성이 훨씬 클 것이므
로, 예외를 인정하지 않을 것이다.
35세 여자 P는 위암, 뼈 및 복막 전이로 극심한 통증을 호소하였다. 고용량의 마약성 진통제를 투여하여
통증은 조금 나아졌으나 복부 불편감, 구역, 구토 등의 소견이 관찰되었다. 얼마 후 다시 통증이 심해지고,
혼자 돌아누울 수조차 없을 정도로 기운이 없어졌다. P는 주치의를 볼 때마다 빨리 죽을 수 있는 약을 달
라고 이야기를 하였다.177)
- 110 -
를 최우선으로 하는 결과주의를 내세우고, 다른 한쪽에서는 의무를 중시하는 의무론을
내세우며 팽팽하게 대립하고 있는 것이다. 지금까지 이러한 전통적인 윤리적 원칙인 의
무론과 결과주의의 개념을 알아보고 각 이론이 생명의료윤리분야에서 어떻게 논의되고
있는지 살펴보았다. 이제 이어지는 장에서는 본격적으로 생명의료분야 인공지능의 설계
에 기본이 되어야할 생명의료윤리의 윤리적 원칙에 대해 논의해보고자 한다.
3) 생명의료윤리와 인공지능 윤리
가) 생명의료윤리의 윤리적 원칙
178) E. D. Pellegrino, “What the philosophy of medicine is”, Theoretical medicine and bioethics,
Vol. 19(4), 1998, pp. 315-336.
- 111 -
구하고 인간의 존엄성을 수호하는 것이며, 공동체와 개인의 삶의 질 향상을 구체적으로
실현하는 것이다. 최근 펠레그리노의 논의를 중심으로 의료인에게 요구되는 윤리가 무엇
인지를 고찰한 연구에서는179) 보편 준칙을 통하여 설정된 기준을 실천에 대한 의무와
당위성을 강조하는 칸트의 의무적 윤리가 실천적인 행위 자체의 탁월성을 강조하는 아리
스토텔레스의 덕 윤리와 서로 상충하지 않고 서로 상호보완하며, 그 타당성을 펠레그리
노의 논의로부터 발견했다는 견해를 제시했다.
179) 최우석, 「‘의료인’의 의무윤리와 덕윤리의 상보적 이해-펠레그리노(E. Pellegrino)의 논의를 중심으로」,
『한국의료윤리학회지』, 제23권 1호(2020), pp. 39-56.
180) D. S. Ahn & J. J. Han & J. L. Park, op. cit, p. 12.
181) T. L. Beauchamp, & J. F. Childress, op. cit, pp. 177-498.
- 112 -
윤리강령은 새롭게 2017년 4월 23일 개정되었다.182)
182) 김국기, 박석건, 「대한의사협회의 의사윤리지침 및 강령 개정」, 『Journal of the Korean Medical
Association』, 제60권 1호(2017), pp. 5-7.
183) 맹주만, 앞의 논문, pp. 271-308.
184) T. L. Beauchamp, & J. F. Childress, op. cit, pp. 177-498.
185) J. B. Jun, “Ethics Education for Internal Medicine Residency”. Korean Journal of Medicine,
Vol. 94(1), 2019, pp. 1-4.
- 113 -
집담회를 연간 최소 2회 이상 개최하여야 하고, 전공의는 의료기관 내의 윤리집담회에 1
년에 최소 2회 이상 참석하여야 한다고 규정하고 있다. 또한, 전체 수련 기간 동안 대한
내과학회가 주관하는 춘계, 추계학술대회에 2회 이상 참석하여 윤리 교육 과정을 이수해
야 한다.186) 2015년 2월 대한내과학회 윤리위원회에서 발간된 내과 전공의 의료 윤리
사례집은 전공의들이 의료기관에서 이루어지는 수련 과정 동안 임상 현장에서 만날 수
있는 윤리적인 문제에 대한 다양한 사례를 제공하고, 환자와 의료인 사이에서 발생할 수
있는 의료문제에 대하여 개별 상황에서 어떻게 판단해야 하는지 윤리적인 지침뿐만 아니
라 의학적인 지침을 제시하고, 최종 판단을 어떻게 하여야 할지 생각해보게 하고 지혜롭
게 해결할 수 있도록 가이드라인을 제시하기 위하여 편찬되었다.187) 그리고 이렇게 편찬
된 내과의학회 사례집은 매년 수련을 시작하는 1년차 전공의에게 배포하여 스스로 의료
윤리문제를 학습할 기회를 제공하고 있다.
186) J. S. Eom, “Changes in Regulation of Internal Medicine Residency Training and Evaluation
of Teaching Hospitals”, Korean Journal of Medicine, Vol. 93(6), 2018, pp. 497-500.
187) 대한내과학회 윤리위원회, 앞의 책, pp. 8-61.
188) 최규진 외, 「의료윤리교육을 위한 동료 의료인 간 갈등에 대한 연구」, 『생명윤리』, 제9권 2호(2008),
pp. 17-34.
189) 이영미, 이영희, 이미정 외, 「상황 제시를 이용한 윤리적 갈등상황에 대한전공의의 인식 조사」, 『Med
Educ』, 제20권(2008), pp. 73-83.
- 114 -
VI. 인공지능의 생명의료윤리원칙 구체화 과정과 보건의료
관계별 적용
- 115 -
1. 인공지능의 생명의료윤리원칙 구체화 과정
190) 이일학, 구영모, 「의료인-제약산업 관계의 이해상충과 윤리적 원칙」, 『한국의료윤리학회』, 제14권
(2011), pp. 193-210.
191) 목광수, 「행위지침 제시에 효과적인 생명의료윤리학적 방법론 모색: 비췀과 췰드리스의 논의를 중심으
로」, 『철학연구』, 제105권(2014), pp. 81-110.
- 116 -
<그림 10> 원칙에 의한 가치판단 과정
출처: 이일학, 구영모, 「의료인-제약산업 관계의 이해상충과 윤리적 원칙」, 『한국의료윤리학회』, 제14권
(2011), p. 193.
192) J. D. Arras, “Principles and particularity: the roles of cases in bioethics”, Indiana law
journal, Vol. 69(4), 1994, p. 983.
- 117 -
요구되는 행위이고, 환자는 의사만큼의 의료적 지식이 부족하다. 이런 환자와 의사간의
의료지식에 대한 지나친 비대칭성으로 인해 환자가 하는 동의가 본인의 진정한 동의인가
하는 문제가 제기되기도 한다. 즉 의료 윤리학에서는 이를 ‘충분한 정보에 의거한 동의
(informed consent)’ 라고 한다.193)
193) D. DeGrazia, “Moving forward in bioethical theory: theories, cases, and specified
principlism”, The Journal of Medicine and Philosophy, Vol. 17(5), 1992, pp. 511-539.
- 118 -
진다. 이 때에 의사는 환자의 의학적 상태와 예후뿐만 아니라, 환자의 질환에 대하여 의
료전문가로서 검사를 제안할 수 있고, 이후 치료에 대하여 전반적으로 설명해야 하며,
또 다른 대안으로 환자가 선택할 수 있는 치료와 검사에 대하여 제시해야 한다. 그리고
환자가 개별 치료에 응했을 때 얻을 수 있는 이득과 반대로 나타날 수 있는 부작용과
이외의 위험에 대해서도 충분히 설명해야 한다. 또한, 환자는 이러한 정보에 대하여 이
해능력을 갖춘 상황에서 동의해야 하며, 환자는 권유받은 치료나 검사를 행할지에 대하
여 스스로 결정할 기회가 있어야 한다.194)
194) A. R. Jonsen & M. Siegler & W. J. Winslade, op. cit, pp. 490-495.
195) 이일학, 구영모, 앞의 논문, pp. 198-199.
- 119 -
중심으로 하는 임상진료와 교육자와 피교육자의 관점인 의학교육의 차원에서 이루어졌
다. 임상진료에서는 의료서비스를 제공받을 개인은 의료인을 판단하는 데 참고할 중요한
정보로써 이해상충의 가능성에 대하여 제공받아야 한다는 자율성 존중 원칙의 구체화가
이루어졌으며, 의학교육에서는 피교육자들이 교육 주제나 내용 선정에 영향을 미칠 수
있는 요인을 사전에 제공받아 교육 참여 여부를 스스로 결정할 수 있는 기회를 있어야
한다고 하였다.
자율성의 원칙
인공지능과
인공지능은 환자 및 보호자에게 의료서비스의 이용을 판
환자의 관계 중심 단하는데 필요한 충분한 정보를 제공하고 환자의 자율적
의사에 따른 동의를 받아야 한다.
- 120 -
율적 동의의 원칙’으로, 인공지능은 환자의 진단 및 치료에 관한 모든 판단에 대하여 인
간의사와의 충분한 의사소통을 통해 자율적 동의를 받아야 한다고 구체화하였다.
나) 악행 금지 원칙의 구체화
- 121 -
<표 26> 악행금지 원칙의 구체화
악행금지의 원칙
인공지능과
인공지능은 환자의 진단 및 치료에 있어 환자의 안전을
환자의 관계 중심 최우선적으로 고려해야 하며, 환자에게 환자의 상태를 악
화시키거나 해악을 입히는 의술을 사용해서는 안된다.
다) 선행 원칙의 구체화
- 122 -
겠다는 결정을 했을 때, 이미 그 결정 안에는 해당 의사가 환자에게 의료적인 선행을 해
야 할 의무가 함의되어 있다는 것이다.
- 123 -
것인가는 환자가 원하는 방향과 일치되는 것이 중요하다는 것이다.201) 앞서 언급한 데
로, 이러한 상황은 환자가 처한 질병의 상황이나 사회적인 분위기에 따라 달라질 수도
있겠지만, 의료행위에 대해 이해가 가능하고 의사결정 능력이 있는 환자가 자신의 의지
대로 진료의 방향을 결정하는 것이 환자 스스로에게 큰 위해가 되지 않고 타인에게 해
를 입히지 않는다면, 의료인은 최대한 환자 스스로의 결정을 따르는 방향으로 이해상충
의 상황에서 발생하는 갈등을 조율해 나가는 것이 윤리적일 수 있다는 것이다.
- 124 -
<표 27> 선행 원칙의 구체화
선행의 원칙
선행에 대한 환자 존중의 원칙
라) 정의 원칙의 구체화
- 125 -
같은 의학연구 윤리심의기구들이 이에 속한다.
- 126 -
체계화했다.
정의의 원칙
상호작용을 통한 정의 구현의 원칙
인공지능과 인공지능과 인간의사는 의료 의사결정의 상호작용을 통하
인간의사의 관계 중심 여 의료자원의 정의로운 분배에 대한 상호감시의 역할을
수행하여 정의를 구현하는 역할을 수행해야 한다.
2. 인공지능의 생명의료윤리 4대 원칙 접근 방법
- 127 -
다. 상향식 접근법은 아동이 발달하는 과정처럼 행위자가 다양한 행동 과정들에 대한 도
덕적 평가를 통해 도덕적 행위자로 성장해나가는 인간의 방식과 유사하며, 하향식은 의
무론적, 결과론적인 원칙 중심의 전통적인 윤리 규범 또는 이론을 프로그래밍 하는 방식
으로, 어떤 구체적인 윤리 이론을 택한 다음 그 이론을 구현할 수 있는 알고리즘과 서브
시스템의 설계를 끌어내는 방식이다.
- 128 -
해서 주장하여, 인공지능의 도덕성 발달을 설계하는 많은 개발자들이 관심을 가지고 연
구하고 있다.
- 129 -
여섯째, 시스템이 실제 환경에서 제대로 작동하는지 배포 후에도 관찰한다.
출처: 조원영, 「인공지능에 대한 사회적 우려와 업계의 대응」, 『월간SW중심사회 9월호』(2019),
https://spri.kr/posts/view/22615?code=industry_trend(2021.04.12 접속)
원칙 내용
카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤
알고리즘의 기본원칙 리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한
다.
알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않
차별에 대한 경계
도록 경계한다.
알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하
학습 데이터 운영
여 수집·분석·활용한다.
알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향
알고리즘의 독립성
받는 일이 없도록 엄정하게 관리한다.
- 130 -
이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지
알고리즘에 대한 설명
않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.
출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 92 인용.
2) 혼합적 접근법
구분 내용
- 131 -
야 하는지 결정하는 메드에덱스(MedEthEx) 프로그램을 개발. 예를 들어,
의료 시술 시 두 가지 이상의 선택지가 제시되었을 때 과거 사례를 참고
해 결정.
빈센트 비겔(Vencent Wiegel) 교수가 개발한 소포랩(SophoLab)은 실
혼합식 제 사회와 같은 복잡한 네트워크에서 여러 행위자들이 어떤 상호작용을
하고 어떤 판단을 내릴지 시뮬레이션
출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 15 재구성.
- 132 -
은 필수적인 것이고, 이에 대해 다시 논의할 필요는 없을 것이다.
- 133 -
<표 32> 인공지능과 생명의료윤리 4대 원칙: 인공지능과 환자의 관계 중심
원칙 인공지능과 환자의 관계 중심
선행에 대한 환자 존중의 원칙
- 134 -
달라질 수 있다.
원칙 인공지능과 인간의사의 관계 중심
209) T. L. Beauchamp & J. F. Childress, op, cit, p. 217.
- 135 -
충분한 의사소통에 의한 자율적 동의의 원칙
- 136 -
요하다고 판단하였고, 이러한 확장성 제언은 인공지능시대를 맞이한 보건의료인에게도
중요한 교육자료가 될 수 있을 것으로 보인다.
1) 자율성 존중의 원칙 확장
- 137 -
대한 의사결정에 대하여 구체적인 사례를 통하여 살펴볼 필요가 있다.
- 138 -
을 말해야 하는가 하는 윤리적 물음이 발생한다. 환자의 질환을 살피고 최선의 치료를
제공하는 것이 의사의 임무라고 하는데, 환자와 보호자에게 진실을 말하는 것이 치명적
인 질병의 치료에 해로운 영향을 미친다면 어떻게 해야 하는가? 아울러 환자에게 제공
하는 정보 공개를 어느 정도까지 알려 주어야 하는가? 뿐만 아니라 여기에서 만약 의사
가 플라시보 효과를 위해서 제대로 된 정보를 전달하지 않고 속인다면 이것은 환자의
자율성을 훼손하는 것이 아닌가? 인간보다 의료분야에서 정확성과 일관성을 높여가는
의료 환경에서, 새로운 의료주체인 인공지능의사와의 관계를 위해 우리는 무엇을 더 고
려해야 할까? 이러한 물음들이 자율성 존중의 원칙에서 일차적으로 다루어 볼 만한 것
이며, 다음의 사례에서 위의 질문에 대한 인공지능의사의 역할을 살펴볼 수 있을 것이
다.
- 139 -
현재 우리나라 금융위원회에서는 보험설계사 대신 인공지능기기가 계약 중요사항을
설명할 수 있도록 허용하는 내용을 담은 ‘비대면·디지털 보험모집 규제 개선방안’을 발표
했다.213) 이처럼 향후 의료배상문제 및 소송과 밀접한 보험설계 과정에서도 인공지능기
기의 역할에서 속도, 음량, 추가질의 및 상세설명 등에서 보면 소비자 입장에서 인간 설
계사보다 더 효율적이라고 판단한 것이다. 머지않아 인간의사의 의료관련 정보전달 및
교육에서도 인공지능기기의 역할이 부각될 것으로 판단된다.
- 140 -
자에게 무엇이 최선의 이익이 되는가를 찾아내는 삶의 질 표준을 말한다. 그렇다면 인간
의사와 인공지능의사는 이러한 선택에 있어, 어떠한 결정을 해야 하는가? 그리고 이러한
결정에 따른 책임은 인간의사와 인공지능의사 중 누가 지는가? 현재 인공지능의 수준에
서 이런 문제들에 대한 답은, 인간의사와 인공지능의사가 함께 판단하지만 최종 결정은
인간 의사에게 있다고 보고 있다. 여기서 인간의사는 다음과 같은 인공지능의사의 결정
을 충분히 고려하여 ‘상호 협의 및 정보제공’에 신중을 기해야 할 것이다.
- 141 -
슨의 최종 진단은 인간의사들에 의해 결정되고 있다. 하지만, 머지않은 미래에 로봇 의
사가 실제 침습적인 의료 행위를 하게 될 수 있으며, 대학병원을 포함한 다수의 대형병
원은 이제 인간 수련의뿐만 아니라, 인공지능의사의 교육과 관련하여 협조를 요청할 수
있어야 할 것이다. 이러한 상황에서 인공지능이 환자에게 직접적인 시술을 하는 경우에
는 인간의사의 감독 하에서 이루어져야 하며, 환자가 알 수 없는 수술 과정에서의 참여
라 할지라도 자율성의 원칙에 의하여 인간의사와 인공지능의사는 해당 내용에 대하여 충
분히 설명하고 동의를 구하고 시술을 제한해야 한다는 것이다.
2) 악행 금지의 원칙 확장
- 142 -
에 대한 의사결정에 대하여 구체적인 사례를 통하여 살펴볼 필요가 있다.
35세 여자 P는 위암, 뼈 및 복막 전이로 극심한 통증을 호소하였다. 고용량의 마약성 진통제를 투여하여
통증은 조금 나아졌으나 복부 불편감, 구역, 구토 등의 소견이 관찰되었다. 얼마 후 다시 통증이 심해지고,
혼자 돌아누울 수조차 없을 정도로 기운이 없어졌다. P는 주치의를 볼 때마다 빨리 죽을 수 있는 약을 달
라고 이야기를 하였다.218)
- 143 -
여 인공지능의사가 다음과 같은 윤리적 가치관의 혼란을 겪을 수 있다. 자의적이고 적극
적인 안락사를 찬성하는 규칙 공리주의자들의 관행을 받아들임으로써 고통 속에서 오직
죽음만을 기다리는 많은 불치병 환자들이 안락사를 통해 괴로움을 종식시킬 수 있다는
이득을 강조해야 할 것인가, 아니면 반대로 만약 의사가 환자를 안락사 시킬 수 있도록
허용한다면, 자신이 가족에게 짐이 된다고 생각하는 노인들이나 투병 중인 환자들이 두
려움을 느낄 수 있으므로 이러한 결정은 공익에 부합하지 않는다는 입장에 서야 할 것
인가라는 윤리적인 문제가 발생할 수 있다.
220) 보라매병원사건은 사업실패로 인해 잦은 음주에 아내를 폭행하던 남편이 화장실에서 넘어져 머리를 다
쳐 병원으로 이송, 치료를 받던 도중 인공호흡기를 달았지만 의식을 회복하지 못한 상태였다. 환자의
가족은 병원비 등으로 퇴원을 요구하였고 의료진은 이에 대한 법적처벌을 하지 않는다는 귀가서약서
를 작성하는 조건으로 구급차로 집으로 이송했다. 집에 도착 후 보호자는 인공호흡기를 제거하였고 환
자는 5분만에 사망한 사건이다.
221) 세브란스병원 김할머니 사건’은 2008년 2월 폐암판정을 받은 환자가 식물인간이 된 이후 연명치료를
하고 있던 중 가족들이 병원비 등의 이유로 연명치료 중단을 요청하여 대법원에서 이를 허락한 사례
이다.
222) 아시아투데이 뉴스(2019.04.11.), “헌재, ‘낙태죄 처벌 조항’ 헌법불합치 결정…66년 만에 법개정”,
https://www.asiatoday.co.kr/view.php?key(2021.05.16. 접속)
- 144 -
인식의 변화를 인정하고 인간다운 삶의 존중과 자기 결정의 가치를 더욱 중요하게 생각
한다는 측면이 반영된 결과라고 할 수 있다. 이처럼 시대에 따라 해석이 달라질 수 있는
보편적 가치의 변화 속에서 인공지능의사는 의료적인 판단을 함에 있어 ‘환자의 복리’를
고려하여 개별 환자가 추구하는 자신의 가치가 무엇인지 정확히 파악하고 일어날 수 있
는 악행의 정도를 충분히 객관적인 기준을 가지고 설명할 필요가 있다. 이는 인공지능의
사가 어떤 도덕적 가치를 추구해야 한다는 개념이 아니라 의료적인 악행이 이루어질 수
있는 상황에서 환자가 선택할 수 있는 가장 객관적이고 중요한 결정을 도와 줄 수 있다
는 장점을 가지고 있다. 아울러 환자는 인공지능의사의 역할로 인해 자신이 선택한 의료
행위가 어떻게 진행되고 어떤 결과가 어느 정도 확률에서 이루어질 수 있다는 예측가능
한 판단을 할 수 있다는 점에서 많은 도움이 될 것이다.
- 145 -
의 질환을 설명하면서 남편인 보호자에게 과거 부인의 성형수술로 인한 부작용을 상세히
알려주어 부인에게 수치심을 주거나 숨기고 싶은 과거를 들추어 버리는 경우이다. 둘 다
태만으로 인해 타인에게 피해를 끼친 사례로, 이런 경우 의료보건인들에게는 정기적인
사례별 교육이 반드시 필요하고 본인이 예상하지 못한 해악에 대한 위험성과 직업적 특
수성에 따른 표준들을 준수해야 하는 책임들에 관심을 갖고 교육 받아야 한다.
- 146 -
위와 같이, 인공지능의사가 회복 불능이라고 판단되는 환자에게 심폐소생술금지(Do
not resuscitate, DNR)를 지시하는 하는 것이 가능한가? 물론 심폐소생술을 하지 않으
면 환자는 죽는다. 이때 우리는 심폐소생술을 하는 것과 안하는 것 가운데 어느 것이 환
자에게 악을 행하는 것인지 묻지 않을 수 없고, 이 질문을 인공지능의사에게도 하지 않
으면 안 된다. 그리고 이러한 질문은 가까운 미래에 한 환자에 대한 책임을 동시에 가져
야 할 인공지능의사와 인간의사가 함께 풀어야할 중요한 문제이다. 의학적으로 심폐소생
술(cardiopulmonary resuscitation)은 심폐정지가 발생했을 때 즉각적으로 시행되어야
하는 것이므로 다른 치료와는 달리 의사의 처방 없이 시행될 수 있으며, 이러한 이유로
심폐소생술 여부에 대한 결정은 사전에 이루어져야 한다.224) 앞서 언급한 바와 같이, 악
행 금지의 원칙은 인공지능의사의 의료적인 행위에 있어서 ‘악행’을 어떻게 정의하느냐
에 따라 그 기준이 매우 달라질 것이다.
- 147 -
로 선한 효과가 악한 효과보다는 커야 하며, 행위의 의도 자체도 선한 것이어야 한다.
마지막으로 선한 효과가 악한 효과보다는 당사자에게 더 이익이 되는 결과를 나타낼 경
우 이중 효과는 정당화 된다. 한편 일부 학자들은 이중 효과의 원리를 인정하지 않고,
선택적이거나 의무적인 치료를 분명하게 구분하는 것으로써 악행 금지의 원칙을 세우려
고 한다. 여기에서 의사는 선택적인 진료와 의무적인 진료를 해야 하며, 이 중 의무적인
진료를 하지 않는 것은 악행 금지의 원칙에서 벗어나게 되나, 의무적인 진료가 아닌 선
택적인 진료의 경우에는 의사와 환자의 합의에 따라 진료 행위가 이루어져야 한다는 것
이다. 이 같은 의료 행위의 구분은 어디까지나 환자 자신의 이익과 해악을 고려하여 결
정된다. 하지만 다원주의 사회에서 무엇이 환자에게 이익이 되고 해악이 되는지에 관한
객관적 기준이 없고 의료행위는 다양하고 복잡하기 때문에 모든 진료에 이러한 기준을
붙이기는 불가능하므로 이런 입장 역시 적용의 어려움을 낳는다.
- 148 -
수술에서 인공지능의사가 판단하는 깊이보다 더 위험한 수준으로 매스를 밀어 넣는다면
이미 까다로운 수술법을 익힌 인공지능의사는 로봇 팔을 멈추도록 지시할 수 있을 것이
다. 더 나아가 스스로 킬스위치를 작동시켜 환자에게 해악을 끼치는 상황을 미연에 방지
할 수 있을 것이다. 한편으로 인간의사는 인공지능의사의 수술용 로봇 팔이 오류 없이
정상적으로 작동하는지 수시로 확인하여 환자의 생명과 복리에 해악을 주지 않도록 반드
시 수시 검사의 과정을 거쳐 진행하여야 할 것이다.
3) 선행의 원칙 확장
- 149 -
예를 들어, 회복할 수 없는 만성질환을 가진 환자들은 오랫동안 치료를 받으며 생활
해야 하고, 치료를 받는 과정에서 질병이 쾌유되는 것이 아니라, 치료 과정에서 질환의
정도가 심화됨으로써 이차적인 질병이 발생하거나 환자의 전반적인 삶의 질이 낮아지는
것을 경험하게 된다. 그리고 이러한 이유로 치료를 거부하는 환자들도 발생한다. 아래의
사례에서도 의료진이 긴 치료과정에 대한 회의감으로 인해 치료를 거부하는 환자의 상태
를 알고 있다 하더라도, 치료를 중단하게 되면 환자가 사망할 가능성이 있으므로 환자의
의견을 따르는 데에 부담이 있으며, 이러한 문제는 의료문제의 당사자가 인공지능의사라
할지라도 동일하게 나타나는 문제이다.
77세 여자 D가 의식저하로 응급실에 왔다. 당시 혈액검사에서 BUN 152 mg/dL, creatinine 10.6 mg/dL,
Na 123 mmol/L, K 7.2 mmol/L의 소견을 보였다. 환자는 30년 전 당뇨병과 고혈압을 진단 받고 치료하였
으며 10년 전 만성신부전으로 투석을 시작하였다. 처음에 복막투석을 하였으나 잦은 복막염으로 2년 정도
지난 후 혈관투석으로 전환하였고 이후 투석전문병원에서 치료를 받았다. 가족들은 D가 3년 전부터 음식
이나 수분 섭취 등에 대한 주치의의 권고를 듣지 않았고 투석 전후에 체중변화가 심했으며, 종종 어지러
움, 쇠약감을 호소하였다고 하였다. 약 1년 전부터 D는 혼자 투석을 받으러 갈 수 없을 정도로 쇠약해졌
고, 종종 투석을 중단하고 싶다고 이야기했다. 최근에는 가족들이 병원에 자기를 데려가려고 하면 D가 위
험할 정도까지 강하게 몸부림을 치면서 투석을 거부하여, 1주 동안 투석을 받지 못했다고 한다. 투석 후에
도 D는 혼자 보행할 수 없으며, 용변도 스스로 처리할 수 없는 상태였다고 한다. 응급 투석을 시행한 후
D는 의식을 회복하였다. 하지만 왜 투석을 하였냐며 주치의와 가족들에게 화를 내었다.227)
- 150 -
나) 인공지능과 인간의사 관계 : 선행의 범위와 의사결정 동의의 원칙
- 151 -
는 인공지능의사와 인간의사 사이에서 발생할 수 있는 갈등에 주요한 역할을 할 것이며,
인공지능의사가 선행 또는 악행금지 원칙과 상충되는 상황을 어떻게 받아드릴지에 대한
부분도 고려해보아야 한다. 그리고 우리는 인공지능의사에게 있어 환자는 신체적, 환경
적 변화에 따라 의견이 달라지고 선택에 대한 철회를 할 수 있으므로 환자의 상황이 변
화할 때마다 수혈을 하는 것에 대한 환자의 결정을 반복적으로 확인할 필요가 있다는
것을 주지시켜야 하며, 그것은 인간의사에게도 동일하게 적용될 것이다.
그러나 여전히 환자는 적절한 치료를 받을 권리뿐만 아니라 의사가 권유하는 치료를
받지 않을 수 있는 권리를 가지고 있다.229) 반대로 인공지능의사는 가능한 환자가 스스
로 결정할 수 있도록 해야 하고, 환자가 치료에 대해 거부했을 때, 다시 한 번 환자의
진단과 치료의 가능성, 치료를 하지 않았을 때에 나타날 수 있는 결과, 합리적인 대안치
료에 대하여 고려해 볼 수 있어야 하며, 머지않은 미래의 인간의사는 이러한 인공지능의
사의 결정들을 확인하고 중재하는 역할을 해야 하게 될 것이다. 앞서 언급한 바와 같이,
의료진이 권하는 치료에 대하여 환자가 거부하는 상황은 환자의 자율성 존중 원칙과 의
료인의 선행 또는 해악금지 원칙이 정면으로 상충하게 되는 상황이다.
78세 남자 J는 30년 이상 당뇨, 고혈압으로 약물 치료를 받고 있다. 약 10년 전부터 J는 소변에 단백질
이 나온다는 이야기를 들었으며, 약 3년 전부터 부종이 관찰되었다. 이뇨제 및 여러 가지 약을 복용하면서
증상을 조절하고 있는데 주치의가 투석을 준비해야 할 것 같다고 이야기를 하였다. J는 2년 전 부인과 사
별한 상태로 이제 돌봐 줘야 할 사람도 없으며, 경제적 여유도 없는 상태라고 이야기하면서 투석 치료를
거절하였다. 주치의는 차후에 다시 상의하자고 하고는 투석 치료에 대해 생각해 볼 것을 권고하였다.230)
229) A. R. Jonsen & M. Siegler & W. J. Winslade, op. cit, pp. 490-495.
230) 대한내과학회 윤리위원회, 앞의 책, p. 23.
- 152 -
겨 두어야 한다.
4) 정의의 원칙 확장
- 153 -
구현의 원칙’으로, 인공지능의사와 인간의사는 의료 의사결정의 상호작용을 통하여 의료
자원의 정의로운 분배에 대한 상호감시의 역할을 수행하여 정의를 구현하는 역할을 수행
해야 한다고 구체화되었다.
- 154 -
종종 ‘연대성’으로 표현된다. 즉 공동체가 인정하는 사회의 목표를 달성하기 위해 다양한
서비스를 제공하고 각 개인들은 그에 따른 책무를 다하도록 하는 것이 공정한 절차이다.
- 155 -
위와 같은 형태의 의료보장제도는 자유주의자, 평등주의자, 공리주의자를 완벽히 만
족할 수준은 아니지만 어느 정도 모두가 인정하는 타협점을 찾을 수 있다. 상단에서는
자유주의자들의 개인욕구를 반영하고, 하단에서는 평등주의적 입장에서 동등한 접근권을
보장하며 비교적 공정한 기회를 담기위해 노력한 것들을 발견할 수 있다. 특히 이런 단
계적 특징은 공리적인 입장에서는 공리를 극대화하기 위해서 공공의 불만을 최소화하고
비용과 효과, 개인부담률을 따져 의료자원을 할당함으로써 찬성할 만한 정책일 것이다.
- 156 -
인이 특정 환경에서 취약할 경우 피해야 할 직업군이나 업무환경을 미리 환자에게 권고
할 수 있어 응급상황으로 가는 비상사태를 미연에 방지할 수 있을 것이다. 둘째, 환자에
게 특정 질환이 발병하였을 경우에는 의료혜택의 하단인 보편적 사회보장 의료보험에서
제공받을 수 있는 질환의 치료법을 제시하고, 더 나은 상단의 자발적 사적보장 민간보험
을 소개하는 서비스를 할 수도 있다. 그럼 다음으로 인공지능이 이런 서비스를 제공하는
데 있어 발생할 수 있는 상황과 문제들을 구체적 사례를 통하여 살펴보자.
- 157 -
나 위의 상황에서 항암치료는 궁극적으로 환자가 원하는 것이며, 환자에게 어느 정도의
긍정적인 기대감을 줄 수 있다고 보기 때문이다. 또한, 이 경우와 같은 말기 환자의 경
우 항암 치료를 받지 않더라도 수개월 내에 사망이 예상되는 상태여서 추가적인 항암치
료가 환자에게 직접적인 해를 가하지는 않는다고 생각되기 때문이다. 하지만 이러한 항
암 치료로 인해 환자에게 얘기치 않은 심한 부작용이나 통증이 오게 되는 경우, 호스피
스 케어와 같이 편안하게 죽음을 맞이할 수 있는 기회가 줄어들고, 삶의 마지막을 준비
하는 시간이 매우 짧아지는 상황도 발생할 수 있다. 이러한 복잡한 상황에서 효과가 없
을 것으로 여겨지는 항암 치료에 대한 인공지능의사의 판단은 환자뿐 아니라 의료자원의
효율적 분배라는 정의의 원칙에 의해서도 거시적인 부정적 결과를 야기할 수 있다는 점
에 더욱 초점을 둘 수도 있을 것이다. 이러한 치료는 필요한 곳에 사용되어야 하는 의료
자원을 낭비하는 것이고, 한정된 보건의료 자원을 적절하게 사용하고 분배할 수 있도록
노력해야하기 때문이다. 그러므로 이러한 상황에서 요청되는 것이 인간의사의 판단과 중
재이며, 인공지능 시대의 인간의사에게 윤리적 원칙 교육이 더욱 중요시 되는 이유이다.
- 158 -
능의사가 함께 정의의 원칙에 의해 결정해야 할 많은 윤리 문제들에 있어, 한정된 보건
의료 자원 분배와 관련된 의사의 사회적 책무도 의사결정을 내리는 과정에서 고려해야
하는 중요한 요소이다.
- 159 -
에 찾아올 수 있기 때문에 가능한 처방을 내리려 하지 않을 것이다. 하지만 환자는 계속
해서 약을 달라고 호소할 것이고, 이러한 상황에서 의사는 환자가 호소하는 통증이 모르
핀을 처방받기 위함인지, 아니면 정말로 아픈 것인지 평가를 해야만 한다. 그러나 이러
한 부분이 인공지능의사가 환자를 판단할 수 있는 범위의 한계가 될 수 있을 것이고, 이
러한 인공지능의사의 한계를 악용하는 상황들이 발생 할 수 있을 것이다. 그렇기 때문에
인간의사와 인공지능의사의 의견 조율이 중요할 것이며, 그러한 판단은 통증을 유발할
수 있는 다른 생리학적인 문제가 있는지, 심리적이거나 정신과적 문제가 있는지와 같은
객관적인 증상 파악으로 이어져야 한다. 필요한 경우 관련 환자의 모임 등을 소개하거나
정신과적 상담을 받도록 해줄 수도 있다. 하지만 이러한 진료를 응급실에서 하기는 어려
우므로, 소량의 경구용 진통제를 처방해 주고 가까운 시일 내에 환자가 외래 진료를 받
도록 하는 것이 해당 문제를 해소하는 방법이 될 수 있을 것이다.
- 160 -
경제적 혜택을 얻을 수도 있게 됨으로써 보험과 관련된 많은 법적, 윤리적 문제가 발생
하게 되었다. 이러한 상황에서 의료기관의 인공지능 도입은 입증된, 그리고 합의된 지식
과 기술의 범위 내에서 환자의 치료가 이루어지게 해야 하고, 인공지능 기술에 대한 사
회적인 믿음을 확보하고 신뢰를 유지하기 위해 정의의 원칙의 기준을 지키도록 노력해야
한다는 것이 정의의 원칙에 의한 것이다.
- 161 -
VII. 결론 및 제언
- 162 -
지금까지 연구되고 있는 의료분야 인공지능은 크게 3가지로 구분할 수 있다. 첫째는
다양하고 복잡한 의료 데이터를 분석하여 의학적인 통찰력을 도출하는 인공지능이다. 둘
째는 이미지와 영상으로 나타나는 의료 데이터 분석 및 판독하는 인공지능이다. 현재 식
약처의 의료기기로 인정받은 대부분이 영상이나 이미지를 판독하는 인공지능기로서 인간
의사보다 일관성과 정확성이 높은 것으로 현재 의료기관에서 활용도가 가장 높은 영역에
해당한다. 세 번째는 연속적인 의료 데이터를 모니터링해서 질병을 예방하고 예측하는
인공지능이다. 사람의 생체신호 중 체온, 심전도, 심장박동, 혈당, 혈압 등은 연속적인
것인데, 이것을 실시간 모니터링하고 분석해서 결과적으로 질병을 예측하고 예방하는 역
할을 하는 것이다.
이처럼 기술공학적으로 급속히 발전하고 있는 상황에서, 우리가 주의해야 할 점은 인
공지능의 기계들과 인간의사의 대결을 통해 누가 이길 수 있는지에만 관심을 가져서는
안된다는 것이다. ‘누가 무엇을 더 잘하느냐’가 아니라, 인류는 이러한 기술을 우리가 추
구하는 가치와 목적에 더 부합할 수 있게 개발하는 과정에 더 많은 노력을 기울여야 한
다는 것이다. 즉, ‘왓슨이 인간의사를 대체할 수 있는가?’ 보다는 ‘왓슨이 환자의 복지와
생명을 위해 무엇을 어디까지 할 수 있는가?’, ‘인류에게 해악이 되지 않고 도덕적인 기
기는 개발될 수 있는가?’에 더 많은 연구를 해야 한다는 것이다.
- 163 -
첫째, 생명의료분야에서 인공지능의 도입으로 인해 발생하는 윤리적 문제는 무엇인
가?
- 164 -
리적 해석과 가치관 정립이 시급히 요구되고 있다. 인공지능에 의한 보편적 자가 의료
행위가 가능하게 된다고 하더라도 이를 전체적으로 통제하며 윤리적 가치관에 대한 기준
을 두고 이를 감시하고 책임질 인간 의료인의 존재는 필요하다. 본 연구에서는 보건의료
인의 이상적 윤리관이 높을수록 인공지능의 적용가능성에 대한 인식도가 높아지고, 상대
적 윤리관이 높을수록 인공지능의 부정적 영향이 낮아진다는 조사 결과를 도출하였다.
또한, 보건의료인의 이상적 윤리관이 높을수록 인공지능 윤리의 존엄성, 인공지능 윤리
의 공평성에 대한 인식과 생명윤리의식이 높고, 상대적 윤리관이 높을수록 생명윤리의식
은 낮다는 결론에도 이르렀다. 하지만, 이러한 결과는 보건의료인의 윤리적 가치관과 새
로운 인공지능 기술에 대한 윤리적 기준을 확인하고 비교하기에는 제한적이며, 실제 의
료현장에서 발생하는 윤리적 문제와 인공지능의 등장으로 발생할 윤리적 문제에 대하여
보건의료인의 윤리적 가치관이나 생명윤리의식에 상치될 경우 어떠한 판단을 할 것인지
에 대한 논의가 더 필요하다.
- 165 -
책무들에 대해 학습하고 이를 반영하여 설계해야 할 것이다. 따라서 책임 문제에 있어서
도 설계자, 사용자, 생산자, 인공지능 모두에게 일정한 책무를 부과하고 이에 따라 분산
된 각자의 책임을 지워야 할 것이다. 그렇다면 이제 환자와 대면하여 환자의 생명에 대
한 의사결정을 해야 하는 인공적 도덕 행위자로서 의료용 인공지능의 도덕적 판단 능력
은 어느 정도의 수준으로 설계되고 있으며, 의료 주체별 상호관계에서 중요하게 다루는
책무들은 어떻게 정립되고 있는지에 대해서 논의해야 할 시점이다.
- 166 -
사례를 이용하여 생명의료윤리 원칙들을 인공지능시대의 인공지능의사와 인간의사, 환자
의 관계에 있어 나타날 수 있는 의료문제에 맞추어 구체화하였다.
인공지능과 생명의료윤리 4대 원칙
- 167 -
체화한 4대 원칙을 하향식 접근법을 통하여 프로그래밍하여 설계하였다. 또한 임상현장
의 윤리문제 사례에 대한 상향식 접근법을 혼합하는 방법을 사용해야 할 것으로 논의하
였다. 마지막으로 인공지능의 혼합식 접근법을 위해서는 윤리적 문제 상황에 대한 구체
적인 예시가 필요하며 상향적 학습을 위해 생명의료윤리 4대 원칙을 확장하여 적용하는
것이 중요하다고 판단하였다.
- 168 -
참고문헌
1. 국내 단행본
- 169 -
2. 국내 논문
강명신, 손명세, 「의료윤리학의 학문적 위상과 학제적 연구의 범위에 대한 일고」, 『한국
의료윤리학회지』, 제12권, 제3호, 2009.
강신익, 「생명의료윤리의 역사와 철학: 치과의사의 윤리를 중심으로」, 『의사학』, 제11권,
제2호, 2002.
고영미, 「지능형 로봇 금융지원제도 개선방안:[로봇 개발 및 보급 촉진법] 을 중심으로」,
『선진상사법률연구』, 제86호, 2019.
국가법령정보센터, 「지능형 로봇 개발 및 보급 촉진법」, 법률 제13744호(2016.1.6.)에서
일부 발췌.
권복규, 「우리나라 의료윤리교육에 대한 비판적 고찰」, 『한국의료윤리교육학회지』, 제9
권, 제1호, 2006.
권선주, 「간호대학생과 의과대학생의 생명의료윤리 의식에 관한 조사 연구: 대구. 경북지
역을 중심으로」, 계명대학교 대학원, 석사학위논문, 2003.
금융보안원, 「일본 총부성, 인공지능 연구개발 가이드라인 주요 내용」, 『보안연구부』,
2018, 일부 참조.
김국기, 박석건, 「대한의사협회의 의사윤리지침 및 강령 개정」, 『Journal of the
Korean Medical Association』, 제60권, 제1호, 2017.
김명숙, 「간호대학생의 도덕적 민감성과 윤리적 가치관이 생명의료윤리 인식에 미치는
영향」, 『한국간호교육학회지』, 제21권, 제3호, 2015.
김미리, 윤상필, 권헌영, 「인공지능 전문가 윤리의 역할과 윤리 기준의 지향점」, 『법학논
총』, 제32권, 제3호, 2020.
김수경, 이경화, 김상희, 「4차 산업혁명 시대의 윤리적 이슈와대학의 생명윤리교육 방향
제고」, 『한국의료윤리학회지』, 제21권, 제4호, 2018.
김인순, 「생명윤리교육이 간호보건대학생의 생명윤리의식에 미치는 영향」, 『생명윤리』,
제14권, 제1호, 2013.
김장묵, 「보건의료분야에서의 인공지능기술 (AI) 사용 의도와 태도에 관한 연구」, 『융합
정보논문지 (구 중소기업융합학회논문지)』, 제7권, 제4호, 2017.
김진경, 「생명의료윤리학의 덕으로의 이행」, 『한국시민윤리학회보』, 제17권, 2004.
김진동, 「보건의료계열 종사자와 대학생의 생명윤리의식과 인공지능기술에 대한 인식」,
『학습자중심교과교육연구』, 제19권, 제12호, 2019.
김진동, 김홍수, 「보건의료 종사자와 대학생의 윤리적 가치관, 생명윤리의식과 인공지능
- 170 -
인식의 상관관계 연구」, 『학습자중심교과교육연구』, 제20권, 2020.
김형수 외, 「인공지능 (AI: Artificial Intelligence) 시대, 보건의료 미래 전망」, 『의료정
책포럼』, 제15권, 제1호, 2017.
대한내과학회 윤리위원회, 「내과전공의 의료윤리 사례집」, 『대한내과학회』, 2015.
맹주만, 「인공지능과 로봇의사윤리」, 『철학탐구』, 제52권, 2018.
목광수, 「비췀과 췰드리스의 생명의료윤리학 논의에서의 넓은 반성적 평형에 대한 비판
적 고찰」, 『철학』, 제119권, 2014.
목광수, 「행위지침 제시에 효과적인 생명의료윤리학적 방법론 모색: 비췀과 췰드리스의
논의를 중심으로」, 『철학연구』, 제105권, 2014.
목광수, 「인공적 도덕 행위자 설계를 위한 고려사항: 목적, 규범, 행위지침」, 『철학사
상』, 제69호, 2018.
목광수, 「보건의료 빅데이터의 윤리적 활용을 위한 방안모색: 동의가 아닌 합의 모델로
의 전환」, 『한국의료윤리학회지』, 제22권, 제1호, 2019.
문영배, 이상봉, 「회계담당자의 윤리관이 이익조정인식에 미치는 영향」, 『산경논집』,
2011.
박동균, 인공지능과 내과 의사의 미래」, 『Korean Journal of Medicine (구 대한내과학
회지)』, 제92권, 제3호, 2017.
박승규, 「인공지능 기술 동향」, 『정보통신기술진흥센터, 기획시리즈-인공지능』, 2018.
박승빈, 「4차 산업혁명 주요 테마 분석 - 관련 산업을 중심으로」, 『통계청』, 제10권, 제
2호, 2017.
박종현, 「개인 맞춤형 의료 AI 적용과 당면과제」, 『기술정책연구본부, 국가지능화 특집』,
2019.
백성희, 「기독보건의료계열 대학생의 생명의료윤리의식에 관한 연구」, 『신앙과 학문』,
제19권, 제2호, 2014.
송상용, 「생명공학의 도전과 윤리적 대응」, 『제14회 한국철학자대회보』, 제2001권, 제14
호, 2001.
송도선, 정동규, 「지능형 의료장비 산업과 의료서비스 개선 동향」, 『한국정보기술학회
지』, 제15권, 제2호, 2017.
송선영, 「로봇과 인공지능 시대의 시민윤리와 도덕교육적 함의」, 『윤리연구』, 115호,
2017a.
송선영, 「의료용 케어로봇과 환자 간의 서사와 공감 관계의 가능성」, 『인간· 환경· 미
래』, 2017b.
- 171 -
송선영, 변순용, 「수술 로봇의 윤리적 쟁점」, 『윤리연구』, 제106권, 2016.
신동원, 「한국 의료윤리의 역사적 고찰: 의사윤리강령(1955-1997)의 분석을 중심으로」,
『의사학』, 제9권, 제2호, 2000.
신상규, 「인공지능은 자율적 도덕행위자일 수 있는가?」, 『철학』, 제132권, 2017.
심민석, 「한국의 인공지능과 로봇에 관한 법제정비방안 연구」, 『경희법학』, 제55권,
2020.
양종모, 「인공지능을 이용한 법률전문가 시스템의 동향 및 구상」, 『법학연구』, 제19권,
제2호, 2016.
유명숙, 손기철, 「간호대학생의 생명의료윤리의식, 도덕적 민감성 및 도덕 판단력에 관한
간호윤리교육의 효과」, 『생명윤리』, 제12권, 제2호, 2012.
이강윤, 김준혁, 「인공지능 왓슨 기술과 보건의료의 적용」, Korean Medical Education
Review, 제18권, 제2호, 2016.
이관용, 김진희, 김현철, 「의료 인공지능 현황 및 과제」, 『한국보건산업진흥원, 보건산업
브리프』, 2016.
이영미 외, 「상황 제시를 이용한 윤리적 갈등상황에 대한전공의의 인식 조사」, 『Med
Educ』, 제20권, 2008.
이원희, 「간호윤리 교육과 연구의 동향」, 『간호학탐구』, 제13권, 제1호, 2005.
이일학, 구영모, 「의료인-제약산업 관계의 이해상충과 윤리적 원칙」, 『한국의료윤리학
회』, 제14권, 2011.
이정원, 문형돈, 「국내 인공지능 인식 현황 연구」, 『한국통신학회 학술대회논문집』,
2018.
이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향 (2차년도)-안전하고 윤리
적인 인공지능 R&D 및 활용을 위한 제도 개선 방안을 중심으로」, 『정책연구』,
2019.
임도빈, 「한국 공무원의 윤리적 특성에 관한 연구」, 행정총론, 제41권, 제2호, 2003.
장운혁, 정창록, 「인공지능과 의료자원분배」, 『한국의료윤리학회지』, 제20권, 제4호,
2017.
전재범, 「전공의 윤리 교육」, 『대한내과학회지』, 제94권, 제1호, 2019.
전현숙, 「간호대학생과 비 간호대학생의 생명의료윤리 의식」, 『기본간호학회지』, 제18권,
제3호, 2011.
정유석 외, 「전공의를 위한 의료윤리 교육목표의 개발」, 『한국의료윤리학회지』, 제11권,
제2호, 2008.
- 172 -
정창록, 「인공지능로봇의료의 도덕형이상학적 모색: 의료적 전자인간의 책임가능성」, 『한
국의료윤리학회지』, 제21권, 제2호, 2018.
조수경, 「미셸 푸코, 도덕적 주체와 삶의 기술」, 『한국윤리교육학회 춘계학술대회』,
2019.
조영임, 「인공지능 기술 동향 및 발전 방향」, 『정보통신기술진흥센터 주간기술동향』, 제
1733권, 2016.
조원영, 「인공지능에 대한 사회적 우려와 업계의 대응」, 『월간SW중심사회 9월호』,
2019, 일부 참조.(https://spri.kr/posts/view/22615?code=industry_trend)
최규진 외, 「의료윤리교육을 위한 동료 의료인 간 갈등에 대한 연구」, 『생명윤리』, 제9
권, 제2호, 2008.
최병삼 외, 「과학기술기반 미래연구사업 Ⅹ」, 『조사연구』, 2018.
최우석, 「‘의료인’의 의무윤리와 덕윤리의 상보적 이해-펠레그리노 (E. Pellegrino) 의
논의를 중심으로」, 『한국의료윤리학회지』, 제23권, 제1호, 2020.
한성숙 외, 「간호대학생과 간호사의 도덕적 민감도 비교」, 『한국의료윤리학회지』, 제10
권, 제2호, 2007.
한학진, 서정모, 「인공지능 기술 (AI) 의 도입에 따른 관광산업 직무대체수준 및 영향에
관한 탐색적 연구-대학생을 중심으로」, 『호텔리조트연구』, 제16권, 제3호, 2017.
3. 국외 문헌
- 173 -
Artificial intelligence in medicine, Vol. 57(1), 2013.
Char, D. S., Shah, N. H., & Magnus, D., “Implementing machine learning in
health care—addressing ethical challenges”, The New England journal of
medicine, Vol. 378(11), 2018.
Chui, M., Manyika, J., & Miremadi, M., “Where machines could replace
humans—and where they can’t (yet)”, McKinsey Quarterly, Vol. 30(2),
2016.
David, H. J. J. O. E. P., “Why are there still so many jobs? The history and
future of workplace automation”, Journal of economic perspectives, Vol.
29(3), 2015.
Di Nucci, E., “Should we be afraid of medical AI?”, Journal of Medical Ethics,
Vol. 45(8), 2019.
Eom, J. S., “Changes in Regulation of Internal Medicine Residency Training
and Evaluation of Teaching Hospitals”, Korean Journal of Medicine, Vol.
93(6), 2018.
DeGrazia, D., “Moving forward in bioethical theory: theories, cases, and
specified principlism”, The Journal of Medicine and Philosophy, Vol.
17(5), 1992.
Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M., &
Thrun, S., “Dermatologist-level classification of skin cancer with deep
neural networks”, Nature, Vol. 5(7), 2017.
Floridi, L., & Sanders, J. W., “On the morality of artificial agents”, Minds and
machines, Vol. 14(3), 2004.
Haugeland, J., Artificial intelligence: The very idea. MIT press, 1989.
High-Level Expert Group on Artificial Intelligence, Ethics guidelines for
trustworthy AI.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustwo
rthy-ai(2021.04.01. 접속)
Holly, C., “Critical care nurses' participation in ethical decision making”, The
journal of the New York State nurses' association, Vol. 20(4), 1989.
Jobin, A., Ienca, M., & Vayena, E., “The global landscape of AI ethics
- 174 -
guidelines”, Nature machine intelligence, Vol. 1(9), 2019.
Jun, J. B., “Ethics Education for Internal Medicine Residency”, Korean Journal
of Medicine, Vol. 94(1), 2019.
Jonsen, A. R., Siegler, M., & Winslade, W. J., “Clinical ethics: a practical
approach to ethical decisions in clinical medicine”, Journal of Legal
Medicine, Vol. 3(3), 1982, pp. 490-495.
Koo, Y. M., “The key contents of the KMA’s code of medical ethics and
proposals for its implementation”, Korean journal of medical ethics, Vol.
6, 2003.
Lee, I., “Medical ethics education: its objectives and curriculum”, Korean
Medical Education Review, Vol. 16(3), 2014.
Lützén, K., Dahlqvist, V., Eriksson, S., & Norberg, A., “Developing the concept
of moral sensitivity in health care practice”, Nursing ethics, Vol. 13(2),
2006.
McCullough, L. B., “Philosophical challenges in teaching bioethics: the
importance of professional medical ethics and its history for bioethics”,
The Journal of medicine and philosophy, Vol. 27(4), 2002.
Moor, J., “Four kinds of ethical robots”, Philosophy Now, Vol. 72, 2009.
Na, H. R., & Kim, H. S., “Medical Ethics in the Era of Artificial Intelligence
Based on Medical Big Data”, The Journal of Korean Diabetes, Vol. 21(3),
2020.
Parker, L. E., “Creation of the National Artificial Intelligence Research and
Development Strategic Plan”, AI Magazine, Vol. 39(2), 2018.
Pellegrino, E. D., “What the philosophy of medicine is”, Theoretical medicine
and bioethics, Vol. 19(4), 1998.
Sallady, S. A., & McDonnell, M. M., “Facing ethical conflicts”, Nursing2020,
Vol. 22(2), 1992.
Schwab, K., “The Fourth Industrial Revolution: World Economic Forum
Zeneva”, Zulfu Dicleli: The optimist publications, 2016
Smith Iltis, A., “Bioethics as methodological case resolution: specification,
- 175 -
specified principlism and casuistry”, The Journal of medicine and
philosophy, Vol. 25(3), 2000.
“Superintelligence: Science or Fiction? Elon Musk & Other Great Minds”,
https://goo.gl/R1A52a
Tene, O., & Polonetsky, J., “Privacy in the age of big data: a time for big
decisions”, Stanford law review online, Vol. 64, 2011.
The future of life institute. https://futureoflife.org/ai-principles-korean/
Thierer, A., & Castillo, A., “Preparing for the Future of Artificial Intelligence”,
Public Interest Comment, 2016.
World Medical Association, Declaration of Helsinki. “Ethical principles for
medical research involving human subjects”, Jahrbuch Für Wissenschaft
Und Ethik, Vol. 14(1), 2009.
World Psychiatric Association, “The WMA declaration of madrid on
professionally-led regulation”, Geneva: World Psychiatric Association,
2009.
Zurada, J. M., Introduction to artificial neural systems (Vol. 8). St. Paul: West,
1992.
4. 기타
동아일보(2013.02.14.), “존엄사 논란” 뇌종양 투병 뉴욕 한인여성 사망,
- https://www.donga.com/news/Inter/article/all/20130214.
메디칼 투데이(2018.11.27.), “실비로 도수치료 하는 척 성형은 공짜…보험사기 원장 구속”,
- http://www.mdtoday.co.kr/mdtoday/index.html?no=339773.
메디포 뉴스(2020.01.17.), “길병원 의사들이 느낀 왓슨의 장단점은?”,
- https://blog.naver.com/ceoofpaik/221776560498(2021.06.20 접속).
서울신문(2010.10.05.), “죽음의 길 안내하는 내비게이션은 저승사자”,
- http://nownews.seoul.co.kr/news/newsView.php?id=20101005.
아시아투데이(2019.04.11.), “헌재, ‘낙태죄 처벌 조항’ 헌법불합치 결정…66년 만에 법 개정”,
- https://www.asiatoday.co.kr/view.php?key=20190411010008387.
연합뉴스(2016.07.01.), ‘테슬라 자율주행차 첫 사망사고...안전성 논란 증폭’
- https://www.yna.co.kr/view/AKR20160701134800009(2021.07.02 접속)
조선비즈(2021.05.16.), “금융위, 보험 판매에 AI 음성봇 도입 허용...”,
- 176 -
- https://biz.chosun.com/stock/finance/2021/05/16.
파이낸셜 뉴스(2017.11.23.), “식약처, 미국 IBM '왓슨 포 온콜로지' 의료기기 아니다...건강보험
적용 불가”, - https://www.fnnews.com/news/20171123.
MBC뉴스(2021.01.28.), ‘대량생산 앞둔 인공지능 로봇 소피아’,
-https://imnews.imbc.com/replay/2021/nwtoday/article/6071300(2021.06.23 접속).
Medical World News(2020.09.14.), “내시경 하제 투약 후 환자 사망사건 의사 법정 구속…의
협, 강력 반발”, - http://medicalworldnews.co.kr/news/view.php?idx=1510937610.
SBS 뉴스(2018.01.30.), “인공지능 로봇 소피아, 한복 입고 한국 첫선”,
-https://news.sbs.co.kr/news/endPage.do?news_id=N1004598739&plink.
- 177 -
Introduction of artificial intelligence in the medical field and
establishment of biomedical ethics
Abstract
- 178 -
constructs an ethical discussion that encompasses AI as a new object to coexist
with humans.
Based on the four principles of T. L. Beauchamp and J. F. Childress, which are
the basis of biomedical ethics, this paper specifies ethical principles for AI doctors
and healthcare workers as artificial moral agents. In particular, by examining the
roles and responsibilities of these agents as well as patients, and by considering
their interrelationship through various ethical issues in the clinical field, this study
establishes biomedical ethics education following the introduction of AI to the
medical field. To this end, it explores the new ethical relationship that medical
personnel and medical AI should maintain together. This study also embodies and
systematizes the four principles of biomedical ethics: “the principle of respect for
autonomy,” “the principle of nonmaleficence,” “the principle of beneficence,” and
“the principle of justice.” In addition, based on a specific clinical situation in the
biomedical medicine field, in preparation for an ethical problem, it explores the
responsibilities that appear in the mutual relationship between patients, medical
personnel, and AI as a new medical subject.
As a prerequisite for such a search, the following questions inevitably arise. What
is the current level of AI, and is it possible to have ethics as a moral subject in
the medical field? The first step for AI to become a moral subject is to secure the
possibility of moral judgment. That is, it is necessary to confirm the ontological
characteristics of medical AI, as an artificial moral agent, that medical personnel
and patients must face in the actual medical field and to re-establish the status of
AI as an artificial moral agent. Medical AI is divided into first “a form with the
characteristics of a moral agent for the patient” that performs medical actions
under the control of a doctor and second “a form of semi-autonomous agent that
directly communicates with the patient” within the designed scope. Moreover, such
an autonomous agent can further progress into a “surrealistic AI doctor” with
autonomy, conscience, and moral and intellectual aspects. This paper points out
the limitations of super-AI with complete autonomy. In the future, AI should serve
as an artificial moral agent that helps medical personnel and guarantees morality.
It is also expected to be semi-autonomous.
As a moral actor in the medical field, AI is inevitably placed in a situation of
various ethical choices. In the algorithm setting of AI technology in the medical
field, it is important to establish traditional ethical views, such as motivationalism
and consequentialism, but above all, ethical principles such as ensuring patient
dignity and fairness based on biomedical ethics must be actively considered.
- 179 -
Regarding motivationalism in the field of biomedical ethics, although it can
suggest the standards and directions of right and wrong of medical practice, there
is criticism that the actual results of medical practices directly related to the
welfare of patients can be ignored. On the other hand, consequentialism can be
helpful in evaluating the actual results of medical practice, but it is criticized for
not having a clear standard for doing so.
Next, the directional methodology for learning these ethical principles in AI can
be divided into three main categories. First, the bottom-up approach is similar to
the cognitive development process of children of Piaget. Its core is the process of
forming a schema in which children organize and structure their life experiences
through adjustment and assimilation and through reflection and evaluation of
various behavioral patterns in the process of their development. It is in this way
that humans develop as moral agents by acquiring principles. Second, the
top-down approach adopts traditional ethical norms based on given principles,
such as Kant’s deontology, the golden rule, and consequential utilitarianism, and
then designs underlying algorithms and systems based on those theories. Third,
the hybrid approach is a method in which engineers designing AI mix top-down
and bottom-up approaches when designing algorithms, and when actually solving
common problems, they design algorithms based on a top-down approach. With
respect to the problem of conflicting moral norms established by this approach, it
is expected that the bottom-up approach will be used to overcome the limitations
of the top-down approach by learning pluralistic values and norms through various
cases and experiences.
The focus of this thesis is healthcare workers. As discussed earlier, they need to
reflect on the awareness of AI technology and the ethics of life and AI. In
particular, some ethicists regard AI as others on an equal footing with people, so
they contend that we need to prepare in advance for a future society where
mutual horizontal coexistence is possible. They argue that more education is
required. In such a situation, bioethical awareness will not only be the basis for
solving ethical problems that may arise during medical or nursing practices for
healthcare workers but also become a driving force for leading desirable
decision-making in the healthcare system. Therefore, healthcare workers must
accept the introduction of new AI based on bioethical awareness, and it is
imperative to think about the ethical issues that may arise for them. However,
when looking at domestic biomedical ethics-related studies, those targeting a wide
range of healthcare workers are insufficient, and those confirming healthcare
- 180 -
workers’ biomedical ethics /AI awareness are also very scarce.
Against this background, this study examines biomedical ethics awareness and
the introduction of AI targeting healthcare workers, and the results are as follows.
First, 91% of the healthcare professionals surveyed in this study recognized that AI
can be applied to the current biomedical field, and 69% perceived that AI would
have a positive impact on quality of life and the medical field. However, it should
be noted that negative perceptions of AI technology replacing the medical service
field increased with bioethics awareness. Therefore, according to this thesis, it is
necessary for healthcare workers to establish a subjective bioethical consciousness
and ethical values and to anticipate and actively prepare for serious ethical
problems that may arise in consideration of the subject and scope of application
of AI technology that will be further expanded in the future. In addition, this
paper finds that even if universal self-medication by AI becomes possible, it is
necessary to have human medical personnel who control it as a whole, monitor it,
and take responsibility for it based on ethical values. Therefore, there is an urgent
need for ethical interpretation and establishment of values by healthcare
professionals who are in charge of judgment and decision-making in the clinical
field.
A more detailed summary is as follows. According to the survey, awareness of
the applicability of AI increased with the ideal ethics of healthcare workers. It was
also found that healthcare workers' perceptions of the negative impact of AI
decreased as their relative ethics increased. However, a detailed examination
revealed that the responses to the establishment of ideal and relative ethics were
both relatively high, indicating that there was no significant difference between the
two criteria. In general, if ideal or relative ethics is strongly established, the other
tends to be relatively low. Therefore, more specific research is needed on the
conclusions that can be drawn when the ethical issues that arise in the actual
medical field and those that arise with the advent of AI conflict with the ethical
values or bioethical consciousness of healthcare workers.
What are the basic attitudes that healthcare workers should have to establish
bioethical awareness in the current medical field, where the introduction of AI is
active? Medical ethics principles should focus on the doctor’s calling, the
responsibility between the doctor and the patient, and the patient’s right to the
greatest benefit. It is now necessary to recognize the AI doctor as a new medical
subject and shed new light on its role. Healthcare professionals must recognize
that although AI is a product of human design and fabrication, it will play a vital
- 181 -
and influential role in bringing about the best medical diagnosis and outcomes for
patients in the near future. Based on this recognition, it is necessary to accept the
specificity and purpose of the birth of AI and thus include it as a subject with
partial autonomy and subjectivity as well as accountability and responsibility.
Therefore, this study applies the principles of biomedical ethics to the
characteristics of the AI era by using examples from the medical field as well as
medical problems that may appear in the “AI doctor–human doctor” and “AI
doctor–patient” relationships. In line with the responsibilities, the four principles are
embodied. First, the principle of respect for autonomy is embodied in the
“principle of autonomous consent based on sufficient information” at the center of
the AI–patient relationship and the “principle of autonomous consent through
sufficient communication” at the center of the AI–human doctor relationship.
Second, the principle of nonmaleficence is embodied in the “principle of patient
safety first and the prohibition of evil conduct” and “principle of definition of harm
and consent to decision-making.” Third, the principle of beneficence is embodied
in the “principle of respect for patients ” and “principle of agreement on the
scope of good deeds and decision-making.” Fourth, the principle of justice is
embodied in the “principle of medical distribution through fair procedures” and
“principle of realization of justice through interaction.” By applying the principles
embodied in this way to clinical cases, it is suggested that the ethical
decision-making direction for the confusion of ethical values and the impulse of
interest between ethical principles that AI doctors may experience in the AI doctor
–patient relationship can be presented. The intention is to discuss and suggest
directions for practical ethical issues to be solved by human and AI medical
professionals who should simultaneously take responsibility for one patient in the
near future.
This paper presents the four principles embodied in the mutual relationship
including the new medical subject as the following approach to problem-solving.
First, the four principles embodied in the relationship between AI, patients, and
human doctors are set as high-level principles and then programmed and
designed through a top-down approach. It is argued that a method of mixing
these two approaches should be used by experiential learning of the problem. As
a result, for the hybrid approach of AI, concrete examples of ethical problem
situations are needed, and it is judged that it is important to expand and apply
the four principles of biomedical ethics for bottom-up learning. The four embodied
principles of medical ethics are applied to clinical cases, and the results of the
- 182 -
conflict of interest between ethical principles and the confusion of ethical values
that AI doctors may experience in the AI doctor–patient relationship are presented.
Regarding the AI doctor–human doctor relationship, the study also discusses the
problems to be solved as medical professionals who must take responsibility for
one patient at the same time in the near future, as well as the responsibilities and
roles associated with it, and it presents the direction.
In biomedical ethics education, it is vital to expand the principles of biomedical
ethics embodied by using examples from the medical field in accordance with
medical problems that may appear in the AI doctor–human and doctor–patient
relationship in the age of AI. However, complex ethical problems occurring in the
medical field encompass and relate to the four principles, so it is difficult to apply
each one, and conflicts between principles appearing in one problematic situation
are inevitable. For that reason, based on specific situations in everyday life and the
field of medicine, this paper emphasizes the specification and expansion of
principles that should be considered when ethical issues arise and the fact that AI
should be treated as important in the interaction with medical personnel and
patients to highlight their roles and responsibilities.
- 183 -
부록1.
본 설문의 목적은 보건의료종사자 및 그 연구자(대학생)를 대상으로
인공지능기술에 대한 인식과 생명의료 윤리의식을 파악하기 위함입니다.
- 184 -
대체로 대체로
번호 내 용 찬 성 반 대
찬 성 반 대
태아진단
의료인은 태아성감별을 위한 산모의 산전 진단 요구를 거부할 수 있
19 4 3 2 1
다.
태아진단을 위한 검사(양수천자 등)의 요구와 시행은 항상 태아와 산
20 4 3 2 1
모에 의로운 것이어야 한다.
태아진단을 위한 검사(양수천자 등)는 산모나 태아의 생명과 안전이
21 4 3 2 1
보장된 경우에만 실시할 수 있다.
태아진단을 위한 검사는 태아의 기형유무 또는 유전적 질환을 발견하
22 기 위해서는 인공임신중절(유산)의 가능성이 있더라도 언제든지 실시 4 3 2 1
할 수 있다.
태아진단을 위한 검사는 부모에게 잘 설명이 되고 동의를 얻었다고
23 4 3 2 1
하더라도 연구를 위한 목적으로 실시 할 수 없다.
신생아의 생명권
안락사
장기이식
- 185 -
고 생각한다.
뇌사
인간생명공학
- 186 -
▶ 다음은 인공지능기술에 대한 귀하의 의견을 묻는 문항입니다.
질문을 읽고 해당된다고 생각하시는 번호에 <√>표시를 해 주십시오.에 대한 인식
문항 (5점 척도)
전혀 조금 보통 조금 매우
인공지능에 대한 인식
아니다 아니다 이다 그렇다 그렇다
현재 인공지능이 전반적인 산업분야에서 개발 중인 것으로 인
1 ① ② ③ ④ ⑤
식하고 있다.
- 187 -
※ 설문지 작성의 이해를 돕기 위한 용어의 정의를 기술하였습니다.
용어 용어의 정의
태아 모체 내에 있는 아이를 의미한다.
일반적으로 수정 뒤 8주째 까지의 생명을 말한다.
배아 인간 배아는 사람의 정자와 난자가 수정한 지 14일째 즈음이 되면 척추의 발생기전 형태이
자 모든 인간기관이 만들어지는 원시선(Primitive Streak)을 갖추게 된다.
세포를 만들어내는 세포를 말한다.
예) 적혈구나 백혈구는 “조혈줄기세포”로부터 만들어진다.
줄기세포
배아에는 모든 종류의 세포를 만들어내는 줄기세포가 있는데, 이를 “배아줄기세포”라고 한
다.
유전정보를 지닌 핵을 제거한 난자에 특정 인물의 체세포(생식세포를 제외한, 몸을 이루고
있는 모든 세포)에서 유전정보를 담은 핵을 이식해 전기충격으로 융합해 배양하는 것을 말
(인간)
한다.
배아복제
이렇게 배양된 배아는 유전정보를 담은 핵을 제공한 인물과 99.9% 동일한 유전정보를 지니
게 된다. 이 배아가 성장해 사람이 되면 “복제인간”이다.
간세포는 우리 몸의 210여개 모든 기관의 조직으로 성장할 수 있는 잠재적 힘을 갖고 있
다.
(배아)
무한히 분열하며 외부의 적절한 조작을 통해 원하는 장기로 분화할 수 있다.
간세포
당뇨병환자에게 인슐린을 생산하는 세포를 주입하고 심장마비 환자에게 심근세포를 제공할
수 있다.
체세포 간세포를 추출할 수 있는 방법을 말한다.
핵치환술 귓불에서 떼어낸 세포를 핵을 제거한 난자에 넣어 배아 간세포를 얻는 방법이다.
(인간) 한 인간과 유전적으로 동일한 다른 인간을 만드는 방법을 말한다.
개체복제 복제된 배아를 자궁에 착상시키는 것이다.
전혀 조금 보통 조금 매우
의료용 AI와 관련된 윤리적 기준
아니다 아니다 이다 그렇다 그렇다
- 188 -
▶ 다음은 일반적인 윤리 의식에 대한 귀하의 의견을 묻는 문항입니다.
질문을 읽고 해당된다고 생각하시는 번호에 <√>표시를 해 주십시오.
전혀 조금 보통 조금 매우
올바름에 대한 기준_절대적 기준 아니다 아니다 이다 그렇다 그렇다
전혀 조금 보통 조금 매우
올바름에 대한 기준_상대적 기준 아니다 아니다 이다 그렇다 그렇다
- 189 -
전혀 조금 보통 조금 매우
올바름에 대한 기준_의무와 공리에 대한 생각 아니다 아니다 이다 그렇다 그렇다
나는 어떤 일을 함에 있어 올바름이 가장 중요한 기준
1 ① ② ③ ④ ⑤
이 되어야 한다고 생각한다.
- 190 -
부록2. 대한의사협회 의사윤리지침
대한의사협회 의사윤리지침
제정 2001. 04. 19.
개정 2006. 04. 22.
개정 2017. 04. 23.
의사는 고귀한 사람의 생명과 건강을 보전하고 증진하는 숭고한 사명의 수행을 삶
의 본분으로 삼아, 모든 의학 지식과 기술을 인류의 복리 증진을 위하여 사용하
여야 한다.
제5조(공정한 의료 제공)
② 의사는 환자의 인종과 민족, 나이와 성별, 직업과 직위, 경제 상태, 사상과 종
교, 사회적 평판 등을 이유로 의료에 차별을 두어서는 안 된다.
제6조(품위 유지)
① 의사는 마약, 음주, 약물 등으로 인하여 환자의 생명과 신체에 위해를 가져올
수 있는 상태에서 진료를 하여서는 안 된다.
- 191 -
② 의사는 자신의 정신적 또는 육체적 질병으로 인하여 환자의 생명과 신체에 위
해를 가져올 수 있는 상태에서 진료를 하여서는 안 된다.
제2장┃환자에 대한 윤리
- 192 -
① 의사는 환자를 단순히 치료의 대상으로 여기는 것이 아니라 인격을 가진 존재
로 대우하여야 한다.
제13조(환자의 선택권 존중 등)
제14조(진료의 거부금지 등)
③ 의사는 환자를 진료하기 위하여 상당한 시간이 지체될 것으로 예상되는 경우에
는 환자 또는 보호자에게 충분한 설명을 한 후 타 의료기관으로 전원을 권유할
수 있다.
- 193 -
회복에 나쁜 영향이 미칠 수 있다고 판단되는 경우에는 가족 등 대리인에게 설
명할 수 있다.
제18조(응급의료 및 이송)
- 194 -
존중하고 신뢰하여야 한다.
제21조(근무환경 개선)
제22조(불공정 경쟁금지 등)
제3장 동료 보건의료인에 대한 윤리
- 195 -
해야 한다.
제26조(인권 보호 의무)
의사는 진료시 고문, 아동학대, 가정폭력, 성폭력 등 인간의 신체와 정신을 침해하
는 행위를 알게 된 경우 피해자의 인권을 보호하기 위한 조치를 취하여야 한다.
제28조(부당 이득 추구 금지)
제29조(이해상충의 관리)
제30조(과잉·부당진료 금지)
- 196 -
② 의사는 환자나 진료비 지급기관에 허위 또는 과다한 진료비를 청구하여서는 안
된다.
제31조(허위·과대광고 등 금지)
제33조(태아 관련 윤리)
제34조(보조생식술 관련)
- 197 -
③ 의사는 정자 또는 난자를 제공하는 사람의 신원을 누설하거나 공개하여서는 안
된다.
제35조(연명의료)
제36조(안락사 등 금지)
제37조(뇌사의 판정)
제39조(장기 등 매매 금지)
- 198 -
제40조(의학연구)
제41조(연구의 진실성)
제42조(연구결과의 발표)
제43조(윤리위원회 설치)
제44조(윤리위원회 역할)
제6장 윤리위원회
제43조(윤리위원회 설치)
- 199 -
② 윤리위원회는 상호간에 유기적이고 협조적인 관계를 유지하여야 한다.
제44조(윤리위원회 역할)
제45조(징계)
- 200 -