Download as pdf or txt
Download as pdf or txt
You are on page 1of 215

저작자표시-비영리-변경금지 2.

0 대한민국

이용자는 아래의 조건을 따르는 경우에 한하여 자유롭게

l 이 저작물을 복제, 배포, 전송, 전시, 공연 및 방송할 수 있습니다.

다음과 같은 조건을 따라야 합니다:

저작자표시. 귀하는 원저작자를 표시하여야 합니다.

비영리. 귀하는 이 저작물을 영리 목적으로 이용할 수 없습니다.

변경금지. 귀하는 이 저작물을 개작, 변형 또는 가공할 수 없습니다.

l 귀하는, 이 저작물의 재이용이나 배포의 경우, 이 저작물에 적용된 이용허락조건


을 명확하게 나타내어야 합니다.
l 저작권자로부터 별도의 허가를 받으면 이러한 조건들은 적용되지 않습니다.

저작권법에 따른 이용자의 권리는 위의 내용에 의하여 영향을 받지 않습니다.

이것은 이용허락규약(Legal Code)을 이해하기 쉽게 요약한 것입니다.

Disclaimer
박 사 학 위 논 문

의료분야의 인공지능 도입과 생명의료윤리


정립 연구

김진동

부산대학교 대학원
윤리교육학과

2021년 8월
의료분야의 인공지능 도입과 생명의료윤리
정립 연구

이 논문을 문학박사 학위논문으로 제출함

김진동

부산대학교 대학원

윤리교육학과

지 도 교 수 조수경

김진동의 문학박사 학위논문을 인준함

2021년 6월 30일

위원장 김 홍 수 인

위 원 이 남 원 인

위 원 송 선 영 인

위 원 김 현 수 인

위 원 조 수 경 인
목 차

I. 서론 ·································································································································· 1
1. 연구의 필요성 ························································································································ 1
2. 연구설계 및 구성 ················································································································ 7
3. 선행 연구 ···························································································································· 13

II. 인공지능의 도입과 윤리 문제 ················································································· 18


1. 4차 산업 혁명과 윤리 문제 ······························································································ 18
2. 인공지능의 도입과 윤리 문제 ·························································································· 22
1) 인공지능의 도입 현황 ··································································································· 22
2) 인공지능 기술과 윤리문제 ··························································································· 26
3. 인공지능의 윤리문제에 대한 주요국의 정책 ································································ 34
1) 미국 ··································································································································· 34
2) 유럽연합 ··························································································································· 39
3) 한국 ··································································································································· 41

III. 의료분야의 인공지능 도입과 생명의료윤리 ······················································· 44


1. 생명의료분야의 인공지능 도입 ························································································ 44
1) 의료분야의 인공지능 기술 도입 ·················································································· 44
2) 보건의료분야의 인공지능 현황 ··················································································· 47
2. 의료분야의 인공지능 도입과 윤리 문제 ········································································ 52
1) 기술적인 관점에서 고려해야 할 윤리 문제 ······························································ 52
2) 환자의 관점에서 본 윤리 문제 ···················································································· 56
3. 의료분야의 인공지능 도입에 따른 생명의료윤리원칙의 확장 필요성 ···················· 58
1) 한국의 의료윤리원칙과 새로운 의료주체 등장 ························································ 58
2) 생명의료윤리의 네 가지 원칙과 확장의 필요성 ······················································ 60

- i -
IV. 보건의료인의 생명의료윤리의식과 인공지능 인식 ··········································· 63
1. 인공지능과 생명의료윤리의식 ·························································································· 63
1) 연구일정 ··························································································································· 65
2) 조사설계 ··························································································································· 65
3) 분석방법 ··························································································································· 66
2. 보건의료인의 생명윤리의식과 인공지능 인식 ······························································ 67
1) 보건의료인의 생명윤리의식 ························································································· 67
2) 보건의료인의 인공지능 인식 ······················································································· 69
3) 보건의료인의 인공지능 영향력 인식 ·········································································· 70
4) 보건의료인의 세부주제별 인공지능 인식 ·································································· 72
5) 보건의료인의 생명윤리의식과 인공지능에 대한 인식의 상관관계 ······················ 74
6) 보건의료인의 생명윤리의식과 인공지능 인식 ·························································· 76
3. 보건의료인의 윤리의식과 인공지능 인식 ······································································ 79
1) 연구일정 ··························································································································· 80
2) 조사설계 ··························································································································· 80
3) 분석방법 ··························································································································· 82
4. 보건의료인의 윤리관과 인공지능 인식 ·········································································· 83
1) 보건의료인의 윤리적 가치관 ······················································································· 83
2) 보건의료인의 인공지능과 관련된 윤리적 기준 ························································ 84
3) 보건의료인의 윤리적 가치관과 인공지능 인식의 상관관계 ·································· 85
4) 보건의료인의 윤리관과 인공지능 인식 ······································································ 87

V. 의료분야 인공지능의 윤리성 정립과 한계 ·························································· 90


1. 인공지능의 윤리성 ·············································································································· 91
1) 준자율적인 윤리적 주체로서의 인공지능 ·································································· 91
2) 인공지능의 도덕적 판단 능력 ······················································································ 94
3) 생명의료분야의 인공적 도덕 행위자 ·········································································· 96
4) 인공지능의 자율적 도덕행위자로서 한계와 책무 ···················································· 98
2. 인공지능의 윤리적 원칙과 제언 ···················································································· 101
1) 생명의료윤리와 환자의 복리 ····················································································· 101
2) 생명의료윤리와 전통적인 윤리적 원칙 ··································································· 105

- ii -
가) 동기주의적 입장에서 요구되는 존엄의 원칙 ···················································· 105
나) 결과주의적 입장에서 요구되는 공익의 원칙 ···················································· 108
3) 생명의료윤리와 인공지능 윤리 ················································································· 111
가) 생명의료윤리의 윤리적 원칙 ················································································ 111
나) 생명의료윤리와 인공지능 의사윤리 ···································································· 112

VI. 인공지능의 생명의료윤리원칙 구체화 과정과 보건의료 관계별 적용 ······· 115


1. 인공지능의 생명의료윤리원칙 구체화 과정 ································································ 116
1) 생명의료윤리 4대 원칙의 구체화 과정 ··································································· 116
2) 인공지능의 생명의료윤리 4대 원칙 구체화 과정 ················································· 117
가) 자율성 존중 원칙의 구체화 ·················································································· 117
나) 악행 금지 원칙의 구체화 ······················································································ 121
다) 선행 원칙의 구체화 ································································································ 122
라) 정의 원칙의 구체화 ································································································ 125
2. 인공지능의 생명의료윤리 4대 원칙 접근 방법 ························································· 127
1) 상향적 방법론과 하향적 방법론 ··············································································· 127
2) 혼합적 접근법 ··············································································································· 131
3) 인공지능시대 생명의료윤리 4대 원칙을 적용하기 위한 방법론 ······················· 132
3. 보건의료 관계에 따른 인공지능의 생명의료윤리 4대 원칙 확장 ························· 137
1) 자율성 존중의 원칙 확장 ··························································································· 137
가) 인공지능과 환자의 관계 : 충분한 정보에 의한 자율적 동의의 원칙 ······················ 138
나) 인공지능과 인간의사의 관계 : 충분한 의사소통에 의한 자율적 동의의 원칙 ······· 140
2) 악행 금지의 원칙 확장 ······························································································· 142
가) 인공지능과 환자의 관계 : 환자의 안전 최우선과 악행 금지의 원칙 ······················ 143
나) 인공지능과 인간의사의 관계 : 해악의 정의와 의사결정 동의의 원칙 ···················· 145
3) 선행의 원칙 확장 ········································································································· 149
가) 인공지능과 환자의 관계 : 선행에 대한 환자 존중의 원칙 ······································ 149
나) 인공지능과 인간의사의 관계 : 선행의 범위와 의사결정 동의의 원칙 ···················· 151
4) 정의의 원칙 확장 ········································································································· 154
가) 인공지능과 환자의 관계 : 공정한 절차를 통한 의료 배분의 원칙 ························· 154
나) 인공지능과 인간의사에 대한 관계 : 상호작용을 통한 정의 구현의 원칙 ·············· 159

- iii -
VII. 결론 및 제언 ·········································································································· 162
참고문헌 ························································································································· 169
Abstract ·························································································································· 178

부록
1. 설문지 ························································································································ 184
2. 의사협회 윤리지침 ·································································································· 191

- iv -
표 목차

<표 1> 연구 설계 ········································································································· 9


<표 2> 인공지능의 인간사고 구현방식 ································································· 26
<표 3> 자율주행자동차의 4원칙 ············································································ 32
<표 4> 아실로마 인공지능 원칙 ············································································· 36
<표 5> 신뢰할 수 있는 인공지능을 위한 충족 요소와 요건 ··························· 40
<표 6> 지능형 로봇 개발 및 보급 촉진법의 로봇윤리헌장 ····························· 42
<표 7> 보건의료분야에서 인공지능기술의 활용 ················································· 47
<표 8> 보건의료분야에서 인공지능을 위한 자료이용 문제 ····························· 52
<표 9> 의료분야 인공지능 도입의 문제점 ··························································· 54
<표 10> 인공지능에 대한 인식 ·············································································· 66
<표 11> 보건의료인의 생명윤리의식 ···································································· 67
<표 12> 보건의료인의 전반적인 산업 분야에 대한 인공지능 인식 ·············· 69
<표 13> 보건의료인의 의료 분야에 대한 인공지능 인식 ································ 70
<표 14> 보건의료인의 인공지능에 대한 긍정적인 영향력 인식 ···················· 71
<표 15> 보건의료인의 인공지능에 대한 부정적인 영향력 인식 ···················· 71
<표 16> 보건의료인의 의료분야 인공지능에 대한 인식 ·································· 73
<표 17> 보건의료인의 생명윤리의식과 인공지능에 대한 인식의 상관관계 74
<표 18> 의료용 인공지능에 대한 윤리적 기준 ·················································· 82
<표 19> 보건의료인의 윤리적 가치관 ·································································· 83
<표 20> 보건의료인의 인공지능과 관련된 의료분야의 윤리적 기준 ············ 84
<표 21> 보건 의료인의 윤리적가치관과 생명윤리의식, 인공지능(AI)에
대한 인식과 윤리적 기준의 상관관계 ·················································· 86
<표 22> 행위의 윤리성 판단에 대한 이론 ·························································· 92
<표 23> 로봇기본법의 주요내용 ············································································ 95
<표 24> 충분한 정보에 의거한 환자의 동의 ·················································· 118
<표 25> 자율성 존중 원칙의 구체화 ·································································· 120
<표 26> 악행금지 원칙의 구체화 ······································································ 122

- v -
<표 27> 선행 원칙의 구체화 ·············································································· 125
<표 28> 정의 원칙의 구체화 ·············································································· 127
<표 29> 인공지능 개발 및 활용에 지켜야 할 원칙 ········································ 129
<표 30> 인공지능에 대한 윤리규범 ···································································· 130
<표 31> 인공지능의 윤리적 학습에 대한 연구 사례 ···································· 131
<표 32> 인공지능과 생명의료윤리 4대 원칙: 인공지능과 환자의 관계 ················ 134
<표 33> 인공지능과 생명의료윤리 4대 원칙: 인공지능과 인간의사의 관계 ········· 136
<표 34> 인공지능과 생명의료윤리 4대 원칙 ···················································· 167

- vi -
그림 목차

<그림 1> 인간과 인공지능이 각자 더 뛰어난 영역 ··········································· 23


<그림 2> 인간수준 인공지능의 등장시점 ····························································· 28
<그림 3> 당신은 트롤리의 선로를 변경할 것인가? ··········································· 30
<그림 4> 당신은 트롤리를 멈추기 위해 타인을 밀어 떨어뜨릴 것인가? ····· 30
<그림 5> 자율주행 자동차의 윤리적 딜레마 상황 ············································· 31
<그림 6> 인공지능 머신러닝 딥러닝의 기술적 영역 관계 ······························· 45
<그림 7> 왓슨의 의료분야 주요 활동 ··································································· 49
<그림 8> 의료용 인공지능의 존재론적 특징 ······················································· 97
<그림 9> 의료윤리의 영역 ···························································································· 103
<그림 10> 원칙에 의한 가치판단 과정 ······························································ 117
<그림 11> 우리나라 의료보장제도의 단계적 특징 ·········································· 156

- vii -
의료분야의 인공지능 도입과 생명의료윤리
정립 연구

김진동

부산대학교 대학원 윤리교육과

요약

우리는 기술로 인해 인간의 삶이 획기적으로 변화된 것을 산업혁명이라고 간명하게


말할 수 있다. 주지하다시피 인류는 18세기 이후 세 번의 혁명적 발전을 이루어 냈다.
그리고 지금 4번째의 획기적인 변화를 맞이하고 있는데, 바로 초지능, 초연결, 초융합
이라는 특징을 가지며, 우리는 그것을 이름하여 4차 산업혁명이라고 부를 수 있다. 단
적으로 말해 4차 산업혁명의 핵심은 인간의 근육보다는 지능을 대체하고자 하는 노력
으로 특징지어진다. 그 귀결로 드러나는 것이 바로 인공지능 기술의 발전이다.
인공지능은 지능의 발달에 이어서 스스로 도덕적 판단을 내릴 수 있을 정도의 수준
에 이르렀다. 본 논문이 착안한 것은 바로 그 지점이다. 이미 세계적으로 인간의 복지
에 영향을 미치고 있는 인공지능의 도입이 우리나라에서는 아직 초기라는 점과 그에
따라 인공지능의 도입과 활성화가 의료현장에서 어떠한 윤리적인 문제에 직면하게 될
것이라는 점이다. 따라서 본 논문에서는 의료분야에 도입될 인공지능의 윤리 문제를
우선 기술적 관점과 환자의 관점으로 나누어서 고찰하고자 한다.
우선 기술적 관점에서 볼 때, 인공지능의 알고리즘을 훈련시키는 데이터의 대표성과
윤리성, 그리고 인간에서 유래한 의료데이터 자체의 복잡성으로 대표되는 기술적인 문
제들은 공학자들과 의료인, 그리고 윤리학자들이 함께 풀어가야 할 과제이다. 다음으로
환자의 관점에서 볼 때, 인공지능 도입의 윤리적 문제는 의료데이터의 무분별한 수집
으로 인한 개인 인권침해 문제로부터 시작하여 의료 행위에 대한 인공지능의 결정권
과 의료사고에 대한 책임 문제에 이르기까지 다양하다. 이러한 우려는 인공지능의 의
료적 판단 및 활동과 관련하여 일정한 윤리적 기준을 요청하고 있으며, 이에 따라 본
논문에서는 새롭게 공존해야 하는 대상으로서의 인공지능을 포괄하는 윤리적 논의의
필요성을 제기하고 또한 구성하고자 시도한다.
그러한 시도의 해결책으로 본 논문에서는 생명 의료윤리의 근간이 되는 비첨(T. L.
Beauchamp)과 차일드리스(J. F. Childress)의 4대 원칙을 기반으로 인공적 도덕 행위자

- viii -
로서의 인공지능의사와 보건의료인을 위한 윤리적 원칙을 구체화하고자 하였다. 특히,
임상현장에서 환자를 포함한 이들의 상호관계에서 나타나는 역할과 책무를 다양한 윤
리문제 사례를 통해 살펴봄으로써 향후 의료분야 인공지능 도입에 따른 생명의료 윤
리교육의 정립을 위한 탐구를 그 목적으로 하였다. 이를 위하여 임상현장에서 인공지
능과 직면해야 할 의료인과 의료용 인공지능이 함께 지켜나가야 할 새로운 윤리적 관
계에 대해 탐색하였으며, 생명의료윤리의 4대 원칙인 ‘자율성 존중의 원칙(the
principle of respect for autonomy)’, ‘악행 금지의 원칙(the principle of
nonmaleficence)’, ‘선행의 원칙(the principle of beneficence)’, ‘정의의 원칙(the
principle of justice)’1)을 구체화 및 체계화하였다. 아울러 생명의료분야에서 나타나는
구체적인 임상 상황을 기반으로 윤리문제가 생겼을 때를 대비하여 환자와 의료인, 그
리고 새로운 의료주체로서 인공지능이 함께 고려해야 할 상호관계에서 나타나는 책무
들에 관해 탐색하고자 하였다.
그러한 탐색을 위한 전제조건으로, 우선 다음과 같은 질문이 필연적으로 생긴다. 현
재 인공지능은 어느 정도의 수준이며, 의료현장에서 도덕적 주체로서 윤리성을 가질
수 있는 상황인가? 먼저 인공지능이 도덕적 주체가 되기 위한 첫 단계는 도덕적 판단
의 가능성을 확보하는 일이다. 그것은 우리가 인공적 도덕 행위자(artificial moral
agent)로서 실제 의료 현장에서 의료인과 환자가 대면해야 하는 의료용 인공지능의 존
재론적 특징을 확인하고, 인공적 도덕 행위자로서의 인공지능의 지위에 대하여 재정립
해야할 필요가 있음을 의미한다. 다시 말해 의료용 인공지능은 첫째, 의사의 통제에 따
라 의료 행위를 수행하는 ‘환자에 대한 도덕적 대리인의 특징을 가진 형태’, 둘째, 설
계된 범위 안에서 ‘환자와 직접 소통하는 준 자율적 행위자의 형태’로 구분된다. 그리
고 그러한 자율적 행위자는 나아가 자율성, 양심, 도덕적, 지적 측면을 모두 갖춘 '초현
실적인 인공지능의사'로 나아갈 수 있다. 본 논문에서는 완전한 자율성을 가진 초 인공
지능의 한계를 지적하며, 향후 인공지능은 의료인을 도와 도덕성을 담보한 인공적 도
덕 행위자의 역할을 해야 하며, 조금 더 나아가 환자와의 직접적인 관계에서는 상호소
통을 통한 준 자율성(semi-otonomi)의 역할까지 기대하고자 한다.
그렇다면, 향후 인공지능은 의료현장에서 도덕적 행위자로서 다양한 윤리적인 선택
의 상황에 놓일 수밖에 없다. 의료분야 인공지능 기술의 알고리즘 설정에 있어서는 동
기주의나 결과주의와 같은 전통적인 윤리관의 설정도 중요하지만, 무엇보다도 생명의
료윤리를 기반으로 한 환자의 존엄성과 공평성과 같은 윤리적 원칙 또한 적극적으로
고려해야 한다. 생명의료윤리 분야에서 동기주의에 관해서는 의료행위의 옳고 그름의
원칙적인 기준과 방향을 제안해 줄 수 있지만 환자의 복리와 직접적으로 관련된 의료
행위의 실질적 결과가 무시될 수 있다는 비판이 있고, 결과주의는 의료행위의 실질적
인 결과를 평가하는 데에 도움이 될 수 있지만 아직은 우리에게 의료행위의 결과를

1) T. L. Beauchamp & J. F. Childress, Principles of biomedical ethics, Oxford University


Press, USA, 2019, pp. 99-313 참조.

- ix -
평가할 명확한 기준이 없다는 비판을 받을 수 있다.
다음으로 인공지능에서 이러한 윤리적 원칙을 학습시키기 위한 방향식 방법론은 크
게 세 가지로 나눌 수 있다. 첫째, 상향식 접근법은 피아제(Piaget, Jean)의 아동 인지
발달과정과 유사하다. 그것의 핵심은 아동이 조절과 동화를 통해 삶의 경험을 조직화,
구조화하는 도식(schema) 형성 과정처럼, 아동이 발달하는 과정에서의 다양한 행동 패
턴들에 대한 반성과 평가를 통해 도덕적 사고의 틀이나 원칙들을 습득함으로써 도덕
적 행위자로 성장해나가는 인간의 방식에 있다. 둘째, 하향식 접근법은 칸트의 의무론,
황금률, 결과론적 공리주의처럼, 주어진 원칙 중심으로 전통적인 윤리 규범들을 채택한
다음 그 이론들을 바탕으로 하부 알고리즘과 시스템을 설계하는 방식이다. 셋째,혼합적
접근법은 실질적으로 인공지능을 설계하는 공학자들이 알고리즘을 설계할 때 하향식
과 상향식 접근법을 혼합하는 방식이며, 실제로 일반적인 문제를 해결할 때에는 하향
식 접근법에 기반을 둔 알고리즘을 설계한다. 이러한 접근 방식으로 설정한 도덕규범
들이 상호 충돌하는 문제에 대해서는, 상향식 접근을 활용하여 다양한 사례와 경험을
통해 다원적인 가치와 규범이 학습되어 하향식 접근법이 가지는 한계를 극복할 것으
로 기대되고 있다.
본 논문이 기획한 핵심적인 논제는 바로 보건의료인에 관한 것이다. 그들은 앞에서
살펴본 내용처럼, 인공지능 기술에 대한 인식과 생명 및 인공지능 윤리에 대한 성찰을
할 필요가 있다. 특히 일부 윤리학자들은 인공지능을 사람들과 동등한 입장에서 타자
로 간주하여 상호 수평적 공존이 가능한 미래사회에 미리 대비해야 하고, 새로운 의료
기술에 대한 이해를 바탕으로 윤리적 갈등 상황에서 의사결정을 갖출 수 있는 교육이
더욱 요구된다고 주장하고 있다. 이러한 상황에서 생명윤리의식은 보건의료계열 종사
자에게 있어 의료행위나 간호행위 중에 발생할 수 있는 윤리적 문제를 해결할 수 있
는 기반일 뿐만 아니라, 보건의료시스템 하에서 바람직한 의사결정을 이끌어 내는 원
동력이 될 것이다. 따라서 보건의료 종사자들은 생명윤리의식을 기반으로 새로운 인공
지능 도입을 받아들여야 하며, 그들에게 새로 발생할 수 있는 윤리적 문제에 대한 고
민이 반드시 필요한 시점이다. 그런데 국내의 생명의료윤리 관련 연구를 살펴보면, 넒
은 범위의 보건의료인을 대상으로 한 연구는 부족한 실태이며 보건의료인의 생명의료
윤리의식과 인공지능 인식을 확인한 연구 또한 매우 부족한 실정이다.
이러한 배경 하에 본 연구에서는 보건의료인을 대상으로 생명의료윤리의식과 인공
지능 도입에 대한 인식에 대해 살펴본다. 그리고 그 결과는 다음과 같다, 우선 본 연구
에서 조사한 보건의료인의 91%가 인공지능이 현재 생명의료분야에 적용이 가능하고,
69%가 인공지능이 생명의료분야에 긍정적인 영향을 줄 것으로 인식하고 있었다. 그런
데 주목해야 하는 것은 생명윤리의식이 높을수록 인공지능 기술의 의료서비스 분야를
대체하는 것에 대하여 부정적인 인식 또한 높았다는 점이다. 따라서 본 논문에서는 보
건의료인이 주체적인 생명윤리의식과 윤리적 가치관을 확립하고, 향후 더욱 확대될 인
공지능 기술의 대상과 적용 범위를 감안하여, 발생할지 모를 심각한 윤리적인 문제를

- x -
예견하고 적극적으로 대비하여야 한다는 점을 포착한다. 또한 본 논문에서는 다음과
같은 귀결점에 이른다. 즉 인공지능에 의한 보편적 자가 의료 행위가 가능하게 된다고
하더라도, 이를 전체적으로 통제하며 윤리적 가치관에 대한 기준을 두고 이를 감시하
고 책임질 인간 의료인의 존재는 필요하다는 사실이다. 그러므로 임상현장에서 판단과
의사 결정을 담당해야 하는 보건의료인의 윤리적 해석과 가치관 정립이 시급히 요구
되고 있다.
그 점에 관해 좀 더 세부적으로 살펴보면 다음과 같다. 조사를 통해 보건의료인의
이상적 윤리관이 높을수록 인공지능의 적용가능성에 대한 인식도가 높아졌고, 상대적
윤리관이 높을수록 인공지능의 부정적 영향이 낮아졌다는 점이 밝혀졌다. 하지만, 세부
적으로 살펴보면 이상적 윤리관과 상대적 윤리관 정립에 대한 응답은 둘 다 비교적
높은 긍정으로 나타나 두 기준에 대한 유의미한 차이가 없었다. 일반적으로 이상적, 또
는 상대적 윤리관 중 하나가 강하게 자리 잡고 있으면, 다른 쪽은 비교적 낮아지는 경
향을 보이는데, 본 연구를 통해 드러나는 이와 같은 결과는 보건의료인들이 아직 윤리
적 가치관이 정립되지 못하여 다소 혼란스러워하는 상황이라고 해석된다. 따라서 실제
의료현장에서 발생하는 윤리적 문제와 인공지능의 등장으로 발생할 윤리적 문제에 대
하여 보건의료인의 윤리적 가치관이나 생명윤리의식에 상치될 경우 어떤 결론을 내릴
것인지에 대한 구체적인 연구가 더 필요하다는 것으로 판단된다.
그렇다면, 이러한 인공지능의 도입이 활발해지는 현재의 의료현장에서 생명윤리의식
정립을 위해 보건의료인이 갖추어야 하는 기본적인 자세는 무엇인가? 의료윤리 원칙은
의사와 환자 사이에서 의사가 가지는 소명과 책임, 환자에게 최대의 이익을 주는 데
초점이 맞추어져야 한다. 수순으로 이제는 인공지능의사를 새로운 의료주체로 인식하
고 인공지능의사의 역할에 대해 새롭게 조명할 필요가 있다. 다시 말하면, 보건의료인
들은 비록 인공지능이 인간의 인위적인 설계와 제작에 의해 탄생된 산물이지만 가까
운 미래에는 환자를 위해 최상의 의료적 진단과 결과를 가져오게 하는 매우 중요하고
영향력 있는 역할을 하게 될 대상임을 인정해야 한다. 이러한 인식을 바탕으로 인공지
능 탄생의 특이성과 목적성을 받아들이고, 결과적으로 그들을 부분적 자율성과 주체성,
아울러 책무와 책임문제까지 고려할 수 있는 대상으로서 포함할 필요가 있다.
따라서 본 연구에서는 의료현장의 사례를 이용하여 생명의료윤리 원칙들을 인공지
능시대의 특성에 맞게 ‘인공지능의사와 인간의사’, ‘인공지능의사와 환자’의 관계에 있
어 나타날 수 있는 의료문제와 상호 책무들에 맞추어 4대원칙을 구체화했다. 첫째, 자
율성의 원칙을 통하여 인공지능과 환자의 관계 중심에서 ‘충분한 정보에 의한 자율적
동의의 원칙’으로 구체화되고, 인공지능과 인간의사의 관계 중심에서는 ‘충분한 의사소
통에 의한 자율적 동의의 원칙’으로 구체화했다. 둘째, 악행금지 원칙을 통해 각각 ‘환
자의 안전 최우선과 악행 금지의 원칙’과 ‘해악의 정의와 의사결정 동의의 원칙’으로
구체화했다. 셋째, 선행 원칙은 ‘선행에 대한 환자 존중의 원칙’과 ‘선행의 범위와 의사
결정 동의의 원칙’으로 구체화되었다. 넷째, 정의의 원칙은 ‘공정한 절차를 통한 의료

- xi -
배분의 원칙’과 ‘상호작용을 통한 정의 구현의 원칙’으로 구체화했다. 이렇게 구체화된
원칙이 임상현장의 사례에 적용되어 인공지능의사와 환자의 관계에서 인공지능 의사
가 겪을 수 있는 윤리적 가치관의 혼란과 윤리적 원칙 간의 이해충동에 대한 윤리적
의사결정 방향을 제시할 수 있도록 제안하였고, 인공지능의사와 인간의사의 관계에 있
어서는 가까운 미래에 한 환자에 대한 책임을 동시에 가져야 할 의료인으로서 풀어야
할 실제 윤리문제들에 대하여 논의하고 그 방향을 제시해보고자 하였다.
아울러 본 논문에서는 새로운 의료주체를 포함하여 상호관계에서 구체화된 4대원칙
을 다음과 같은 접근법으로 문제해결 방향을 제시하였다. 먼저 인공지능과 환자, 인간
의사의 관계 중심에서 구체화한 4대 원칙을 상위원칙으로 설정 후 하향식 접근법을
통하여 프로그래밍하여 설계하고, 하위 개별 임상현장의 윤리문제 사례들은 상향식 접
근법을 활용하여 상호 충돌하는 다양한 문제에 대한 경험적 학습을 시켜 이 두 접근
법을 혼합하는 방법을 사용해야 할 것으로 주장하였다. 결과적으로 인공지능의 혼합식
접근법을 위해서는 윤리적 문제 상황에 대한 구체적인 예시가 필요하며 상향적 학습
을 위해 생명의료윤리 4대 원칙을 확장하여 적용하는 것이 중요하다고 판단하였다. 구
체화한 의료윤리 4대 원칙은 임상현장의 사례에 적용하여 인공지능의사와 환자 및 보
호자의 관계에서 인공지능의사가 겪을 수 있는 윤리적 가치관의 혼란과 윤리적 원칙
간의 이해충동에 대한 결과를 제시하였고, 인공지능의사와 인간의사의 관계에 있어서
는 가까운 미래에 한 환자에 대한 책임을 동시에 가져야 하는 의료인으로서 풀어야
할 문제와 그에 따른 책무와 역할에 대하여 논의하고 그 방향을 제시해보고자 하였다.
이렇듯 의료현장의 사례를 이용하여 구체화된 생명의료윤리 원칙을 인공지능시대
인공지능의사와 인간의사, 환자 및 보호자의 관계에 있어 나타날 수 있는 의료문제에
맞추어 확장해보는 것은 생명의료 윤리교육에 있어 매우 중요하다. 하지만, 의료현장에
서 발생하는 복잡한 윤리문제는 네 가지 원칙을 아우르며 관련되어 있어 각각의 윤리
원칙을 적용하는 데는 어려움이 있을 뿐 아니라, 하나의 문제 상황에서 나타나는 원칙
사이의 충돌도 불가피했다. 그러한 이유로 인해, 본 논문에서는 생명의료분야에서 나타
나는 구체적 상황을 기반으로 윤리문제가 생겼을 때 고려해야 할 잣대가 될 원칙의
구체화와 확장에 대해 강조하고 인공지능이 의료인, 환자와의 상호관계에서 중요하게
다루어야 하는 역할과 책무들에 대해 중점적으로 밝히고자 하였다.

- xii -
I. 서론

1. 연구의 필요성

2011년 2월 16일 미국 인기 퀴즈쇼 ‘제퍼디(jeopardy)’에서 IBM의 왓슨은 인간 퀴즈


영웅 2명을 가볍게 제압하면서 큰 이슈를 야기하였다. 그리고 구글 CEO의 데미스 하사
비스가 딥러닝 기술을 기반으로 한 알파고 인공지능 바둑 프로그램을 선보였다. 알파고
는 유럽의 최강자들을 모두 격파하였으며, 2016년 3월 우리나라의 바둑 강자 이세돌 9
단과 4승 1패를 거두며 승리하였다.2)
이후 왓슨은 뉴욕의 암 센터에서 의료 빅데이터를 학습하기 시작해서 현재는 의료진
을 도와 암환자의 진단 및 처치에 국내 많은 의료기관들에서 활용되고 있다. 이러한 성
공에 고무되어 현재 국내 의료계에서는 인공지능에 대한 관심이 폭발적으로 늘어나고 있
어, 관련 연구소와 센터들이 설립되고 있으며 국가 및 관련 기업들은 공동연구에 적극적
으로 나서고 있다. 2017년부터 지금까지 미국 FDA는 30여개, 국내의 식약처는 2018년
부터 20여개의 인공지능 의료기기들의 인허가를 내어 주었다.
현대 의료는 두 가지 상황에 직면해 있다고 볼 수 있다. 그 하나는 점점 빨라지고 있
는 생명과학 및 의료기술의 발달이며, 다른 하나는 4차 산업혁명으로 인한 디지털 기술
의 의료현장 적용이다. 특히, 정보통신 기능의 융·복합으로 산업 전반에 걸친 인공지능
(Artificial Intelligence)의 접목이 두드러지는데, 이는 인간의 혈당, 혈압 등 신체 변화
를 데이터화 할 수 있고 대량의 데이터를 처리하는 딥러닝과 머신러닝 기술을 통해 각
종 암, 피부질환 등 영상의료 판독의 정확성을 끌어올려 진단과 처방에 활용할 수 있는
디지털 헬스케어(Digital Health Care) 의료시장에서 매우 적극적으로 도입되고 있다.
인간 수명의 연장에 대한 기대와 건강한 삶에 더 많은 관심을 가지는 인류에게 현재의
디지털 헬스케어 영역은 전 세계적으로 적용 범위가 급격히 확대되어 의료계 혁신을 일
으키고 있는 실정이다.

의료계의 또 다른 큰 변화는 생명공학의 발전이다. 1953년 DNA 이중 나선구조 발견


을 계기로 하여 유전학 또는 생명공학의 연구가 활발하게 이루어졌으며 드디어 1990년
인간 게놈 프로젝트(Genome Project)가 출범하였고, 2003년 인간 게놈 지도를 완성함
으로써 인간이 가진 한계인 노화와 죽음에 도전하여 가시적인 성과를 거두고 있는 실정

2) 알파고는 세계 바둑 최강자였던 커제((柯洁-Ke Jie) 9단을 포함하여 그 후 모든 경기에서 승리하였으며,


유일한 패배를 기록한 것이 이세돌 9단과의 대국이었다. 이로써 이세돌 9단은 세계적인 주목을 받기도
하였다.

- 1 -
이다. 인간의 탄생 및 성장에 직간접적으로 범위와 영향을 넓혀가고 있는 이러한 신기술
은 배아 복제 및 체외수정기술, 유전자 진단 및 복제, 인공장기 제공, 줄기세포 난치병
치료, 노화의 원인 규명 등으로 대표되며 생로병사에 관하여 인간의 한계를 벗어난 의료
기술들을 펼치고 있다. 인공지능 기술은 사람과 사물 또는 사물과 사물을 정보통신망을
연결하여 인간의 행동을 예측할 수 있게 해준다. 이러한 인공지능 기술은 과거에 축적된
경험 데이터를 활용하여 원하는 목적에 가장 근접한 결론을 보다 쉽게 도출할 수 있도
록 함으로써 매우 효과적인 의사결정을 가능하게 한다는 장점이 있다. 그렇기 때문에 의
료현장에서도 인공지능의 도입이 가져올 이점들에 관심이 높아지고 있다. 일례로 환자들
의 과거 기록을 이용하여 학습한 인공지능을 적극적으로 활용하는 경우는 그렇지 않을
때보다 환자의 치료결과 및 비용적인 면에서 보다 효율적이라는 연구결과들이 나오고 있
고, 이는 인공지능이 의료현장에 도입됨으로써 가져 올 긍정적 측면에 대한 기대를 암시
한다. 특히, 구글에 재직 중인 제프리 힌튼(Geoffrey Everest Hinton) 교수는 “영상의
학과 전문의들을 배출하는 것은 당장 그만두어야 한다. 5년 안에 딥러닝의 기술은 영상
의학과 전문의의 진단능력을 능가할 것은 자명하다.”고 주장하며 영상자료의 처리 기술
에 있어 딥러닝 기술의 도입은 매우 효과적일 것이며 필수적이라는 메시지를 남겼다. 실
질적으로 인공지능이 의료분야에 적용될 경우, 의료 행위의 자동화와 정밀화가 확보되어
환자의 치료 방법 및 기간을 파악하거나 입원 및 시급한 의료장비 사용, 의료용 장기 제
공 등의 우선순위와 관련하여 보다 합리적이고 효율적인 판단과 처치를 할 수 있을 것
이다. 즉 최근 의료계에서 일어나고 있는 치료 결정에 있어서 의사결정의 개선 요청에
대한 일종의 해답을 제공해줄 수 있으리라 기대된다.

이상에서 추론해볼 때, 생명과학과 의료기술의 변화는 과거의 의료 환경에서는 경험하


지 못한 윤리적 문제3)를 의료종사자들에게 제기하고 있다. 예를 들어, 의사의 진단을 돕
기 위해 도입된 인공지능 시스템으로 인해 환자와 의사의 관계가 근본적으로 바뀔 수
있다는 문제가 제기되고 있다. 특히, 인공지능에 의한 진단은 환자와 의사가 대면하지
않고 이루어질 수 있으므로 이동성이 제한된 환자들에게 유용할 수 있으나, 환자들의 사
회적 고립 또한 증가시킬 수 있다는 새로운 우려가 나타나고 있다. 이에 더하여 생명과
학 기술이 인간복제, 인공수정, 생명연장 등을 구현하는 수준으로까지 발달됨으로써, 인
간의 체세포배아를 여성에게 착상시키는 행위를 금지하는 ‘생명윤리 및 안전에 관한 법
률’이 만들어져 인간의 탄생과 생존에 관한 또 다른 윤리적인 문제가 제기되고 있다4).

3) E. Di Nucci, “Should we be afraid of medical AI?”, Journal of Medical Ethics, Vol. 45(8),
2019, pp. 556-558.
4) 전현숙, 「간호대학생과 비 간호대학생의 생명의료윤리 의식」, 『기본간호학회지』, 제18권 3호(2011),
pp. 401-410.

- 2 -
또한 보건의료서비스의 다양화와 첨단기술의 발달은 보건의료계에 다면적이고 복합적인
윤리 문제를 야기하고 있다. 특히 인공지능이 실제 임상 현장에서 환자의 진단에 도입되
는 데 있어 대두되는 윤리적인 문제는 “인공지능이 의사를 대체할 수 있는가?”이다. 즉
인공지능에게 환자의 어떠한 부분까지 결정하게 할 것인가의 문제이고, 그 결정을 신뢰
할 수 있는지, 그 결정에 대한 책임은 누가 지게 되는지와 관련된 문제이다.

본 연구에서는 이 문제를 인간 의사처럼 인공적 도덕 행위자로서의 인공지능 정립가능


성에 대한 문제로 설정하고자 한다. 즉 인공지능에게 도덕적 의사결정자로서의 지위를
부여할 수 있는가의 여부가 그것이다. 실제 의료현장에 도입된 인공지능은 여러 가지 의
료 진단 및 판단의 상황에서 도덕적 판단을 해야 할 경우가 있다. 예를 들어, 암을 진단
하여 수술 및 향후 치료방법을 권유하는데 환자의 종교적 또는 인생철학에 위배되는 의
료처방이 나왔을 경우에 일종의 도덕적 판단의 상황에 직면하기도 할 것이다. 따라서 인
공지능에게 도덕적 의사결정이 요구된다면 이 도덕적 의사결정의 원칙과 규준 또한 정립
되어 있어야 할 것이다. 이는 마치 인간이 행위를 할 때 준거하는 도덕적 원칙과 규준이
있어야 한다는 것과 같은 의미라 할 수 있다. 다만 인간과 인공지능의 차이는 인간은 스
스로 도덕적 원칙과 규준을 찾고 정립할 수 있지만 인공지능은 인간에 의해 그 원칙과
규준을 학습하도록 설계되어야 한다는 점이 다르다. 어떻게 인공지능에게 도덕성을 학습
시킬 것인가는 기술적 영역의 쟁점이라면 인공지능에게 어떤 도덕적 원리를 학습시킬 것
인가는 윤리학적 주제라 할 수 있다.

생명윤리(bioethics)는 1970년 미국의 종양학자 포터(Van Rensselaer Potter)가 최


초로 사용한 용어로, 생명윤리학은 유전자 재조합, 세포 융합, 인공 수정, 생물 복제 따
위와 같은 생명과학의 연구 결과가 도덕적, 윤리적 측면에서 인류에 미치는 영향들을 연
구하는 학문으로 정의된다.5) 그러므로 생명의료윤리는 의학과 생명과학을 포함한 윤리적
문제와 과학의 발달로 인해 발생한 여러 가지 윤리문제를 중점으로 다루는 응용 윤리학
의 한 영역이며, 인간과 생명의 본질적 가치를 다루는 생명윤리와 이를 현실에서 구현하
고 적용하는 의료인이 가져야 할 가치와 행동규범을 다루는 의료윤리로 구분한다.6) 또
한, 생명의료분야에 면허제도가 시행되면서 의료인에게 부여된 권리에 상응하는 책임과
윤리를 강조하게 되었는데 이렇게 형성된 생명의료윤리의 영역을 전문직 윤리
(professional ethics)라 한다. 세계의사회(World Medical Association, WMA)는 각국

5) 신동원, 「한국 의료윤리의 역사적 고찰: 의사윤리강령 (1955-1997)의 분석을 중심으로」, 『의사학』, Vol.
9(2), 2000, 163-204.
6) L. B. McCullough, “Philosophical challenges in teaching bioethics: the importance of
professional medical ethics and its history for bioethics”, The Journal of medicine and
philosophy, Vol. 27(4), 2002, pp. 395-402.

- 3 -
의사회와 전문학회가 윤리위원회를 두고 각각 소속된 의사의 소임과 역할을 고려한 윤리
지침들을 제정하도록 권장하고 있으며,7) 대한의사협회의 의사윤리강령과 지침에도 의사
가 가지는 권리와 의무, 그리고 환자와의 관계 및 사회적 역할, 각종 수술 및 의학연구
에 관한 원칙과 조항에 명시되어 있다. 이러한 의료윤리규정은 현대 의료윤리의 4대 원
칙인 ‘자율성 존중의 원칙(the principle of respect for autonomy)’, ‘악행 금지의 원
칙(the principle of nonmaleficence)’, ‘선행의 원칙(the principle of beneficence)’,
‘정의의 원칙(the principle of justice)’을 핵심 주제로 한다.8) 비첨과 차일드리스가 주
창하는 생명의료 윤리의 네 가지 원칙을 구체적인 의료 윤리 문제에 적용시켜 도덕적인
답을 찾아 나가는 것이 바로 그것이다. 그러나 새로운 윤리원칙은 현재의 인간중심의 의
료윤리의 원칙에 덧붙여 환자 및 인간의사와의 관계를 중심으로 인공지능의사의 관점에
서 마련한 준칙들로 구성되어야 한다.

의료분야를 대상으로 “도덕적 주체로서의 인공지능과 윤리적 원칙”에 대한 논의를 제


시한 연구들에서는 구체적인 인공지능의 의료윤리 지침에 대한 논의를 시작했다. 그 중
에서도 인공지능로봇을 통한 의료의 도덕 형이상학적 모색에 대한 연구9)에서는 자율적
특성을 가지는 도덕과 윤리에 관한 덕론과 강제적 성격을 갖는 법에 관한 법론을 기반
으로 한 칸트의 도덕 형이상학을 통하여 의료분야 인공지능에 있어 도덕적 주체에 대한
모색을 시도했다. 또한, 의료분야에서 실질적으로 이용되고 있는 수술 로봇에 대한 윤리
적 쟁점을 논한 윤리연구에서는10) 수술의 전 과정 또는 일부에서 의사를 대신하거나 함
께 작업하는 로봇의 존재를 도덕적 대리인(moral agent)으로 제시하며, 의사의 명령에
따라 수술을 직접 시술하는 행위자(agent)로서 수술 로봇은 환자에 대한 도덕적 대리인
으로서 지위를 갖는다고 하였다. 2017년 유럽연합(European Union, EU)의 인공지능로
봇 결의안에는 인공지능을 탑재한 로봇을 전자인간으로 인정한다는 내용으로, 향후 인공
지능 로봇의 제작과 설계에 대한 주요 원칙뿐만 아니라 비상상황에 있어 이에 대한 작
동을 멈추는 원칙이 제시되어 있다. 그리고 이러한 구체적인 인공지능에 대한 가이드라
인은 의료분야에서 설계해야 할 전자인간 의사에 기대하는 윤리적 판단능력과 그러한 전
자인간 의사를 설계하기 위한 방법론에 대한 논의를 제안하며, 실제 전자인간 의사에게
문제가 발생했을 시 인간의사의 역할에 대한 논쟁을 촉발시키고 있다. 또한, 비첨과 차

7) D. S. Ahn & J. J. Han & J. L. Park, “Country report (Korea) on the global role of the
doctor in health care”, Research Institute for Healthcare Policy, 2012, pp. 1-118.
8) Y. M. Koo, “The key contents of the KMA’s code of medical ethics and proposals for its
implementation“. Korean journal of medical ethics, Vol. 6, 2003, pp. 119-142.
9) 정창록, 「인공지능로봇의료의 도덕형이상학적 모색: 의료적 전자인간의 책임가능성」, 『한국의료윤리학회
지』, 제21권 2호(2018), pp. 143-156.
10) 송선영, 변순용, 「수술 로봇의 윤리적 쟁점」, 『윤리연구』, 제106권(2016), pp. 183-202.

- 4 -
일드리스의 생명의료 윤리의 4대 원칙을 준용하여 인공지능 로봇의사의 의료윤리 지침
을 제시한 연구에서는11) 인간의사의 협업과 통제 아래 의료 행위를 해야 하는 로봇의사
를 위한 윤리원칙이 인공지능 시대의 모든 의사들이 보편적으로 지켜야하는 윤리원칙이
되어야 한다고 제시하고 있다.

본 논문에서 분명하게 주장하고 있는 것은 생명의료 윤리의 네 가지 원칙이 의료윤리


의 기본이고, 인공지능과 의료인의 의료 행위를 평가하는 윤리적 원칙의 토대라는 것이
다. 따라서 본 연구에서도 비첨과 차일드리스의 생명의료 윤리의 4대 원칙을 근간으로
하여 생명의료분야에서 나타나는 구체적 상황을 기반으로 윤리문제가 생겼을 때 의료인
과 인공지능이 함께 고려해야 할 잣대가 될 새로운 인공지능시대의 생명윤리 원칙에 대
한 논의를 한다.

이와 더불어 본 논문에서는 인공지능이 제기하는 다른 임상 윤리적 문제를 다음의 세


가지로 나누어서 살펴본다. 첫째, 개인의 인권과 관련된 문제이다. 인공지능과 관련된 의
료데이터의 수집은 개인정보 보호의 문제를 제기하며 이는 개인의 인권 침해 가능성을
제기한다. 머신 러닝을 통해 수집되고 있는 방대한 데이터의 경우, 앞으로 어떤 목적과
조건 하에서 데이터를 이용하고 처리할 것인지의 경계를 정하기가 점점 더 어려워지고
있다. 이렇게 수집된 데이터는 또 다른 데이터 세트와 연결되어 무한대로 이용될 가능성
도 있으므로 의료분야의 방대한 빅데이터 연구에 대한 개인정보 보호와 더불어 인권의
침해 가능성이라는 윤리적인 문제를 필연적으로 제기하게 된다.12) 둘째, 인공지능이 의
료행위에 활발히 참여하고 나아가 인간 능력 이상의 진단능력을 발휘하거나 치료의 우선
순위 결정에 참여하게 될 때 환자는 자신의 생명에 대해 누구에게 더 의지할 수 있는가
의 문제가 발생한다. 인공지능의 도입으로 의사가 가지고 있던 의학적 권위가 인공지능
알고리즘으로 이동하는 ‘집합적 의료 정신(collective medical mind)’13) 현상이 발생하
게 되고 이러한 현상은 기본적으로 의사의 진단에 도움을 주기 위해 도입된 인공지능
시스템이 의료적인 결정에 중심적 역할을 하게 됨으로써 제기되는 문제라 할 수 있다.
셋째, 의사와 환자 관계의 성격과 관련된 문제가 있다. 디지털 기술의 발달과 함께 최근
세계적인 코로나(COVID-19) 팬데믹(pandemic) 현상은 원격 의료와 비대면 의료의 중
요성을 더욱 부각시키고 있다. 특히, 로봇을 이용한 원격 관리 또는 스마트 폰을 이용한

11) 맹주만, 「인공지능과 로봇의사윤리」, 『철학탐구』, 제52권(2018), pp. 271-308.


12) O. Tene, & J. Polonetsky, “Privacy in the age of big data: a time for big decisions”,
Stanford law review online, Vol. 64, 2011, p. 63.
13) D. S. Char & N. H. Shah, & D. Magnus, “Implementing machine learning in health care—
addressing ethical challenges”, The New England journal of medicine, Vol. 378(11), 2018,
p. 981.

- 5 -
관리는 환자와 의사 사이의 대면이 필요 없는 시스템을 형성하여 환자 관리를 간소화할
수 있다. 하지만 예를 들어 인공지능 기반 가정 지원 플랫폼과 같은 방식은 이동성이 제
한된 노인들에게 더 나은 치료를 제공하는 데 매우 유용할 수 있으나, 의료적 주체이면
서 의료현장에서는 고립되는 역설적 결과를 가져올 수 있는 것이다. 이렇듯 점점 가속화
되고 있는 인공지능의 의료현장 도입과 더불어 나타나는 여러 우려는 인공지능의 의료적
판단 및 활동과 관련하여 일정한 기준을 요청하고 있다. 특히 윤리적 기준의 필요성이
시급히 제기되는데 많은 문제의 협의와 해결방안을 찾는데 윤리적 측면이 함께 작용하고
있기 때문이라 할 수 있다. 더구나 때에 따라 인공지능의 잘못된 의료적 판단이 주는 피
해가 재앙의 수준이 될 수도 있어 이에 대한 성찰과 방안이 필요하며 이는 인공지능의
윤리성과 관련된 문제를 제기한다. 본 연구에서는 이 문제를 인공적 도덕 행위자로서의
인공지능의 정립가능성에 대한 문제로 설정하고자 한다.

의료계에서도 대한의사협회에서 주최한 의료정책포럼(2017.04-보건의료 미래전망)에서


인공지능이 뇌사 상태의 환자에게 사망을 결정하고 다른 이식환자들에게 새 생명을 주는
것과 같은 윤리적 결정은 빠른 기간 내에 하지 못할 것이라고 말한다. 즉, 인공지능이
판단하는 의료적으로 효율적이고 유용하게 될 가능성을 우선 원칙으로 내린 결정보다,
유용성을 고려하지 않고 도덕적, 윤리적 기준을 우선으로 판단하는 것이 더 바람직할 수
있다는 것이다. 인공지능은 이런 환자 개인의 도덕적 사례를 다루어 놓은 빅데이터가 아
직 부족하기에 정책포럼에서는 인공지능 기술을 의료영역에 깊이 도입했다 하더라도 인
간 의사가 인공지능의 판단을 참고하여, 법적, 사회적, 윤리적 기준까지 고려하여 결정해
야 하고, 아무리 합리적인 인공지능을 활용한 자가의 의료 행위가 가능해졌다 하더라도
이를 통합하여 처리하고 책임질 인간 의료인은 반드시 필요하다고 권고한다. 이에 현재
보건의료계열에 종사하는 의료인들에게는 인공지능 기술의 도입 확대로 인한 의료 현장
의 다양한 문제들에 대응하여 보다 적합하고 바람직한 윤리적인 선택을 할 수 있는 생
명의료윤리 및 인공지능 윤리에 대한 고찰이 필요하며, 윤리적 가치관을 바탕으로 인공
지능 기술로 인하여 발생할 수 있는 윤리적 갈등 상황에서 의사결정 능력을 갖출 수 있
는 능력을 배양하는 것이 무엇보다 중요하다고 할 수 있다.

따라서 본 연구에서는 향후 더욱 확대될 인공지능 기술의 대상과 적용 범위를 감안하


여, 발생할지 모를 심각한 윤리적인 문제를 예견하고 적극적으로 대비하기 위한 기초자
료를 제공하고자 한다. 이를 위하여 국내 의료분야에 적용된 인공지능의 최신 동향과 윤
리적인 주체로서의 윤리관 확립 가능성과 한계를 소개하고, 인공지능 시대의 의료인이
갖추어야할 생명의료윤리의 원칙에 대해 논의한다. 또한, 실제 의료윤리 문제 사례를 통

- 6 -
하여 인공지능시대에 의료인이 가져야할 생명의료윤리 원칙에 대하여 탐구함으로써, 의
료현장에서 인공지능으로 인해 발생할 수 있는 윤리적 갈등 상황에서 의사결정을 하는
데에 도움을 주고자 한다.

2. 연구설계 및 구성

본 연구는 인공지능시대에 의료인이 가져야할 생명윤리 원칙과 인공지능 설계에 적용


되어야할 공통의 생명의료윤리원칙에 대하여 인공적 도덕 행위자로서의 인공지능 의사와
보건의료인, 그리고 환자 사이의 상호관계를 기초로 환자의 복리를 우선으로 하는 윤리
적 원칙을 구체화하고, 보건의료분야를 중심으로 인공지능의 도입을 바라보는 윤리적 관
점에 대하여 서술적 문헌 고찰을 제시한다. 또한, 실제 보건의료종사자를 대상으로 한
조사를 통하여 이들의 윤리적 가치관과 그에 따른 인공지능 인식 실태를 함께 다룬다.
본 연구의 윤리적 핵심주제는 인공적 도덕 행위자로서의 인공지능을 정립하기 위해서 어
떤 도덕적 원칙을 적용할 것인가와 그 적용을 위한 방법론적 원리에 대한 탐구, 그리고
이를 임상현장에서 통용되는 보건의료인들의 윤리적 가치관과 그에 따른 인공지능의 인
식에 대해서도 문제를 제기하는 것이다. 이를 통해 구체화한 자율성 존중 원칙, 악행 금
지의 원칙, 선행의 원칙, 정의의 원칙 각각에 대하여 인공지능시대의 임상현장에서 발생
할 수 있는 의료윤리에 대한 사례에 확장하여 적용함으로써 인공지능의사와 환자 및 보
호자와의 관계, 인공지능의사와 인간의사의 관계에서 발생할 수 있는 윤리문제에 대하여
탐구해보고자 한다.

본 연구에서는 이러한 기본 문제를 탐구하고 논증하기 위해 다음과 같이 연구를 설계


한다.

첫째, 문헌 연구를 통하여 4차 산업 혁명과 인공지능의 도입과 그에 따른 윤리적 문


제에 대한 주요국의 정책과 인공지능 윤리원칙에 대하여 탐구한다. 인공지능과 의료인을
위한 새로운 윤리적 원칙에 대한 논의는 세계적인 인공지능 정책과 연구, 그리고 법제화
를 근간으로 해야 하며, 국제적으로 제시되는 인공지능의 윤리원칙에 대한 이해를 그 바
탕으로 시작되어야 한다. 그러므로 본 연구에서는 의료분야의 인공지능을 논의하기에 앞
서 일반적인 인공지능과 그에 따른 윤리 문제에 대한 이해를 위한 최신 연구들을 고찰
하고자 한다.

- 7 -
둘째, 의료분야에 도입된 인공지능 기술의 개념을 문헌 연구를 통하여 정립한다. 의
료분야에 도입한 인공지능에 대한 정확한 이해가 없이는 생명의료분야에서 제기하는 인
공지능의 윤리성에 대한 논의가 불가능할 것이기 때문이다. 그리고 인공지능의 도입으로
인해 생명의료분야에서 발생하고 있는 윤리적 문제를 기술적인 관점과 환자의 관점에서
논의해 보고자 한다. 또한, 이러한 윤리적 문제에 대하여 보건의료인이 갖추어야 하는
바람직한 자세에 대해 연구한 의료윤리의 역사에 대하여 탐구하고, 현대 의료인의 윤리
원칙의 근간이 되고 있는 비첨(T.L.Beauchamp)과 차일드리스(J.F.Childress)의 생명윤
리 4대 원칙에 대하여 논증하고자 한다.

셋째, 조사 연구와 문헌 연구를 통하여 보건의료인의 생명윤리의식 실태와 보건의료


분야에 도입된 인공지능 기술에 대한 인식 현황을 확인한다. 국내에서 이루어진 인공지
능의 윤리와 관련한 연구들은 넒은 범위의 보건의료인을 대상으로 한 연구는 부족하므로
임상현장에서 받아드리는 보건의료인들의 인공지능을 향한 인식과 그들의 생명윤리의식
의 관계에 대해서 조사연구를 통하여 확인해보고자 한다. 또한, 보건의료인의 윤리적 가
치관과 그에 따른 인공지능에 대한 인식의 상관관계를 검증하고, 임상현장에서 받아들이
는 보건의료인들의 윤리적 가치관과 인공지능과 관련된 윤리적 기준의 관련성도 파악해
보고자 한다.

넷째, 인공지능의 윤리성 정립방향과 그 윤리적 원칙에 대하여 문헌연구와 실제 의료


사례를 통하여 논의한다. 이를 위하여, 준-자율적인 윤리적 주체로서 인공지능의 의미를
밝힌 후 인공지능의 윤리적 주체 정립 가능성과 한계를 논증하고, 인공지능이 환자의 복
리라는 가치를 최우선으로 여기는 의사결정을 하기 위해 학습해야 할 윤리적 원칙과 규
준에 대해 탐구하고자 한다.

마지막으로, 인공지능시대 보건의료인이 갖추어야 하는 윤리적 자세는 무엇인가에 대


한 답을 찾기 위해, 먼저 인공지능에게 윤리적 원칙을 적용하기 위한 구체적인 방법론에
대하여 논의하고자 한다. 또한, 의료윤리의 기본이 되는 생명윤리 4대 원칙인 자율성 존
중의 원칙, 악행 금지의 원칙, 선행의 원칙, 정의의 원칙을 구체화하고 체계화하여 의료
현장에서 발생하는 의료윤리 문제에 대한 실례를 바탕으로 인공지능 시대에 인공지능의
사와 환자 및 보호자와의 관계, 인공지능의사와 인간의사의 관계에서 새롭게 발생할 수
있는 윤리문제에 대하여 상호간의 책무와 역할, 윤리적 원칙과 규준에 대해 논증하고자
한다.

- 8 -
전체적인 논문의 연구 설계를 요약해보면 다음과 같다<표 1>.

본 연구의 Ⅱ장에서는 4차 산업혁명 이후 각 산업 또는 보건의료 분야에 접목된 인공


지능의 실태와 이에 따른 윤리적 쟁점에 대하여 알아보고, 윤리적 문제에 대한 주요국의
정책과 인공지능 윤리원칙에 대하여 탐구한다. Ⅲ장에서는 인공지능의 도입으로 인해 생
명의료분야에서 발생하고 있는 윤리적 문제를 기술적인 관점과 환자의 관점에서 알아보
고, 현대 의료윤리의 근간이 되고 있는 생명윤리의 네 가지 원칙에 대하여 탐구한다. Ⅳ
장에서는 인공지능이 생명의료분야에 도입된 정도를 알아보고, 보건의료인의 생명윤리의
식과 인공지능에 대한 인식의 관계, 보건의료인의 윤리적 가치관 확립 정도와 그에 따른
인공지능에 대한 인식을 실질적인 설문조사 결과를 통하여 검증하고자 한다. Ⅴ장에서는
문헌조사를 통하여 인공지능의 윤리성 정립방향에 대해 새로이 제시되고 있는 ‘준-자율
적인(semi-autonomous)’ 윤리적 주체로서의 인공지능 가능성 여부와 이를 적용하기 위
한 전통적인 윤리적 원칙과 생명윤리원칙들을 확인한다. Ⅵ장에서는 인공지능에게 윤리
적 원칙을 적용하기 위한 다양한 방법론을 알아보고, 실제 의료윤리 문제들에 대하여 인
공지능시대의 보건의료종사자들의 윤리적 기준이 될 수 있는 생명윤리 4대 원칙인 자율
성 존중의 원칙, 악행 금지의 원칙, 선행의 원칙, 정의의 원칙을 구체화하고, 이러한 윤
리 원칙을 인공지능에게 적용하기 위한 방법론을 제시한다. 또한, 의료현장에서 발생하
는 의료윤리 문제에 대한 실례를 바탕으로 인공지능의사와 환자 및 보호자와의 관계, 인
공지능의사와 인간의사의 관계에서 보건의료인과 인공지능이 함께 갖추어야 하는 윤리적
책무와 자세에 대하여 논증한다.

<표 1> 연구 설계

인공지능의 도입과 윤리 문제

인공지능의 도입으로 인해 발생하는 윤리적 문제는 무엇인가?

4차 산업혁명과 윤리 문제

Ⅱ장 인공지능의 도입과 윤리 문제

인공지능의 윤리문제에 대한 주요국의 대응


- 미국, 유럽, 한국의 정책

- 9 -
의료분야의 인공지능 도입과 생명의료윤리
의료분야에서 인공지능의 도입으로 인해 발생하는
윤리적 문제는 무엇인가?

생명의료분야의 인공지능 도입
Ⅲ장 ↓

의료분야의 인공지능 도입과 윤리 문제

의료분야 인공지능 도입에 따른 생명의료 윤리원칙의


확장 필요성

보건의료인의 윤리관과 인공지능 인식

실제 보건의료인의 인공지능 도입에 대한 인식은 생명윤리의식과 어떠한


관계가 있는가?

보건의료인의 생명윤리의식

인공지능의 도입과 보건의료인의 인식


보건의료인의 윤리의식과 인공지능 인식의 관계


Ⅳ장

실제 보건의료인의 윤리적 가치관과 인공지능을 향한 윤리적 기준은 어떠


한 관계가 있는가?

보건의료인의 윤리적 가치관


인공지능을 향한 보건의료인의 윤리적 기준


보건의료인의 윤리관과 인공지능 인식의 관계

의료분야 인공지능의 윤리성 정립 방향과 한계점


Ⅴ장
인공지능이 도덕적 주체로서 윤리성을 가질 수 있는가?

- 10 -
준-자율적인(semi-autonomous) 윤리적 주체로서의 인공지능

인공지능의 도덕적 판단 능력

인공지능의 자율적 도덕행위자로서 한계와 책무

의료현장에서 환자의 복리를 위한 인공지능에게 적용할


윤리적 원칙은 무엇인가?

생명의료윤리와 환자의 복리

동기주의적 입장에서 요구되는 존엄의 원칙


결과주의적 입장에서 요구되는 공익의 원칙

생명의료윤리와 인공지능 윤리

인공지능시대 생명의료윤리 4대 원칙의 확장성 제언과 방법론


인공지능시대 생명의료윤리 4대 원칙의 구체화의 방향은 무엇인가?

인공지능시대 생명의료윤리 4대 원칙의 구체화


인공지능과 인공지능과

환자의 관계 중심 인간의사의 관계 중심

- 충분한 정보에 의한 - 충분한 의사소통에


자율적 동의의 원칙 의한 자율적 동의의 원칙
Ⅵ장
- 환자의 안전 최우선과 - 해악의 정의와
악행 금지의 원칙 의사결정 동의의 원칙

- 선행에 대한 환자 - 선행의 범위와


존중의 원칙 의사결정 동의의 원칙

- 공정한 절차를 통한 - 상호작용을 통한 정의


의료 배분의 원칙 구현의 원칙

의료현장에서 환자의 복리를 위한 인공지능에게 적용할 윤리적 원칙은 어


떤 방법으로 적용해야 하는가?

- 11 -
인공지능에게 윤리적 원칙을 적용하기 위한 방법론

상향적 방법론/하향적 방법론


혼합식 접근법

인공지능시대 생명윤리원칙 4대 원칙의 방법론

구체화된 생명의료윤리를 바탕으로 인공지능시대 의료현장에서 보건의료인


과 인공지능이 갖추어야 하는 윤리적 자세는 무엇인가?

생명의료윤리원칙
- 자율성 존중의 원칙, 악행금지의 원칙,
선행의 원칙, 정의의 원칙

인공지능시대 생명의료윤리 4대 원칙
- 구체화에 따른 확장성 제언

인공지능 시대의 생명윤리원칙


- 인공지능의사와 환자의 관계에서
- 인공지능의사와 인간의사와의 관계에서

- 12 -
3. 선행 연구

인공지능 기술은 유럽 및 미국, 일본, 그리고 한국에서 활발히 연구하고 있으며, 특히


정보통신 기술이 발달된 우리나라에서는 디지털 헬스케어 기술을 접목한 웨어러블
(Wearable) 진단기기들이 대중화되고 있고 다양한 의료 분야에 적극적으로 도입되고 있
다. 인공지능을 접목한 의료장비는 약시(弱視)를 개선하고 두뇌 임플란트와 외골격 슈트
를 통해 마비환자의 불편한 수족 사용을 수월하게 해 주는 등 환자에게 맞춤형 치료법
을 제공해주고 있다. 아울러 어느 지역에서나 간단한 의료진단과 질병 분석이 가능할 수
있도록 원격진료시스템을 구축할 수 있다. 이렇듯 인공지능을 갖춘 장비는 환자와 보호
자가 의료진과 함께 최선의 환자 치료법을 선택할 수 있게 한다.

인공지능 기술과 윤리적인 문제에 대한 연구들은 국내외에서 많이 이루어지고 있다.


그 중에서도 2019년 ‘자연기계지능(Nature Machine Intelligence)’에서 발표한 인공지
능 설계와 윤리지침에 대한 연구에서는 세계적으로 인공지능이 윤리적이어야 한다는 명
백한 동의에도 불구하고, 윤리적 인공지능을 구성하는 요소와 이를 실현하기 위해 필요
한 지침들은 여전히 논쟁중이라는 점을 지적하며, 최근 5년 동안 세계적으로 연구 기관,
공공 기관, 민간 기업에서 발표한 인공지능의 윤리적인 원칙과 지침들을 구체적인 문헌
고찰을 통해 확인하였다.14) 그 중에서도 2017년 미국 캘리포니아 주 아실로마에서 합의
된 인공지능 원칙은 ‘인공지능을 인류에 이롭게 활용한다.’라는 전제로 향후 인공지능을
우리의 삶을 개선하는데 활용하기 위해 고려해야 할 23개의 윤리 원칙들을 제시하고 있
으며,15) 인공지능 윤리와 거버넌스(Ethics and Governance of AI)는 하버드 대학교의
버크만 센터(Berkman Klein Center)와 MIT의 미디어렙(Media Lab)이 공동으로 진행
하는 프로젝트로서, 의사 결정자로서의 인공지능과 사용자에게 지침을 제공하는 근거 중
심의 윤리를 제시하고 있다.16) 이렇듯 다양한 분야에서 인공지능에 적용해야 할 윤리적
원칙에 대한 연구들이 시작되고 있으나, 생명의료분야 인공지능의 윤리적 원칙에 대한
연구는 매우 제한적으로 이루어졌다.

그렇기 때문에 본 연구는 의료윤리의 근간이 되는 비첨(T. L. Beauchamp)과 차일드


리스(J. F. Childress)의 생명의료윤리의 4대 원칙을 기반으로 인공지능과 보건의료인을
위한 윤리적 원칙을 구체화하여, 임상현장에서 인공지능이 의료인, 환자와의 상호관계에

14) A. Jobin & M. Ienca, & E. Vayena, “The global landscape of AI ethics guidelines”, Nature
machine intelligence, Vol. 1(9), 2019, pp. 389-399.
15) The future of life institute. https://futureoflife.org/ai-principles-korean(2021.04.01 접속).
16) 최병삼 외, 「과학기술기반 미래연구사업 Ⅹ」, 『조사연구』(2018), p. 6-21.

- 13 -
서 중요하게 다루어야 하는 의무와 책무들에 대해 밝히고자 했다. 이제 생명의료분야의
인공지능 기술과 윤리적인 문제에 대한 대표적인 연구들을 이러한 본 연구의 핵심 문제
에 따라 크게 “도덕적 주체로서의 인공지능과 윤리적 원칙”에 대한 문헌과 이를 임상현
장에서 받아들이는 “보건의료인들의 윤리적 가치관과 인공지능의 인식”에 대한 문헌으로
나누어 확인해 보면 다음과 같이 정리해볼 수 있다.

첫째, 생명의료분야에서 도덕적 주체로서의 인공지능과 윤리적 원칙에 대한 연구로는


인공지능로봇을 통한 의료의 도덕형이상학적 모색 연구,17) 인공지능 로봇의사의 의료윤
리 지침에 대한 연구,18) 등이 있다. 둘째, 보건의료인들의 윤리적 가치관과 인공지능의
인식에 대한 선행연구로는 인공지능 시대 전문가 윤리의 역할과 윤리 기준의 지향점을
제시한 연구,19) 전공의의 윤리 교육에 대한 연구20), 보건의료인과 대학생을 대상으로 윤
리적 가치관과 인공지능 인식을 확인한 본 연구자의 연구 등이 있었다. 이러한 선행연구
들에서는 인공지능의 알고리즘을 훈련시키는 데이터의 대표성과 윤리성이 의료분야의 인
공지능 기술 도입에서 가장 큰 논제라고 제시하고 있으며, 인공지능의 훈련에 사용된 의
료데이터의 수집에 관한 개인정보 보호의 문제를 제기하고 있다. 또한, 전혀 다른 방향
성의 문제로써 인공지능이 의료행위에 참여하고 나아가 인간의 능력 이상의 진단능력을
발휘하거나 치료의 우선순위 결정에 참여하게 될 때 환자는 자신의 생명에 대해 누구에
게 더 의지할 수 있는가의 문제가 발생한다고 보고 있다. 선행 연구들을 통해 알 수 있
는 바와 같이, 점점 가속화되고 있는 인공지능의 의료현장 도입과 더불어 나타나는 여러
우려는 인공지능의 의료적 판단 및 활동과 관련하여 일정한 기준을 요청하고 있다. 그러
나 아직 생명의료분야 인공지능의 윤리적 원칙에 대한 연구는 시작하는 단계에 있으며,
본 연구는 그 지점을 주목하여 인공지능과 인공지능 시대의 보건의료인을 위한 윤리적
원칙을 구체화하는 것에 목적을 두고 있으며, 그 지점에서 선행연구들과도 변별점을 가
진다. 그리고 이에 관하여 좀 더 상세히 설명하자면 다음과 같다.

윤리학의 분야에서도 차츰 인공지능의 도입과 확산에 따라 나타날 수 있는 윤리적 문


제를 심각하게 생각하고 생명윤리 또는 의료윤리라는 독립된 분야를 정립하는 연구를 시
도하고 있다. 즉 윤리학자들 역시 의료현장에서 도입할 수 있는 윤리적 근거와 원칙을
설정하는 것이 중요함을 인식하고 현재는 생명윤리적으로 발생하는 다양한 윤리적 선택
의 문제를 해결하기에는 부족하다는 의견을 제시하고 있다. 이로 인해 의료인은 임상현

17) 정창록, 앞의 논문, pp. 143-156.


18) 맹주만, 앞의 논문, pp. 271-308.
19) 김미리, 윤상필, 권헌영, 「인공지능 전문가 윤리의 역할과 윤리 기준의 지향점」, 『법학논총』, 제32권
3호(2020), pp. 9-53.
20) 전재범, 「전공의 윤리 교육」, 『대한내과학회지』, 제94권 1호(2019), pp. 1-7.

- 14 -
장에서 도덕적 판단이 요구되는 상황들을 직면하고 이런 상황에서 법적, 윤리적 책임을
분별하여 의사결정을 할 수밖에 없는 상황에 자주 직면하고, 보건의료인의 판단과 의사
결정에 있어 윤리적 해석과 가치관 정립이 요구되고 있다.21) 최근 인공지능시대의 보건
의료인의 자세에 대한 연구에서는 보건의료분야에서 발생되는 도덕적 문제들은 칸트
(Kant)의 의무론이나 공리주의로 대표되는 결과론적 윤리학의 입장만으로는 해결되지 않
는 복합적 문제로 다루어지고 있다. 이러한 전통적인 윤리이론은 문제 행위에 대해 옳고
그름만을 따지게 되므로 의료현장에서 실제로 발생하는 복합적 상황에 맞는 해결책을 제
시하는 데에는 어려움이 있다는 것이다.

이로 인해 의료용 인공지능에 대한 윤리적인 고찰은 의료인을 넘어 인공지능과 환자


의 관계에 대한 연구로 확장되기 시작했고, 해당 연구에서는 환자에 대한 배려와 보호를
목적으로 한 인공지능의 존재론적 특징을 설명하고자 시도하고 있다.22) 다른 선행연구에
서는 구체적인 인공지능 로봇의사의 의료윤리 지침23)에 대한 논의도 시작되었으며, 그
중에서도 인공지능로봇을 통한 의료의 도덕 형이상학적 모색에 대한 연구24)에서는 자율
적 특성을 가지는 도덕과 윤리에 관한 덕론과 강제적 성격을 갖는 법에 관한 법론을 기
반으로 한 칸트의 도덕 형이상학을 통하여 의료분야 인공지능에 있어 도덕적 주체에 대
한 모색을 시도했다. 또한, 의료분야에서 실질적으로 이용되고 있는 수술 로봇에 대한
윤리적 쟁점을 논한 윤리연구에서는25) 수술의 전 과정 또는 일부에서 의사를 대신하거
나 함께 작업하는 로봇이 도덕적 대리인(moral agent)으로서 지위를 갖는다고 하였다.
이러한 선행연구에서 한발 더 나아가서, 본 연구에서는 인공적 도덕 행위자로서의 인공
지능 의사와 보건의료인을 위한 윤리적 원칙을 인공지능과 환자와의 관계, 그리고 인공
지능과 인간의사의 관계로 나누어 구체화했다. 그리고 이렇게 구체화된 원칙은 임상현장
의 사례에 적용되어 인공지능의사와 환자의 관계에서 인공지능 의사가 겪을 수 있는 윤
리적 가치관의 혼란과 윤리적 원칙 간의 이해충동에 대한 윤리적 의사결정 방향을 제시
할 수 있도록 제안하였고, 인공지능의사와 인간의사의 관계에 있어서는 가까운 미래에
한 환자에 대한 책임을 동시에 가져야 할 의료인으로서 풀어야 할 실제 윤리문제들에
대하여 논의하고 그 방향을 제시해보고자 하였다. 특히 선행연구 중에서 비첨과 차일드
리스의 생명의료 윤리의 4대 원칙을 준용하여 인공지능 로봇의사의 의료윤리 지침을 제

21) S. A. Sallady & M. M. McDonnell, “Facing ethical conflicts”, Nursing 2020, Vol. 22(2), 1992,
pp. 44-47.
22) 송선영, 「의료용 케어로봇과 환자 간의 서사와 공감 관계의 가능성」, 『인간· 환경· 미래』, 18호(2017),
pp. 49-76.
23) 맹주만, 앞의 논문, pp. 271-308.
24) 정창록, 앞의 논문, pp. 143-156.
25) 송선영, 변순용, 앞의 논문, pp. 183-202.

- 15 -
시한 연구에서는26) 인간의사의 협업과 통제 아래 의료 행위를 해야 하는 로봇의사를 위
한 윤리원칙이 인공지능 시대의 모든 의사들이 보편적으로 지켜야하는 윤리원칙이 되어
야 한다고 제시하고 있다. 본 연구에서는 그러한 선행연구에서 포괄적이고 광범위하게
한정하여 다루고 있는 해당 원칙을 임상현장에서 발생하고 있는 윤리적인 문제 사례에
구체화된 윤리지침들을 적용해 보는 것에 중점을 두고 있다. 또한, 지금까지의 선행연구
들은 보건의료인의 윤리적 가치관과 새로운 인공지능 기술에 대한 윤리적 기준을 확인하
고 비교하기에는 제한적이므로, 본 연구에서는 실제 의료현장에서 발생하는 윤리적 문제
와 인공지능의 등장으로 발생할 윤리적 문제에 대하여 보건의료인의 윤리적 가치관이나
생명윤리의식에 상치될 경우 나타날 수 있는 혼란에 대한 가치 기준 및 윤리 정립이 필
요하다는 것을 선행연구들과 다르게 제기하고 있다. 그에 관하여 부연하면 다음과 같다.

현재 보건의료계열에 종사하는 종사자들은 인공지능 기술의 도입으로 인한 의료 현장


에서 나타날 수 있는 문제들에 대응하여 보다 합리적이고 바람직한 윤리적인 선택을 할
수 있는 생명 및 인공지능 윤리에 대한 고찰이 필요하며, 보건의료계열 전공자들은 생명
의료윤리 의식을 바탕으로 인공지능 기술로 인하여 발생할 수 있는 윤리적 갈등 상황에
서 의사결정 능력을 갖출 수 있는 능력을 배양하는 것이 무엇보다 중요하다고 할 수 있
다. 의학, 약학, 간호학 등을 포함하는 보건의료계열 전공에서는 4차 산업혁명 시대의
새로운 의료기술에 대한 이해를 바탕으로 윤리적 갈등 상황에서 의사결정을 갖출 수 있
는 교육이 더욱 절실한 것으로 보고하고 있다.27) 실제로 국내 대부분의 의과대학에서 의
료윤리 관련 인문사회과목이 개설되었고, 간호학과를 비롯한 보건의료계열 학과에서 생
명윤리가 포함된 교과목을 운영하고 있다.28)

보건의료 학계 및 교육현장에서도 4차 산업혁명 기술의 하나인 가상현실을 이용한 새


로운 교육방법을 이용하고 있으며, 보건 의료 현장에서도 새로운 4차 산업 기술로 인해
발생될 수 있는 윤리적 문제에 적합하게 대처할 수 있는 보건의료인을 양성하기 위한
노력이 시작되고 있는 것이다. 교육 현장에서는 공청회 등을 통하여 시대적 흐름에 맞는
생명윤리 교육을 제공하기 위한 시도가 이루어지고 있으며, 간호사 혹은 간호대학생을
대상으로 생명의료윤리 관련 연구를 수행했고,29)30) 간호대 학생을 대상으로 도덕적 민감

26) 맹주만, 앞의 논문, pp. 271-308.


27) 김수경, 이경화, 김상희, 「4 차 산업혁명 시대의 윤리적 이슈와 대학의 생명윤리교육 방향 제고」, 『한국
의료윤리학회지』, 제21권 4호(2018), pp. 34-47.
28) I. Lee, “Medical ethics education: its objectives and curriculum”, Korean medical education
review, Vol. 16(3), 2014, pp. 147-155.
29) 김인순, 「생명윤리교육이 간호보건대학생의 생명윤리의식에 미치는 영향」, 『생명윤리』, 제14권1호(2013)
, pp. 1-13.
30) 전현숙, 앞의 논문, pp. 401-410.

- 16 -
성과 윤리적 가치관이 생명의료윤리 인식에 미치는 영향을 보고한 연구도 시도되었다.31)
그러나 국내의 생명의료윤리 관련 연구는 넒은 범위의 보건의료인을 대상으로 한 연구는
부족한 실태이며, 보건의료인의 윤리적 가치관과 새로운 인공지능 기술에 대한 윤리적
기준을 확인하고 비교한 연구는 없는 실정이다. 그러므로 본 연구는 국내 의료분야에 적
용된 인공지능의 최신 윤리적 문제와 인공지능시대 보건의료인과 인공지능의 새로운 윤
리적 원칙 확립을 위한 전통적 윤리 원칙과 생명의료윤리 원칙들을 소개함으로써, 보건
의료인들이 4차 산업혁명 시대의 인공지능 기술에 대한 이해를 바탕으로 이로 인해 발
생할 수 있는 윤리적 갈등 상황에서 바람직한 의사결정을 하는 데 도움을 주고자 한다.

또한, 본 연구에서는 인공적 도덕 행위자로서의 인공지능 의사와 보건의료인을 위한


윤리적 원칙을 구체화하고 임상현장에서 발생할 수 있는 사례에 확장하여 적용함으로써,
윤리문제 사례를 통한 인공지능 도입에 따른 생명의료 윤리교육의 정립에 대한 연구를
그 목적으로 했다. 이를 위하여 임상현장에서 인공지능과 직면해야 할 의료인과 의료용
인공지능이 함께 지켜나가야 할 새로운 윤리적 관계에 대해 탐색하였고, 생명을 다루는
의료윤리의 근간이 되는 비첨과 차일드리스의 생명의료윤리의 4대 원칙을 인공지능 의
사와 보건의료인을 위한 윤리적 원칙으로 구체화하고, 이렇게 구체화된 원칙을 임상현장
의 사례에 적용하여 인공지능의사와 환자의 관계에서 인공지능 의사가 겪을 수 있는 윤
리적 가치관의 혼란과 윤리적 원칙 간의 충돌에 대한 윤리적 의사결정 방향을 제시할
수 있도록 제안하고자 한다. 그리고 인공지능과 인간의사의 관계에 있어서는 가까운 미
래에 한 환자에 대한 책임을 동시에 가져야 할 의료인으로서 풀어야 할 실제 윤리문제
들에 대하여 논의하고 그 책무성과 방향을 제시해보고자 시도한다.

31) 김명숙, 「간호대학생의 도덕적 민감성과 윤리적 가치관이 생명의료윤리 인식에 미치는 영향」, 『한국간호
교육학회지』, 제21권 3호(2015), pp. 382-392.

- 17 -
II. 인공지능의 도입과 윤리 문제

현재 인공지능은 4차 산업혁명으로 인한 기술적 변화 중에서 인간의 지능을 모방하여


만들어진 기계적 지능의 변화에 속한다. 즉, 인간이 가진 인지, 추론, 학습, 평가 능력
모두를 포함한다. 최근에는 자연언어를 처리하는 능력의 발달로 인간의 언어를 이해하
고, 상황에 대한 패턴인식과 사물 및 이미지에 대한 딥러닝 학습, 새로운 정보를 스스로
분석하고 습득하는 기계학습, 축적된 경험과 지식을 토대로 유의미한 통찰력을 가지고
문제를 해결하는 능력까지 보여주고 있다.

하지만 4차 산업혁명으로 인한 변화가 가져다주는 편리함, 효율성과 함께 세계 주요


국에서는 현재 인공지능 기술로 인한 문제점들이 나타나고 있다. 이에 관련 기술의 개발
과 함께 인류가 반드시 지켜야 할 윤리적, 기술적 원칙들의 논의와 실천이행에 대한 다
짐이 반드시 필요한 상황이다. 지난 2016년 스위스 다보스에서 열린 세계경제포럼
(World Economic Forum)의 핵심 의제는 ‘4차산업혁명의 이해’였다. 포럼에서는 4차
산업혁명의 실체를 논하며, 4차 산업 시기는 ‘융합의 시대’, 즉 지식과 기술, 문화를 융
합하여 큰 변화를 일으키는 산업시대로 인류가 더 나은 미래와 삶을 위해 노력하고 어
떤 준비를 해야 할 것인가에 대하여 세계 석학들의 진지한 논의가 있었다. 아울러 2020
년 다보스 포럼32)에서는 기후 및 환경 문제와 더불어 궁극적으로 ‘인류 번영’을 위한 4
차 산업혁명 관련 기술이 개발되어야 하며, 인류는 우리 사회의 변화와 기술의 진보에
대한 대비가 무엇보다 중요하다는 논의를 핵심 의제로 내세웠다. 즉, 지난 4년간 4차 산
업혁명으로 인한 인류의 편리성뿐만 아니라 함께 나타날 수 있는 해악이 매우 클 것으
로 예상되기에 결국 인류의 가치를 반영한 기술개발이 무엇보다 중요함을 다시 주장하게
된 것이다. 따라서 본 장에서는 4차 산업 혁명 이후 도입된 인공지능의 최신 동향과 이
에 따른 윤리적인 문제들과 이에 대한 주요국의 대응을 소개함으로써 인공지능의 도입에
따라 발생할 수 있는 윤리 문제에 대한 개념을 정립하고자 한다.

1. 4차 산업 혁명과 윤리 문제

4차 산업혁명은 유전자, 나노, 컴퓨팅 등 모든 첨단기술이 융합하고 물리학, 디지털,


생물학 분야까지 상호 교류하여 비약적인 혁신을 일으킬 수 있는 혁명이라고 다보스 세

32) 이투데이 뉴스(2020.01.19), ‘50주년 맞는 다보스 포럼…지속가능한 세계 논의’, https://www.etoday.


co.kr/news/view/1846611(2021.06.23. 접속).

- 18 -
계경제포럼(WEF) 회장인 클라우스 슈밥(Klaus Schwab)에 의해 정의되었다. 이후 산업
혁명에 대한 정의는 다양하게 나타나고 있으며, 한국정보통신기술협회에서는 4차 산업혁
명을 우리 경제·사회 전반에 융·복합되어 인공지능, 빅데이터, IoT(사물인터넷), 모바일
등에서 혁신적인 변화가 나타나는 차세대 산업혁명으로 정의하고, ‘시사경제용어사전’에
서는 기존 산업 영역에 물리, 생명과학, 인공지능 등을 융·복합하여 제품 생산에서 관리
그리고 경영 등 기업운영에 있어 포괄적인 변화를 일으키는 차세대 혁명을 4차 산업혁
명이라고 정의하고 있다. 통계청에서 발표한 4차 산업혁명에 대한 연구보고서에서는 이
러한 4차 산업혁명 정의의 공통적인 키워드를 ‘신기술’, ‘융합’, ‘혁명’으로 요약하고 있
다.33)

4차 산업혁명과 관련된 첨단 기술은 그 범위가 매우 다양하며, 분야에 따라 그 경계


가 모호할 정도로 매우 넓게 적용되고 있다. 위에서 언급한 4차 산업혁명 주요 테마 분
석에서는 산업분류 범위와 그 중요도를 감안하여 공학자들은 4차 산업혁명 주요기술을
자율주행차, 로봇, 인공지능(AI: Artificial Intelligence), 빅데이터(Big Data), 사물인터
넷(IoT: Internet of Things), 모바일(Mobile), 가상현실(VR: Virtual Reality), 블록체인
(Blockchain), 핀테크(Fintech), 드론(무인항공기), 3D 프린팅의 11개 테마로 대체적으
로 분류하고 있다. 여기에서 자율주행차란 자동차가 전·후방의 무선감지 센서들을 통해
주변 환경을 인식하고, 충돌 등의 위험여부를 판단하며, 스스로 최적의 주행경로를 선택
하여 주행 가능하도록 제작된 자동차를 말한다.34) 인공지능 기술은 이러한 11개의 테마
중에서도 4차 산업혁명의 가장 핵심적인 소프트웨어로서 사람들이 봤을 때 지적이라고
느끼는 언어 이해, 학습, 문제해결과 같은 인간의 행동을 컴퓨터로 하여금 실행케 하는
연구를 말하며, 인공지능은 실체가 있는 것이 아니라, 그 기술 및 기능이 탑재되어 산업
용, 가정용 등으로 실체가 나타나게 된다.

이상에서 위의 11개 주요 테마에서 대표적으로 예상되는 문제들을 크게 3가지 영역


으로 나누어 보면 다음과 같다. 첫째, ‘기술 개발자의 영역’에 나타날 수 있는 문제점은
데이터의 편향, 설계과정의 불투명으로 인한 인공지능 판단의 오류, 오작동이다. 이는 민
항기를 오인하여 격추한 인공지능35)이라든지, 우리나라에 도입된 왓슨의 암진단 결과가
미국인의 데이터에 기반하여 인종적 차이를 나타내고 있는 것 등의 사례가 있다. 특히,
직접적인 해악을 끼치는 경우가 아니더라도 기술적인 결함을 가진 자율주행 기술은 실제

33) 박승빈, 「4차 산업혁명 주요 테마 분석 - 관련 산업을 중심으로」, 『통계청』, 제10호 2호(2017), pp.
226-286 참고.
34) 이세철, 『4차 산업혁명, 미래를 바꿀 인공지능 로봇』(정보문화사, 2017), pp. 114-115.
35) 1988년 7월 미군이 페르시아만에서 이란의 민항기를 전투기로 오인해 격추시켜 승객 290명을 사망하게
한 사건이 있었다.

- 19 -
로 인간의 생명을 쉽게 빼앗을 수 있다는 문제를 가지고 있다. 두 번째로 ‘인공지능 사
용자의 영역’에서 나타날 수 있는 문제로는 기계학습에 기반한 인공지능에 대한 사이버
공격36), 안면인식 기술 개발에 따른 개인의 프라이버시 침해문제, 드론의 살상 무기화,
섹스 로봇의 성상품화 등이 있다. 다음으로 ‘사회적 및 윤리적 영역’에서 나타날 수 있
는 문제로는 인공지능 확산에 따른 실업문제, 인공지능 혜택에 있어 인종적, 성적, 경제
적 차별이 있을 수 있고 딥러닝을 하면서 스스로 학습하는 인공지능이 심각한 오류를
일으켰을 때 그 원인을 설명하지 못하는 경우도 발생할 수도 있다.

이제 본 연구에서는 의료분야에 적용되고 있는 4차 산업혁명 기술 중 빅데이터를 이


용하여 개발되는 인공지능을 중심으로 논의하고자 한다. 머지않은 미래에 진화한 인공지
능으로 변화 할 우리의 생활 방식에 대해 논하고 있는 국제 회계 법인 EY(Emst &
Young) 어드바이저리의 저서에서는 이미 이러한 인공지능 기술이 차 안을 편안한 사무
실로 만들거나, 의사 대신 질병을 진단하고 치료하는 로봇의사에 대해 소개하고 있다37).

최근 생명공학과 의료기술의 발달은 인공지능과 빅데이터 같은 4차 산업혁명 기술을


기반으로 인체의 복잡한 생화학적 수치나 병리학적 상태를 신속하게 분석하고 파악할 수
있도록 진화시키고 있다. 이러한 기술은 실시간으로 환자의 혈류 속도, 혈관 압력, 당수
치, 혈중 지질 등 질병의 징후를 진단하고 확인함으로써 심각한 질병에 이르기 전 예방
의 효과를 가능하게 하고 있다. 그 실례로 치명적인 질환의 경우에는 최선의 진단과 치
료법을 빅데이터를 활용한 머신 러닝 기법을 활용하여 더욱 정밀하고 효과적으로 대응할
수 있도록 하였다.

하지만 생명공학과 의료기술의 발전은 인간을 복제하며 인공적으로 수정하는 탄생의


영역에 개입하고 노화를 막는 등 생명을 연장하는 수준까지 발달됨으로써, 인간의 체세
포 배아를 여성에 착상시키는 행위를 금지하는 ‘생명윤리 및 안전에 관한 법률’이 만들
어지기도 하였다. 이에 생명공학을 다루는 학자들에게서도 향후 나타날 수 있는 생명의
료 발전의 다양한 윤리적 문제점을 인지하고 있고, 인간의 생로병사를 인간이 다룰 수
있는 상황에 따른 복합적인 윤리 문제에 관심을 가져야 할 것이다.

직접적으로 보건의료 분야에 시도되고 있는 4차 산업 기술인 의료진단의 인공지능 활

36) 서울신문(2021.01.12.), ‘AI 챗봇 이루다’, https://www.seoul.co.kr/news/news(2021.06.23 접속)


- 마이크로소프트(MS)가 2016년 3월 출시한 대화형 인공지능(AI) 챗봇(채팅 로봇) ‘테이’ 서비스를 16
시간만에 중단했다. 챗봇 테이는 스스로 학습하는 인공지능 기반의 채팅 프로그램이었다. 이에 미국 극
우주의자 등이 테이에게 지속적으로 반(反)유대주의, 유색인종·여성 비하, 무슬림 혐오 등을 가르쳤다.
이에 테이는 사용자들이 “너는 인종차별주의자냐?”라고 물으면 “네가 멕시코인이니까 그렇다”, “홀로코
스트가 진실이냐?”고 질문하면 “조작된 것이다”라고 답해 논란이 되었다.
37) EY 어드바이저리, 『2020년, 인공지능이 내 곁으로 다가왔다』(매경출판, 2016), p. 5.

- 20 -
용, 개인의 유전 정보에 따른 처방, 빅데이터를 활용한 의료 정보 축적, 바이오테크 기
술을 이용한 신체기능의 보완 등과 같이 인간과 생명에 대한 새로운 개념을 도입하고
있는 요소들에 대한 문제가 대두되고 있다. 그리고 이러한 인간에 대한 근본적인 개념을
위협할 수 있는 요소를 비롯하여 이러한 기술의 개발로 야기될 수 있는 위험에 대한 법
적 규제에 대한 논의도 시작되었다. 그리고 이러한 논의에서는 4차 산업기술과 관련하여
적합한 윤리적인 판단이 필요한 상황에 대한 검토가 미리 이루어져야 하며, 이러한 문제
상황에 대한 사후적인 법적 조치가 아닌 사전적인 규율로서의 법적 규제가 필요하다는
주장이 본격적으로 제기되고 있다.38) 그리고 이러한 문제의 쟁점에는 4차 산업혁명으로
인한 새로운 기술들에 의해 새로운 윤리적 문제들이 나타날 것이며, 이 윤리적 문제에
대한 고민과 성찰도 시작되어야 한다는 주장이다. 그러므로 4차 산업혁명으로 나타난 의
료분야의 첨단기술과 이로 인해 발생 가능한 윤리적 문제에 대한 심도 있는 논의가 필
요한 시점이다.

실제로 보건의료 학계 및 교육현장에서도 4차 산업혁명 기술의 하나인 가상현실을 이


용한 새로운 교육방법을 이용하고 있으며,39) 보건 의료 현장에서도 새로운 4차 산업 기
술로 인해 발생될 수 있는 윤리적 문제에 적합하게 대처할 수 있는 보건의료인을 양성
하기 위한 노력이 시작되고 있다.40) 또한, 윤리적인 문제에 대하여 도덕적인 판단을 할
수 있는 인문적 소양과 인성을 갖출 수 있어야 하므로, 보건의료인의 기초교육을 담당하
고 있는 대학에서 자율성, 인간에 대한 이해, 가치 문제의 의료적인 판단과 같은 생명윤
리에 대한 보다 깊은 이해와 선행 교육이 이루어져야 한다는 주장이 늘어나고 있다. 이
에 따라 학생들의 윤리적 교육과정에서 4차 산업혁명시대에 따른 윤리적 이슈에 대한
대학 교육의 방향에 대해 제고하는 연구가 이루어졌으며,41) 실제 교육 현장에서는 공청
회 등을 통하여 다가오는 시대의 변화에 맞춘 생명윤리 교육을 제공하기 위한 시도가
있으며, 4차 산업혁명시대의 기술과 관련된 생명윤리교육과정을 개설하고, 공개토론회와
대학 내 온라인 및 오프라인 공개 교육 및 컨텐츠 제공을 통해 생명윤리 교육의 접근성
을 높이고 있다.

38) 양종모, 「인공지능을 이용한 법률전문가 시스템의 동향 및 구상」, 『법학연구』, 제19권 2호(2016),
pp. 213-242.
39) 김인순, 앞의 논문, pp. 1-13.
40) I. Lee, op. cit, pp. 147-155.
41) 김수경, 이경화, 김상희, 앞의 논문, pp. 34-47.

- 21 -
2. 인공지능의 도입과 윤리 문제

1) 인공지능의 도입 현황

지능이란 ‘문제해결 및 인지적 반응을 나타내는 개체의 총체적 능력’42)을 말하는 것


으로, 인공지능은 인공적으로 지능을 실현하는 기술이다. 초기 인공지능은 컴퓨터를 인
간처럼 생각하도록 만드는 것이 아니라 컴퓨터에게 인간이 수행하는 지적 활동이라고 생
각되는 작업을 수행하도록 하는 소프트웨어를 만드는 데 초점을 두고 출발했다. 그리고
현재 심층신경망(Deep Neural Network)을 활용한 딥러닝과 머신러닝 기법으로, 한 차
원 기술적 진보를 이룬 인공지능은 단순히 기계와 같은 도구의 개념에서 인간을 닮아가
고 인간과 상호 소통하는 인공지능으로 개발, 도입되면서 이제는 인간 행위자처럼 행동
하는 인공지능 기기도 대량 생산43)을 앞두고 있다.

이처럼 알고리즘을 활용한 인공지능기기들은 우리 주변에서 흔히 살펴볼 수 있다. 데


이터 마이닝(Data mining) 기법을 쓰는 온라인 광고 매체들은 내가 검색한 상품과 채널
을 우선적으로 제시해주어 나의 취향과 기호를 파악한 제품 소개로 만족도를 높이고 있
으며, 일부 실시간 번역 프로그램들은 그 완성도가 갈수록 높아져 국외에서도 언어적인
차이로 인한 문제를 쉽게 해결해주고 있다. 전 산업분야에 활용되고 있는 인공지능 기술
은 교육, 의료, 산업뿐만 아니라 실생활에서 인간과 서로 공감하며 감정을 나누는 소셜
로봇의 개발과 보급으로까지 활발히 이어지고 있다.

한편 이러한 인공지능 기술의 도입과 적용에 대해서는 크게 두 가지 관점이 제시되고


있다. 먼저 인공지능은 우리가 충분히 통제 가능하고 인류에게 전적으로 도움이 되도록
발전시킬 수 있을 것이라고 주장하는 페이스북 창업자 마크 저크버그(Mark Elliot
Zuckerberg), 구글 창립자 래리 페이지(Larry Page) 등과 같은 의견에 반하여, 테슬라 회
장인 일론 머스크(Elon Musk), 케임브리지대학교 교수 스티븐 호킹(Stephen William
Hawking)을 포함한 많은 전문가들은 인공지능이 인간의 통제 범위를 벗어날 수 있으므
로 인류에게 큰 위협이 될 수 있다고 문제를 제기하고 있다. 그리고 이러한 문제의 쟁점
에는 인공지능으로 인한 기술들에 의해 새로운 윤리적 문제들이 나타날 것이며, 이러한
새로운 기술개발에 대한 상이한 관점으로 인공지능이 인간의 삶을 풍요롭게 만들며 대립
보다는 협력과 강화의 대상으로 개발되고 있다는 주장44)도 있고, 고바야시 마사카즈의

42) 두산백과, ‘지능’, 네이버검색, https://terms.naver.com/entry.naver?docId(2021.06.28. 접속)


43) MBC뉴스(2021.01.28.), ‘대량생산 앞둔 인공지능 로봇 소피아’,
https://imnews.imbc.com/replay/2021/nwtoday/article/6071300_34943.html(2021.06.23 접속).
44) 이종관 외, 『인공지능과 미래인문학』(산과글, 2018), pp. 24-45.

- 22 -
저서인 ‘인공지능이 인간을 죽이는 날’45)에서는 인간의 생사에 관련된 자동차, 의료, 무
기의 세 가지 분야에 탑재되는 인공지능을 다루고 있으며, 자율주행차, 질병의 진단과
처방 도구, 자율적 무기처럼 인간의 생명과 직결되는 중요한 분야에 인공지능을 탑재한
제품들이 개발되는 것에 대한 깊은 우려를 표하고 있다. 현재 인공지능이 인간보다 월등
히 능력이 뛰어난 영역도 있지만, 반대로 인공지능보다 인간의 능력이 반드시 필요한 부
분들도 많이 있다.

따라서 인공지능의 도입 확산에 따라 인간의 능력과 비교해서 그 특징을 살펴 볼 필


요가 있다. 아래 [그림 1]은 IBM(Watson Health)에서 제시한 인간과 인공지능 각자가
잘할 수 있는 영역에 대한 정리이다.

<그림 1> 인간과 인공지능이 각자 더 뛰어난 영역

Humans excel at:

Cognitive systerms excel at:

- IBM Watson Health

출처 : IBM-Watson Health, https://www.ibm.com/us-en?lnk=m.(최윤섭, 『의료 인공지능』(클라우드나


인, 2021), p. 58 재구성)

위쪽은 인간이 가지는 강점으로 상식, 딜레마들, 도덕, 연민, 상상, 꿈, 추상적 개념,
일반화, 그리고 아래쪽 인공지능이 가지는 강점으로는 자연어 처리, 패턴 인식, 지식 찾
기, 머신러닝, 편견 제거, 무한 능력 등을 볼 수 있는데 현재 인공지능은 도덕, 공감, 상
상력 등에서도 인간의 영역을 넘어서며 확장하여 인간의사의 역할까지 수행하는 방향으
로 개발되고 있다. 반면에 인공지능의 역할이 아무리 뛰어나지만 우리 삶에 인간의 역할

45) 고바야시 마사카즈, 한진아 역, 『인공지능이 인간을 죽이는 날』(새로운제안, 2018), pp. 7-11.

- 23 -
이 무엇보다 중요하며 인공지능의 한계를 지적한 다음의 주장들이 있다. 나라 쥰은 그의
저서 ‘인공지능을 넘어서는 인간의 강점’에서 인공지능은 만능이 아니라는 논의를 시작
으로 인간의 강점은 직관과 통찰력으로부터 시작되며, 인공지능 시대에 가장 필요한 인
간의 직관과 통찰력을 높이는 방법을 소개하고 있다.46) 인공지능이 아무리 지능적으로
인간보다 월등하다 하더라도 기존의 지식이나 경험을 통해 사물의 본질을 꿰뚫는 인간
특유의 능력으로 인공지능보다 우월할 수 있다는 것이다. 그리고 김재인은 ‘인공지능시
대 인간을 다시 묻다’라는 저서에서 인간 특유의 능력 그리고 인공지능시대의 인간에 대
한 논의에서도 인공지능에 대한 공포 대부분이 인공지능을 과도하게 의인화하는 데서 생
겨난다는 점을 지적하고, 인간의 지능이 진화의 산물이라는 점을 되새기고 있다.47) 결
국, 인공지능에게서 발생하는 문제란 인간이 정해준 과제이며, 인간에게 닥친 문제의 포
착과 해결은 진화의 과정이기에 인간과 인공지능이 겪는 문제나 문제 해결이 서로 다른
위상을 갖는다고 강조하고 있다.
우리나라에서도 2016년 3월 구글에서 개발한 인공지능인 알파고와 이세돌 9단의 바
둑대결이 일반 대중과 인공지능 간의 거리를 이전에 비해 크게 좁히는 역할을 하였으며,
이를 시작으로 4차 산업혁명이라는 표현과 인공지능에 대한 관심이 증가해왔다. 특히,
이러한 4차 산업혁명으로 인한 보건의료 분야의 신기술 창출 효과에 대해서는 의심의
여지가 없으며, 유전정보의 분석과 이에 따른 질병진단 및 약물 처방, 빅데이터 활용,
3D 프린터를 통한 신체 보완, 그리고 인공지능을 활용한 질병 진단 등의 바이오 기술의
혁신은 보건의료 환경에도 엄청난 변화를 가져올 것이라 예상되었다. 현재 보건의료 분
야에서는 데이터 마이닝(Data mining), 기계 학습(Machine learning), 딥 러닝(Deep
learning) 등과 함께 4차 산업에 필수적인 빅 데이터(Big data) 분석과 인공지능의 활용
이 활발하게 이루어지고 있다.

안전하고 윤리적인 인공지능의 활용을 위해 발표된 인공지능 기술의 정책방향에 대한


지침에서는 신뢰성 있는 인공지능의 기본 원칙을 바탕으로 바람직한 인공지능이 충족해
야할 요구사항으로 행위자와 감독, 기술적 견실성과 안정성, 개인정보와 데이터 거버넌
스, 투명성, 다양성, 차별 금지, 공정성, 사회적, 환경적 웰빙, 책임성을 제안하고 있
다.48)

2018년 유럽연합의 인공지능 전문가그룹(High-Level Expert Group)은 신뢰가능한

46) 나라 쥰, 김희은 역, 『인공지능을 넘어서는 인간의 강점』(프리렉, 2018), pp. 49-91.


47) 김재인, 『인공지능의 시대, 인간을 다시 묻다』(동아시아, 2017), pp. 15-17.
48) 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향(2차년도)-안전하고 윤리적인 인공지능
R&D 및 활용을 위한 제도 개선 방안을 중심으로」, 『정책연구』, 제13권(2019). pp. 54-67 참고.

- 24 -
인공지능의 틀을 법적, 윤리적, 건강한 AI로 규정하고 인공지능의 도입에 있어 반드시
고려해야 할 4가지 윤리적 원칙(인간의 자율성 존중원칙, 해악금지 원칙, 공정성 원칙,
설명가능성 원칙)을 규정하였다.49) 아울러 인공지능을 개발하는 개발자뿐만 아니라 배포
자, 그리고 최종적인 인공지능의 사용자와 전체 사회를 포함한 인공지능의 개발부터 사
용까지에 참여하는 모든 인간에게 적용된다고 하였다. 구체적으로 인공지능 개발자는 인
공지능의 설계와 개발 과정에서 요구사항을 시행, 적용해야하고 배포자는 자신이 사용하
는 시스템과 제공하는 제품 및 서비스가 요구사항을 충족하도록 해야 하며, 최종 사용자
와 전체 사회에게는 이러한 요구사항을 대해 알리고 요구사항이 충족 될 것을 요청할
수 있도록 해야 한다고 권고하고 있다.

제4차 산업혁명은 디지털 혁명을 기반으로 한 인공지능(Artificial intelligence)기술,


로봇공학, 사물 인터넷, 무인운송 수단, 3차원 인쇄, 나노 기술 등으로 대표되고 있으
며50), 의료분야의 신기술 중에서도 인공지능은 4차 산업혁명에 의해 변화를 맞이할 가장
중심적인 부분으로 주목받고 있다. 우리나라에서는 2016년 의료진단에 인공지능을 도입
한 것을 시작으로 다수의 병원들이 의료 빅데이터를 분석하는 인공지능 분야의 인력을
양성하고 있고, 지능형 의료장비는 질병 분석, 의료진단, 의료 보조 역할이 가능하므로
보건의료분야 직업세계에 영향을 미칠 가능성이 점점 높아지고 있다51). 특히, 국내 인공
지능에 대한 대국민 인식 현황 분석에서도 인공지능이 향후 접목될 분야에 있어 인간의
건강한 삶과 관련된 분야가 가장 중요한 것으로 알려졌다. 이처럼 새롭게 공존할 대상으
로서의 인공지능을 윤리적 측면에서 사전적 대비가 없이 받아들일 경우, 의료서비스를
제공하는 의료진뿐만 아니라 환자와 보호자도 혼돈을 느낄 수 있으므로 이에 대한 윤리
적인 대책이 필요한 시점이다.

하지만 인간의 생명과 건강을 다루는 의료분야에서 인공지능에 대한 논의는 아직 “약


인공지능” 수준에 머무르고 있다. 그리고 지금은 인공지능과 인간 의사가 함께 환자의
복리를 최우선으로 하는 윤리적인 의료행위를 할 수 있는 방안을 고민하는 것이 무엇보
다 중요한 시점인 것이다. 예를 들어, 인공지능은 기계학습과 지식암기에 있어 매우 뛰
어나고, 인간은 윤리의식, 공감능력, 상식이 뛰어나다. 인간과 인공지능이 생명의료분야

49) High-Level Expert Group on Artificial Intelligence, Ethics guidelines for trustworthy AI.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai(2021.04.01.
접속)
50) K. Schwab, “The Fourth Industrial Revolution: World Economic Forum Zeneva”, Zulfu
Dicleli: The optimist publications, 2016, p. 15.
51) H. J. J. O. E. P. David, “Why are there still so many jobs? The history and future of
workplace automation”, Journal of economic perspectives, Vol. 29(3), 2015, pp. 3-30.

- 25 -
에서 어떻게 합심하여 의료행위를 발전시켜 나아가야할 것인가에 대한 대답은 이처럼 서
로의 강점을 알고 조율하는 데에서 시작될 수 있을 것이다.

2) 인공지능 기술과 윤리문제

인공지능 기술동향에 대한 정보통신기술정보센터의 연구에서는 인공지능을 구성하는


주요 기술 요소를 위의 인공지능시스템의 목표를 기반으로 하여 학습지능, 추론과 표현
지능, 음성인식과 이해지능, 시각지능으로 정리하고 있다. 학습지능은 기계가 새로운 환
경에 적응하고 패턴을 감지하고 추정하는 능력을 의미하며, 추론과 표현지능은 기계가
아는 것, 들은 것을 저장하고 질문에 답하거나 새로운 결론을 유도하기 위해 저장된 정
보를 사용하는 능력으로 정리하였다. 또한, 기계가 대화하는 것을 가능하게 하는 능력과
기계가 물체를 지각하게 하는 능력은 각각 음성인식과 이해지능, 그리고 시각지능으로
정의하였다.52)

<표 2> 인공지능의 인간사고 구현방식

인공지능 구현방식 인공지능 기술 요소

학습지능 - 기계가 새로운 환경에 적응하고 패턴을


합리적으로 생각하기
감지하고 추정하는 능력

추론과 표현지능 - 기계가 아는 것, 들은 것을 저장하
인간처럼 생각하기
고 질문에 답하거나 새로운 결론을 유도하기 위해 저장
↓ 된 정보를 사용하는 능력
인간처럼 행동하기 음성인식과 이해지능 - 기계가 대화하는 것을 가능하

↓ 게 하는 능력

합리적으로 행동하기 시각지능 - 기계가 물체를 지각하게 하는 능력

출처: 박승규,「인공지능 기술 동향」,『정보통신기술진흥센터, 기획시리즈-인공지능』,2018, pp. 3-5 재구성.

아울러 인공지능은 위와 같은 기술요소를 구현하는 방식으로 인공신경망을 이용하여


과거의 축적된 대량의 데이터를 기반으로 원하는 결론을 도출하는 데 매우 용이하고 보
다 합리적이고 효율적인 의사결정을 가능하게 한다는 장점이 있다. 인공신경망이란 인간
의 뇌를 참고하여, 다층의 뉴런 구조를 컴퓨터에 프로그래밍하고 신경세포 간 전달의 용

52) 박승규, 「인공지능 기술 동향」, 『정보통신기술진흥센터, 기획시리즈-인공지능』, 2018, pp. 3-4.

- 26 -
이성을 조정함으로써 학습을 진행하는 방법이다.53) 이러한 인공신경망을 활용한 인공지
능 기술은 로봇공학, 빅데이터 분석, 나노 기술, 무인 수송수단 등과 같은 분야에서 4차
산업혁명을 주도하고 있다. 인공지능은 일반적으로 그 능력과 기능의 수준에 따라 약인
공지능, 강인공지능, 초인공지능으로 분류할 수 있다.54) 예를 들어, 알파고와 같이 바둑
이라는 한 가지 기능과 목적에 맞게 프로그래밍된 인공지능을 약인공지능(weak
intelligence) 또는 특수인공지능(ANI; Artificial narrow Intelligence)이라고 분류하고,
인간 수준의 인지 능력과 기능을 갖춘 강인공지능(strong intelligence) 또는 범용인공
지능(AGI; Artificial general Intelligence), 이보다 1,000배 이상으로 고도화된 인공지
능을 초인공지능(ASI; Artificial super Intelligence) 또는 초지능(super intelligence)
으로 분류한다. 인공지능은 소프트웨어이므로 그 실체가 존재하지 않으며 언어 이해, 학
습, 문제해결과 같은 지적인 인간의 행동을 컴퓨터로 하여금 실행케 하는 기술이라고 정
의된다. 실질적인 인공지능의 하드웨어는 그 목적에 따라 기능이 탑재되었을 때 만들어
지며, 가정용이나 산업용, 의료용 등의 모습으로 나타난다.

다음은 인공지능의 기술에 대한 긍정적인 입장과 부정적인 입장에 대한 각각의 주장


을 두 학자의 저서를 바탕으로 살펴보고자 한다.

레이 커즈와일(Ray Kurzweil-미래학자)은 그의 저서 ‘특이점이 온다.’에서 컴퓨터 연


산능력의 기하급수적 성장을 토대로 컴퓨터가 모든 인간의 뇌를 합한 능력보다 넘어서는
강인공지능이 2045년경 나타날 것이라고 예측했다. 아울러 그가 말하는 '특이점'은 가까
운 미래 우리 산업 전반은 급변할 것이고 그 영향력으로 인하여 ‘인간의 생활이 되돌릴
수 없도록 변화되는 시기’가 도래할 것이라고 주장하였다. 이러한 특이점은 인공지능 기
술의 보편적 보급과 발전으로 우리 개인 삶의 패턴이나 인생관 등이 본질적으로 변화할
것임을 지적하였다. 아울러 인간이 창조한 기술의 힘이 기하급수적으로 확대하고 있으
며, 그 변화는 갑작스럽고 폭발적이여서 우리가 눈치채지 못할 것이고 변화의 범위는 인
간 두뇌의 패턴인식 능력과 문제 해결능력, 감정 및 도덕적 지능까지도 이르게 될 것이
라고 하였다.55) 책이 출판 된지 14년이 지났지만 레이 커즈와일의 주장은 우리에게 시
사하는 바가 매우 크다. 인간지능을 초월하여 인공지능이 활발히 보급될 것이라는 생각
은 현재 부인할 수 없는 사실이며, 인공지능 기술의 보급으로 불편한 신체의 일부를 기
계가 대신하고 있으며 향후에는 인공지능과 인간의 지능이 융합되어 인간의 능력을 극대
화하는 단계로까지 이어져 생물학적 진화도 가능할 것이다.

53) 마쓰오 유타카, 송주명 역, 『인공지능과 인간』(진인진, 2019), p. 164.


54) 변순용, 이연희, 『인공지능 윤리하다』(어문학사, 2020), p. 15.
55) 레이 커즈와일, 김명남 역, 『특이점이 온다』(김영사, 2020), pp. 27-269 참고.

- 27 -
하지만 닉 보스트롬(Nick Bostrom-옥스퍼드 대학교, 인류미래연구소장)은 그의 저서
‘슈퍼 인텔리젼스(Super Intelligence)’에서 핵무기와 기후변화와 마찬가지로 심각한 위
협으로 인공지능과 바이오기술을 언급하며 결국 “사람보다 똑똑한 AI는 인류를 멸망시
킬 마지막 발명품”이 될 것이라고 주장하였다. 그리고 AI의 초지능에 대해 통제에 성공
하든, 실패하든 그 여부와 상관없이, 아마도 우리가 맞서게 될 마지막 도전이 될 것이라
고 예상하였다. 이에 그는 아래 [그림 2]와 같이 강인공지능의 등장에 대해 많은 전문가
들의 설문조사를 발표하였는데 대상자의 절반은 결국 2040~50년 이내에 강인공지능이
등장할 것임을 확신하였다. 따라서 그는 잠재적 위협으로 인류가 멸망하지 않고 취약한
현 세계를 지키기 위해서는 국제적 연대와 협력은 반드시 필요하다고 주장하였다.56) 그
의 생각이 다소 극단적이라고 생각하는 사람들도 있지만, 현재 전 세계적으로 코로나 팬
데믹 현상은 자국 우선주의 현상을 낳고 있으며, 백신과 같은 부족한 의료자원의 보급에
있어 국가 간 연대는 많이 부족하고 의료적으로 낙후된 지역에 대한 배려는 매우 희박
한 실정이다.

<그림 2> 인간수준 인공지능의 등장시점

출처 : 닉 보스트롬, 조성진 역, 『슈퍼 인텔리젼스(Superintelligence)』(까치, 2017), p. 49.

다음으로 초인공지능은 앞서 언급한 바와 같이, 모든 인간의 지능을 합한 것보다 계


산능력이 뛰어나고, 어떤 인간보다도 훨씬 똑똑한 존재이다. 많은 학자들은 인간수준의
강인공지능이 실현되면, 인공지능 스스로 초지능으로 도달하기까지는 매우 짧은 시간만

56) 닉 보스트롬, 조성진 역, 『슈퍼 인텔리젼스(Superintelligence)』(까치, 2017), pp. 17-266 참고.

- 28 -
필요할 것이라고 보고 있다. 예를 들어, 위의 그림과 같이 인간의 제어를 벗어난 강인공
지능이 지능 대폭발기를 거쳐 스스로 초인공지능으로 진화하는 데에는 며칠, 몇 시간,
몇 분이 걸릴 수도 있다는 것이다. 그렇기 때문에 강인공지능이 도래하기 전에, 인공지
능이 인간이라는 존재를 어떻게 받아들일 것이지 예측하고 대비해야 할 필요가 있다.

이처럼 높은 수준의 인공지능은 인간에게 조종을 받지 않으면서 스스로 인간의 복지


에 잠재적인 영향을 미칠 정도로 발전할 것이고, 머지않은 미래에 인공지능 시스템들은
스스로 도덕적 판단을 내려야 할 정도로 복잡한 수준에 다다를 것이다. 이로 인해 도덕
행위자의 범위가 인간을 넘어 스스로 인공지능 시스템을 갖추는 것으로까지 확대되고 있
으며, 이러한 인공적 도덕 행위자(artificial moral agent)로서 인공지능의 설계를 위한
윤리적 측면의 고려사항에 대한 연구들이 활발하게 이루어지고 있다.57) 이러한 연구들은
인공지능이나 인공지능을 탑재한 로봇이 현실에서 당면하는 여러 선택사항에 대하여 어
느 것이 윤리적으로 받아들일 만한 것인지 스스로 평가하는 능력을 갖게 되기를 바라며
시작되었다.

인공지능 기술이 가져 올 사회적, 윤리적 문제는 크게 자율주행 자동차 사망사고, 섹


스로봇의 성상품화, 자율적 대량 살상 무기 개발, 지적활동 직종 대량 실직 사태, 의료
분야 오진 및 치료법에 대한 책임문제, 개인정보의 노출, 데이터의 편향성으로 인한 인
종차별 등이 예상된다. 특히 가장 대중화, 상용화에 앞선 것으로 알려져 있는 자율주행
기술의 사회적, 윤리적 문제는 향후 인공지능 기술을 전 방위 산업에 본격적으로 적용함
에 있어 반드시 고려해야 할 부분으로 생각된다. 자율주행 기술의 윤리적 문제에 대해
간략히 설명하면 다음과 같다.
2016년 7월 인공지능 기술의 오판이 한순간에 소중한 생명을 잃어버리게 만든 첫 사
건이 있었다. 미국 고속도로교통안전청(NHTSA)의 예비조사 보고서에 따르면, 플로리다
주 고속도로에서 모델 ‘테슬라 S’를 타고 있던 조슈아 브라운(40)은 대형 트레일러 트럭
이 좌회전 하는 동안 흰색으로 칠해진 화물칸을 하늘로 인식하여 감속하지 않고 충돌
사망한 사건이다.58) 인간보다 사물인식과 패턴 인식에 대해 더 잘할 것으로 자신을 가졌
던 일부 공학자들과 테슬라 자율주행 ‘오토파일럿’ 기술 개발팀은 당혹감을 감출 수 없
었다. 이후 테슬라는 5년 동안 기술적인 완성도를 높이기 위해 많은 투자와 노력을 기울
이고 있지만, 아직 자율주행 모드만으로 인한 자동차의 사망사건은 멈추지 않고 있다.
아울러 기술적인 미완성으로 인한 위와 같은 사망사건도 사회적 문제가 되고 있지만, 우
리는 자율주행 모드에서 나타날 수 있는 윤리적인 문제를 반드시 고려해야 한다.
자율 주행 자동차에게 나타날 수 있는 대표적인 윤리적 문제는 자율주행 모드가 피할

57) 목광수, 「인공적 도덕행위자를 설계를 위한 고려사항: 목적, 규범, 행위지침」, 『철학사상』, 제69권
(2018), pp. 361-391.
58) 연합뉴스(2016.07.01.), ‘테슬라 자율주행차 첫 사망사고...안전성 논란 증폭’
https://www.yna.co.kr/view/AKR20160701134800009(2021.07.02 접속)

- 29 -
수 없는 교통사고 발생시에 ‘누구의 생명을 보호하고 누구의 생명을 빼앗을 것인가?’이
다. 이러한 질문과 가장 유사한 상황이 유명한 ‘트롤리 딜레마(Trolley dilemma)’59)이
다. 마이클 샌델(Michael Joseph Sandel, 1953)은 2011년 1월 ‘정의(Justice)’라는 주제
강의에서 하버드 학생들에게 두 가지 질문을 하게 된다.60) 다음 [그림 3],[그림 4]는 강
의 내용에 대한 이해를 돕기 위해 이미지로 재구성하였다.

[그림 3] 당신은 트롤리의 선로를 변경할 것 [그림 4] 당신은 트롤리를 멈추기 위해 타인


인가? 을 밀어 떨어뜨릴 것인가?

우선 첫 번째 질문은 “당신은 전차 기관사로 브레이크가 고장난 상태로 시속 100km


로 달리고 있는데 그대로 직진하면 선로에 작업을 하는 인부 5명이 사망하게 된다. 마침
비상선로가 있어 우회하게 되면 비상선로에 작업하던 인부 1명이 사망하게 될 것이다.
당신은 선로를 바꿀 것인가 그대로 진행할 것인가?” 천 여명의 하버드 대학생 중 90%
이상은 선로를 바꿀 것으로 손을 들었고, 손을 든 학생들에게 그 이유를 묻자, 소수의
희생으로 다수를 구할 수 있다면 그것이 더욱 값진 것이라고 답했다, 샌델 교수는 비슷
한 사례로 다시 다음과 같이 질문한다. “당신은 구경꾼이고 육교 위에서 전차가 들어오
는 것을 봅니다. 마찬가지 브레이크가 고장 난 전차는 5명의 인부를 사망하게 할 것으로
보입니다. 이때 함께 옆에서 구경하는 뚱뚱한 사람이 난간에 기대어 있고, 이 사람을 밀
어 떨어뜨리면 기차를 멈추게 하여 인부 5명을 구할 수 있다, 난간에 기댄 옆 사람을 밀
겠는가?” 이 질문에 청강하던 하버드 학생들 대부분은 타인을 밀지 않겠다고 답했고, 그
이유는 이것은 ‘살인’이기 때문이라고 답하였다. 마이클 샌델은 두 질문의 공동 원칙인

59) 영국의 윤리 철학자인 필리파 푸트(Philippa R. Foot, 1920)와 미국 도덕 철학자인 주디스 톰슨(Judith
J. Thomson, 1929)이 제시한 사례들을 마이클 샌델(Michael Joseph Sandel, 1953) 교수가 하버드
대학 강의(2011.01월)에 언급하면서 유명해진 딜레마 문제이다. 부분적으로 다른 점은 필리파 푸트는
외부에 변환기가 있고 선로 밖에서 이 변환기를 통해 선로를 변경할 수 있다고 가정하였고, 마이클 샌
델은 선로를 변환할 수 있는 장치가 트롤리 안에 있어 전차 기관사가 그것을 변경할 수 있다고 가정하
였다. 마이클 샌델 교수는 하버드 학생들에게 선로 외부에 있지 않고 전차 기관사라고 가정함으로써 제
시된 딜레마 문제를 방관하지 않고 반드시 결정에 참여하도록 유도한 것으로 보인다.
60) EBS, 신년기획 하버드 특강 ‘정의란 무엇인가' 다시보기,
https://home.ebs.co.kr/sdocu/board/1/502952/view(2021.04.03 접속)

- 30 -
‘소수를 희생하고 다수를 구하는 것이 낫다’라는 생각이 왜 변하게 되었는지 질문하게
되지만, 학생들은 이 딜레마에서 쉽게 빠져 나오지 못하였다.
마이클 샌델의 위 질문의 차이점은 다음과 같다. 첫 번째 트롤리 질문에서는 ‘5명의
인부를 죽이는 것이 아닌, 죽게 내버려 두는 것이 옳은가’에 초점이 맞추어져 있다. 따
라서 대부분의 하버드 학생들은 ‘많은 생명을 죽게 내버려 두는 것은 옳지 않다.’라고
생각하였다. 하지만, 두 번째 질문에서는 ‘육교 위의 뚱뚱한 1명을 죽이는 것이 옳은가’
에 초점이 있다. 이에 대부분의 학생들은 ‘뚱뚱한 사람의 생명권과 인권을 침해하여 살
인하는 것은 옳지 않다’.라고 생각한 것이다. 즉, 공리적인 원칙의 해석도 ‘죽게 내버려
둠’과 ‘죽임’의 차이가 있는 상황에서는 완전히 다른 판단을 할 수 있다는 결과가 나타
난다는 것을 알 수 있다.
이상 트롤리 딜레마는 자율주행 자동차에서도 비슷한 윤리적 문제를 야기한다. 자율주
행 자동차의 문제는 ‘운전자가 피할 수 없는 교통 사망 사고가 예상될 때 충돌상황에서
어떤 결정이 올바른 것이고 그 결정의 원칙들을 실수 없이 설계할 것인가?’이다. 자율주
행 자동차의 궁극적인 목적은 안전하고 편리한 이동수단일 것이다. 하지만 자율주행 설
계 자체가 위험 상황에서 모두의 안전을 보장하지 못한다면 이는 시작부터 위협을 안고
그런 상황이 일어나지 않기만을 바랄 수밖에 없다. 이렇게 되면 아무리 기술적으로 안전
하다고 하더라도 윤리성이 결여되어 사고 발생 시에 설계자 및 사용자는 도덕적으로 비
난 받을 수밖에 없다. 자율주행 자동차에서 일어날 수 있는 교통사고 상황을 설정하여
이미지로 표현하면 [그림 5]와 같다.

[그림 5] 자율주행 자동차의 윤리적 딜레마 교통사고 상황

- 31 -
위의 그림 A는 자율주행 자동차가 과속 주행 중 갑자기 뛰어든 무단횡단하는 다수의
사람들을 발견하고 직진하여 다수의 사람들을 다치게 하는 상황이고, 그림 B는 다수를
피해 인도에 홀로 서 있는 한 사람을 다치게 하는 상황이다. 그림 C는 한명의 무단횡단
하는 사람을 피하기 위해 운전자가 핸들을 꺾어 스스로 다치는 상황이고 그림 D는 다수
의 무단횡단 하는 사람들을 피하기 위해 운전자가 다치게 되는 상황이다.
위의 그림 B와 D는 공리주의적인 접근이다. 이는 최대 다수의 이익을 우선으로 하기
에 여러 명의 보행자가 다치게 하는 경우를 피해야 하고, 따라서 한명이 있는 인도로 차
량 진행을 변경하거나 다수를 위해 운전자 본인이 사람들을 피해 건물로 돌진하는 경우
이다. 공리적인 해석이 자율주행자동차의 주행에 있어 가장 접근하기 쉬운 이론이기는
하지만 그림 D처럼 무단횡단하는 사람을 구하기 위해 운전자가 사망하게 설계하는 차는
차량 구매자의 입장에서 구입을 결정하기 쉽지 않을 것이다. 아울러, 그림 B의 상황을
다양하게 변경시켜 보면, 정면 충돌시 80세 노인 두명이 다치고 핸들을 꺾으면 7살 어
린아이 한명이 다친다고 가정한다든지, 정면에는 다수가 무단횡단하고 있고 핸들을 꺾어
인도에는 신호를 기다리는 사람 1명이 있다면 교통법을 위반하는 사람들을 위해 무고한
한 사람을 희생해야 하는 문제도 있다. 이처럼 공리적인 해석으로만 접근하는 것은 사람
들의 생명과 관련된 일이기에 더욱더 그 한계가 제기 될 수 밖에 없다.
다음으로 의무론적인 접근으로 해석하는 자율주행 자동차는 반드시 지켜야 할 기본
원칙을 설정하고 그 중요도와 배제 상황에 따라 하위 원칙을 적용하는 것으로, 컴퓨터의
알고리즘을 설계함에 있어서는 매우 유용하고 비슷하여 비교적 구현이 쉬울 것이다. 특
히, 예를 들어 아시모프의 로봇 3원칙61)을 자율주행 자동차의 원칙으로 변형하여 적용한
사례를 살펴보면 다음과 같다.

<표 3> 자율주행자동차의 4원칙

자율주행차량은 사람에게 위해를 가하는 주행을 해서는 안되며, 위험한 상황


제 1원칙
에 처했을 때 이를 방관해서도 안된다.
자율주행 차량은 제 1원칙에 위배되지 않는 한, 도롤 법규 및 탑승자의 판
제 2원칙
단에 따라야 한다.

제 3원칙 자율주행 차량은 제 1, 2 원칙에 위배되지 않는 한, 차량 자체가 손상되지

61) 1942년 아이작 아시모프(Isaac Asimov)의 공상 과학 소설 ‘런어라운드(Runaround)’에서 처음 언급되


었으며, 로봇이 따라야 할 세 가지 원칙은 다음과 같이 설정하고 1985년에 (0)번째를 하나를 더 추가하
였다.
(1) 로봇은 인간에게 해를 입히거나 혹은 행동을 하지 않음으로써 인간이 해를 입도록 해서는 안 된다.
(2) 로봇은 인간이 내리는 명령에 복종해야 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예
외로 한다.
(3) 로봇은 자신의 존재를 보호해야 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는
예외로 한다.
(0) 로봇은 인류에게 해를 입히거나, 혹은 행동을 하지 않음으로써 인류가 해를 입도록 해서는 안 된다.

- 32 -
않도록 보호해야 한다.
자율주행 차량은 도로교통법을 지키는 것이 위의 세 가지 원칙들과 총돌하
제 4원칙
지 않을 경우를 제외하고는 도로교통법을 지켜야 한다.
출처: 변순용, 이연희, 『인공지능 윤리하다』(어문학사, 2020), pp. 200-202 재구성.

위의 자율주행 4원칙은 비교적 교통 사고 긴급상황 및 일반적인 상황에서도 보편적으


로 적용할 수 있다는 장점이 있지만, 구체적으로 자율주행 자동차가 실제 도로를 주행하
면서 생길 수 있는 다양한 상황들은 위 원칙 내, 그리고 원칙과 원칙 사이의 충돌이 일
어날 수 있고 이런 갈등 상황이 생겼을 때 어떻게 해결해야 하는지에 대한 구체적인 해
답이 부족하다. 예를 들면, 제 1원칙에서 ‘사람에게 위해를 가하는 주행을 해서는 안된
다’고 하지만, 앞선 공리주의의 접근 사례에서 알 수 있듯이, 결과적으로 피해자를 선택
해야 하는 불가피한 상황에서 이 원칙만으로 자율주행 모드를 프로그래밍 하기란 어려울
것이다.
따라서 우리는 자율주행 자동차의 윤리적 문제를 해결하기 위해 공리적인 접근, 의무
론적인 접근도 물론 고려해야 하지만 가장 중요한 것은 사회 구성원들의 공공의 합의
과정을 가지는 것이 무엇보다 필요하다. 최근 MIT 미디어랩에서 라완(I, Rahwan) 등이
구축한 인터넷 플랫폼 ‘모럴 머신(Moral Machine)62)’은 무인 자동차와 같은 인공 지능
의 윤리적 결정에 대한 사회적 인식을 수집하기 위한 플랫폼으로 인터넷을 활용하여 현
재까지 4000만 건에 가까운 의견을 수집하면서 수집되는 데이터의 양과 분포는 향후 통
계적으로 의미 있는 자료로 활용될 것으로 보인다. 이런 딜레마 문제들에 대한 사회 구
성원들의 윤리적 합의과정을 독려하고 끌어내는 역할을 한다는 점에서 매우 흥미롭고 바
람직해 보인다. 하지만 아직 공동체 내부의 의견 차이를 조정, 합의하는 과정이 부족하
고 지역적, 문화적 특색을 통섭하는 보편적인 합의 결과를 도출하기에는 현실적으로 쉽
지 않고 많은 시간이 소요될 것으로 보인다. 예를 들면 안락사, 낙태, 사형제도 등 동일
한 딜레마 사건들에 대해서도 지역적, 시대적 문화를 반영하면 해석이 달라지는 경우가
많기 때문이다.
결과적으로 여러 가지 접근방법을 활용하더라도 현재 기술적 수준을 고려하면, 자율주
행 자동차의 기술적, 윤리적 문제는 아직 딜레마 상황에 대한 처리 등에서 모든 책임을
인공지능의 시스템으로 넘기는 것이 바람직하지 못하다고 생각한다. 설계자, 운전자, 판
매자, 제작자 모두가 함께 책임져야 할 공동 책임의 문제이다. 물론 향후 자율주행 기술
의 안전성이 보장되고 결과적으로 교통사고를 획기적으로 줄일 수 있는 정도의 기계 제
어 상태가 되면, 인간 운전자보다 설계자나 판매, 제작자가 더 높은 비중으로 그 책임을
져야 할 수 있을 것이다.

62) 모럴 머신, https://www.moralmachine.net/hl/kr(2021.07.03 구글 접속)

- 33 -
3. 인공지능의 윤리문제에 대한 주요국의 정책

인공지능의 윤리문제는 인공지능과 관련한 기술이 개발되는 단계와 개발된 제품이나


서비스가 상용화되는 단계에서 발생할 수 있을 것이다. 그리고 이러한 두 단계에서 발생
할 수 있는 윤리적인 문제에 대한 국가적인 정책이나 연구자들의 대응 또한 두 가지 측
면에서 검토해 볼 수 있다. 인공지능 기술의 전망에 대한 정책연구에서도 인공지능 윤리
의 개념에 대하여 인공지능 안전성을 인공지능의 기술·구조적 한계 및 특징으로 인해 발
생할 수 있는 의도치 않은 각종 위험들에 대비하는 개념 및 분야로 정의하고, 인공지능
윤리는 인공지능 관련 이해관계자들이 준수해야 할 보편적 사회 규범 및 관련 기술로
구분하였다. 다시 말해 기술적 오류 또는 관련 이해관계자의 고의가 아닌 실수로 인해
생긴 사건·사고에 대비하는 영역을 ‘인공지능 안전성’으로, 인공지능 개발자 및 사용자가
특정 목적 및 의도를 가지고 악용하는 경우에 대응하는 분야를 ‘인공지능 윤리’로 규정
하고 대응 방안을 수립하여 발표했다.63)

따라서 본 장에서는 인공지능의 안전성과 윤리 문제에 대하여 미국, 유럽, 한국 등을


포함한 주요국의 정책 동향을 살펴보고, 이에 대한 연구자들과 학계의 대응을 살펴보고
자 한다.

1) 미국

미국은 정부 차원에서 몇 차례에 걸쳐 인공지능 관련 보고서를 발간했으며, 인공지능


으로 인한 일자리 변화, 산업 안보, 혁신, 문제점 등에 관해 가장 활발한 논의를 하고
있는 나라이다. 미국에서는 2014년부터 빅데이터 관련 기술로부터 야기될 수 있는 구체
적인 윤리 주제인 공정성 문제에 대하여 논의와 연구를 진행해 왔다. 그리고 이러한 윤
리 문제와 관련하여 데이터로 도출될 수 있는 왜곡된 결과를 방지하기 위한 인공지능
학습에 이용되는 데이터 질과 양에 대한 해결 방안이 필요함을 정책적으로 제안해 왔다.
2016년 발표된 인공지능 미래를 위한 준비(Preparing for the future of artificial
intelligence)는 국가과학엔지니어자문회의(National Science and Technology
Council on Committee on Technology)에서 발간한 것으로, 2016년 발표된 국가 인
공지능 R&D 전략계획(National Artificial Intelligence Research and Development
Strategic Plan)과 함께 발간된 대표적인 인공지능 보고서이다. 특히, 이 두 개의 보고

63) 이제영, 김단비, 양희태, 앞의 논문, pp. 161-170 참고.

- 34 -
서는 미국 정부에서도 발간한 보고서 중에서 인공지능의 윤리적 측면에 대한 내용을 상
세하게 소개하고 있어, 인공지능의 윤리적 문제는 프라이버시와 보호 차원에서 언급되는
수준이었던 기존의 보고서와는 차별성이 있다.

2016년 10월에 수립된 인공지능 R&D 전략계획(National Artificial Intelligence


Research and Development Strategic Plan)은 미국의 인공지능 연구개발 정책에 관
한 광범위한 전략을 포함하고 있다.64) 인공지능 분야 장기적·우선적 투자, 인간-인공지
능 협업 모색, 인공지능의 윤리적·법적·사회적 영향 고려, 인공지능의 안전 및 보안 시스
템 마련, 인공지능 교육 및 공공 데이터 공유 환경 필요, 인공지능의 표준 및 벤치마킹
을 통한 기술 측정 및 평가 필요, 인력 양성 등 7가지의 추진 전략을 제시하고 있는 인
공지능 R&D 전략계획에서는 ‘인공지능의 윤리적, 법적, 사회적 영향 고려’를 통하여, 사
회 질서의 근본적 구동력으로 법과 윤리가 인공지능의 행위 결정에 정보를 제공하고 있
다고 가정하고 있으며, 인공지능이 기존 윤리와 법, 사회적 원칙에 부합하도록 설계되는
것이 인간의 사생활 침해에 대한 대비책도 마련되는 것이라고 보고 있다.

2016년 발표된 인공지능 미래를 위한 준비(Preparing for the future of artificial


intelligence)는 인공지능의 공정성(fairness), 안전성(safety) 및 지배구조(governance)
에 대한 이슈를 하나의 장으로 소개했다.65) 이 장에서는 실제 인공지능을 설계하고 개발
하는 엔지니어들은 인공지능으로 인한 의도적 차별과 실패를 예방하고, 비의도적인 결과
가 초래되었을 때 이를 합리적으로 설명할 수 있는 증거를 제공하는 공정하고, 책임성
있으며, 정의로운 방식을 갖춰야 한다고 제시하고 있다. 그리고 개발자들이 인공지능의
시스템을 보다 도덕적으로 만들려는 노력을 할수록 윤리적인 요소가 인공지능 설계의 제
약조건이 아니라 책임성을 강화하는 것으로 나타날 수 있다고 판단하고 있는 것이다.

2019년 ‘자연기계지능(Nature Machine Intelligence)’에서 발표한 인공지능 설계와


윤리지침에 대한 연구에서는 세계적으로 인공지능이 윤리적이어야 한다는 명백한 동의에
도 불구하고, 윤리적 인공지능을 구성하는 요소와 이를 실현하기 위해 필요한 지침들은
여전히 논쟁중이라는 점을 지적하고 있다. 해당 연구에서는 최근 5년 동안 세계적으로
연구 기관, 공공 기관, 민간 기업에서 발표한 인공지능의 윤리적인 원칙과 지침들을 구
체적인 문헌고찰을 통해 확인했다.66)

64) L. E. Parker, “Creation of the National Artificial Intelligence Research and Development
Strategic Plan”, AI Magazine, Vol. 39(2), 2018, pp. 25-32.
65) A. Thierer, & A. Castillo, “Preparing for the Future of Artificial Intelligence”, Public Interest
Comment, 2016, pp. 1-5.
66) A. Jobin & M. Ienca, & E. Vayena, op. cit, pp. 389-399.

- 35 -
그 중에서도 2017년 미국 캘리포니아 주 아실로마에서 합의된 인공지능 원칙(i.e.,
Asilomar AI Principles)은 향후 인공지능을 우리의 삶을 개선하는데 활용하기 위해 고
려해야 할 윤리 원칙들을 제시하고 있다. MIT의 물리학과 교수인 막스 테그마크(Max
Tegmark)가 주도적으로 설립한 미래의 삶 연구소는 ‘인공지능을 인류에 이롭게 활용한
다’라는 전제로 아래와 같이 23개의 아실로마 원칙을 제안했다.

<표 4> 아실로마 인공지능 원칙

분야 원칙 내용
인공지능 연구의 목표는 방향성이 없는 지능이 아니라 유익
연구목표
한 지능(beneficial AI)을 개발하는 것이다.
인공지능에 대한 투자는 컴퓨터과학, 법과 윤리, 경제, 사회
연구비
적 난제를 포함해 유익한 활용에 관련된 기금이 포함되어야
지원
한다.
연구
과학정책연 인공지능 연구자와 정책 입안자들 간에 건강하고 건설적인
문제
계 교류가 있어야 한다.
인공지능 연구자와 개발자는 협력과 상호 신뢰를 기반으로
연구문화
투명한 문화가 형성되어야 한다.
인공지능 시스템 개발 조직들은 안전기준에 미달하는 것을
경쟁회피
방지하기 위해 적극 협력해야 한다.
인공지능 시스템은 운영 과정상에서 안전성과 보안성이 보
안전
장되어야 한다.
실패의 인공지능 시스템이 해를 입히는 경우 그 원인을 확인할 수
투명성 있어야 한다.
사법적 자동화된 시스템의 사법적 결정 참여에 대해 인간으로 구성
투명성 된 감사 기관의 만족스러운 설명이 제공되어야 한다.
진보된 인공지능 시스템의 설계자 및 개발자들은 인공지능
윤리와
책임 시스템의 사용, 오용, 활용과 관련한 도덕적 함의의 이해관
가치 계자들이며, 이를 만들어나갈 책임과 기회가 있다.
고도로 자율적인 인공지능 시스템은 운영 과정상에서 그 목
가치연계
표와 행위가 인간의 가치와 일치되도록 설계되어야 한다.
인간의 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화 다
가치 양성과 양립될 수 있도록 설계되고 운영되어야 한다.
개인 인공지능 시스템이 데이터를 분석하고 활용할 수 있는 권한
프라이버시 을 부여 받으면, 인간들 역시 자신이 생성한 데이터를 접근,

- 36 -
관리 및 제어 할 수 있는 권리가 있어야 한다.
자유와 인공지능을 개인 데이터에 활용할 시 사람들의 실질적인 또
프라이버시 는 지각된 자유가 부당하게 침해되어서는 안 된다.
공유된 인공지능은 최대한 많은 사람들에게 이익을 주고 권한을 위
이익 임해야 한다.
공유된 인공지능으로 인해 발생한 경제적 번영은 모든 인류에게 이
번영 익이 되도록 널리 공유되어야 한다.
인간의 인간은 인간이 선택한 목표를 달성하기 위해 인공지능 시스
제어 템에 의사결정을 위임할지 여부와 그 방식을 선택해야 한다.
고도화된 인공지능 시스템에 대한 통제력은 사회와 시민들
비(非)파괴 이 만들어온 절차들을 파괴하지 않고 존중하고 개선시켜야
한다.
인공지능
자동화된 무기와 관련한 군비 경쟁은 피해야 한다.
무기경쟁
역량에 미래의 인공지능의 능력에 대한 합의가 이루어지지 않았기
대한 주의 때문에 한계치에 대한 강한 가정은 피해야 한다.
진보된 인공지능은 지구상의 생명체 역사에 중대한 변화를
중요성 가져올 수 있기 때문에 적절한 방법과 자원을 통해 관리되고
계획되어야 한다.
장기적 인공지능 시스템으로 인해 발생할 수 있는 치명적이고 실존
위험
문제 적인 위험에 대비하는 계획 수립 및 완화 노력이 필요하다.
스스로 개선하고 복제할 수 있도록 설계되어 질적/양적으로
재귀적
빠르게 확장될 수 있는 인공지능 시스템은 엄격한 안전 및
자체 개선
제어 조치를 받아야 한다.
초지능은 한 국가나 조직이 아니라 광범위하게 공유된 윤리
공공선
적 이념에 따라 모든 인류의 이익을 위해 개발되어야 한다.
출처: 최병삼 외, 「과학기술기반 미래연구사업 Ⅹ」, 『조사연구』(2018), pp. 42-44 재구성.

아실로마 23원칙은 연구 이슈, 윤리와 가치, 장기적인 이슈에 대한 항목으로 구성되


어 있으며, 각각의 소주제는 다음과 같은 내용으로 구성되어 있다. 첫 번째, 연구 이슈
에서는 인공지능을 연구하는 목표는 인류가 추구하는 목적과 상관없는 지능을 개발하는
것이 아니라 인류에게 이롭고 풍요로운 혜택을 주는 지능을 개발하는 것이며, 인공지능
에 대한 투자에는 컴퓨터 과학, 생명, 경제, 법, 윤리 등에서 나타나는 문제들을 해결하
기 위한 다양한 연구비 등의 지원이 수반되어야 한다는 원칙을 제시하였다. 이러한 원칙

- 37 -
은 미래의 인공지능 시스템을 어떻게 만들면 오작동이나 해킹에 의한 피해를 최소화시키
고 우리가 원하는 대로 개발을 할 수 있는가에 대한 고민이며, 미래 발생 가능한 인공지
능으로 인한 문제들을 통제하기 위해, 보다 공정하고 효율적인 법률 시스템을 개발할 수
있는 방법은 무엇인가에 대한 지침이다. 또한, 과학정책 연결에 있어서 인공지능 연구자
와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 하고, 인공지능 연구자와 개발자
간에는 신뢰롭고 투명한 연구문화가 조성되어야 하며, 인공지능 시스템 개발팀들은 지나
친 경쟁으로 인한 인류의 안전기준을 위반하는 상황이 발생하지 않도록 상호 적극적인
협력이 이루어져야 한다는 원칙을 제시하고 있다.

두 번째로, 윤리 및 가치에 대한 원칙에서는 인공지능기기의 시스템에서는 작동 가능


한 기간 전반에 걸쳐 안전성이 보장되어야 하며, 만약 시스템상의 치명적인 결함이 발견
될 경우 그 이유를 판단하고 확인 가능해야 한다는 장애 투명성의 원칙을 제시하고 있
다. 그 외에도 사법제도 결정을 함에 있어 자율시스템이 사용된다면, UN과 같은 인권기
구가 감사를 할 경우 충분히 판단 과정에 대한 설명을 제공 할 수 있어야 한다는 사법
적 투명성, 고급 인공지능 시스템 설계자 혹은 디자이너는 인공지능의 오남용에 대한 도
덕적 영향들에 관한 이해관계자이며, 이에 따라 결과적으로 그 영향을 형성하는 책임을
가진다는 책임성에 대하여 원칙을 제시한다. 가치관 정렬은 고도로 자율적인 인공지능
시스템은 작동하는 동안 그의 목표와 행동이 인류의 가치에 부합하도록 설계되어야 하
며, 인공지능 시스템은 인간 존엄성, 자유, 권리 및 문화적 다양성의 이상에 적합하도록
설계되어 운용되어야 한다는 원칙은 인간의 가치를 염두하고 있다.

또한, 인공지능 시스템의 데이터를 분석하고 활용한다는 전제하에, 인류는 자신들이


생산한 데이터에 접속하고 관리하며 통제할 수 있어야 한다는 개인정보 보호 원칙, 인공
지능이 개인정보를 사용함에 있어 인류의 인지된 자유를 부당하게 축소해서는 안 된다는
자유와 개인정보 보호 원칙이 있다. 공동의 범주에서 재정한 원칙은 인공지능 기술이 가
능한 많은 사람들에게 최대의 혜택을 줄 수 있어야 한다는 공동이익과, 인공지능으로 인
한 혜택이 인류 모두에게 널리 공유되어야 한다는 공동번영의 원칙이 제시되었다. 그 외
에도 인류가 선택한 목표를 달성하기 위해 인공지능 시스템에게 의사결정 과정과 판단을
위임하는 방법 및 범위를 선택해야 한다는 인간의 통제력에 대한 원칙과 인류의 건강하
고 풍요로운 사회가 지향하는 사회적, 시정 과정을 보존하기 위해 고도화된 인공지능 시
스템을 통제할 수 있어야 한다는 비파괴의 원칙, 대량 학살이 가능한 인공지능 무기의
확산과 경쟁은 피해야 한다는 원칙이 윤리 및 가치의 항목에 포함되었다.

세 번째로 장기적 이슈에서는 인공지능의 능력에 관한 주의에 대해서는 합의가 없으

- 38 -
므로 미래 인공지능 능력에 있어 개발 상한치를 고정시키는 전제는 피해야 한다는 원칙
을 시작으로, 고급 인공지능은 인류의 생명과 관련된 역사에 있어 심각한 변화가 예상됨
으로 이에 대비한 윤리적 관심과 자원 개발에 있어 계획적으로 관리해야 한다는 원칙과
인공지능 시스템의 오남용이 초래하는 위험과 예상되는 문제 상황에 대한 계획 및 완화
노력이 함께 뒷받침되어야 한다는 원칙이 제시되었다.

또한, 인공지능 시스템이 재귀적 자기 복제나 개선을 활용하여 빠른 수적 또는 품질


증가를 초래한다면, 설계된 시스템은 지속적으로 엄격하게 안전 및 관리통제 조치를 받
아야 한다는 재귀적 자기 개선과 초지능 영역은 인류의 윤리적 이상을 위해, 그리고 소
수 국가나 조직이 아닌 모든 인류의 이익과 번영을 위해 개발되어야 한다는 공동의 선
에 대한 원칙을 마지막으로 아실로마 23 원칙이 발표되었다.67)

한편 한국인공지능법학회에서는 무엇보다 인공지능이 가지는 문제로 투명성과 설명


가능성, 공정성에 관해 지적하였다.68) 향후 인공지능이 사회적 신뢰를 확보하기 위해서
는 작동기제를 투명하게 관리하여야 하며, 그 결과에 대한 과정을 설명할 수 있어야 한
다는 것이다. 아울러 차별적으로 적용되거나 작동하는 사례에 대한 문제들이 늘어나고
있음을 우려하였다. 따라서 기술적, 윤리적 규제와 감시가 개발과 함께 반드시 이루어져
야 함을 강조하였다.

2) 유럽연합

유럽연합은 인간 중심적이며, 인간의 복리와 자유를 개선하는 것을 목표로 인간과 공


공선을 위해 사용되는 인공지능의 개발이 인간의 번영을 촉진하고 개인과 사회의 진보와
혁신을 가져올 수 있는 유망한 수단이 될 것으로 인식하고 있다. 2018년 4월 유럽위원
회(European Commission)는 인공지능 기술의 선두주자가 되기 위해 인공지능 수용 확
대를 위한 공공 및 민간 투자 증대, 사회경제적 변화 대비, 유럽의 가치 강화를 위한 적
절한 윤리적, 법적체계 확보를 중심으로 하는 인공지능에 관한 고위전문가그룹
(High-Level Expert Group on Artificial Intelligence)을 조직했다.

그리고 유럽연합의 인공지능에 관한 고위전문가그룹은 2018년 12월 “신뢰할 수 있는


인공지능”을 근간으로 한 인공지능 윤리지침 초안을 발표했고, 2019년 4월 그 동안의
인공지능 윤리 관련 논의를 바탕으로 수정된 인공지능 윤리 가이드라인(Ethics

67) The future of life institute, https://futureoflife.org/ai-principles-korean(2021.04.29 접속).


68) 한국인공지능법학회, 『인공지능 윤리와 거버넌스』(박영사, 2021), pp. 181-203.

- 39 -
Guidelines For Trustworthy Artificial Intelligence)을 공개했다. 이 가이드라인은 신
뢰할 수 있는 인공지능은 시스템의 전체적인 수명주기에 걸쳐 있는 모든 참여자와 과정
의 신뢰성을 아우르는 총체적이고 체계적인 접근을 필요로 한다고 보고, 다음의 세 가지
요소와 7가지 실현 요건을 충족시켜야 한다고 제시하고 있다.69)

우선, 신뢰할 수 있는 인공지능의 세 가지 요소는 적법성, 윤리성, 견실성으로서, 기


존 법률의 범위와 내용이 윤리적 규범의 범위를 벗어나는 경우와 같이 현실에서는 이러
한 요소 간에 긴장관계가 형성될 수도 있음을 인정하고 있으나, 기본적으로 유럽연합의
인공지능 윤리 지침은 이러한 세 가지 요소는 각각 신뢰할 수 있는 인공지능을 달성하
는 데에 필수적이지만 그 자체만으로는 충분하지 않다고 보고 이상적인 상황은 세 요소
가 서로 통섭되어 조화롭게 작용할 것을 주장하고 있다. 구체적으로, 유럽연합의 지침은
신뢰할 수 있는 인공지능의 적법성과 관련해, 인공지능의 개발, 배포 및 이용과 관련된
과정과 활동에 적용되는 모든 법적 권리와 의무가 강제성을 유지하며 반드시 준수해야
하는 것이라는 가정을 바탕으로 하고 있다.

인공지능의 윤리성과 관련해서는, 법률이 기술 발전 속도에 항상 발맞추는 것은 아니


며 때로는 윤리적 규범과 어긋나거나 특정 사안을 다루는 데 있어 적합하지 않을 가능
성도 있다는 점을 염두에 두고 있다. 따라서 인공지능이 신뢰성을 갖추기 위해서는 윤리
적이어야 하고 윤리적 규범에 부합해야 한다고 주장한다. 마지막으로 인공지능의 견실성
은 윤리적 목적이 담보되었다 하더라도 개인과 사회는 반드시 인공지능이 의도치 않은
해를 끼치지 않으리라는 점을 신뢰할 수 있어야 한다는 점을 지적한다. 인공지능은 안전
하고, 확실하며 믿을 수 있는 방식으로 작동되어야하고, 의도하지 않은 부정적 영향을
방지하기 위해 보호조치를 예견해야 한다는 것이다.

<표 5> 신뢰할 수 있는 인공지능을 위한 충족 요소와 요건

Ethics Guidelines for ‘Trustworthy AI’

1. 적법해야 한다(lawful).
충족
2. 윤리적이어야 한다(ethical).
요소
3. 견실해야 한다(robust).

69) High-Level Expert Group on Artificial Intelligence, Ethics guidelines for trustworthy AI.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai(2021.04.01.
접속)

- 40 -
1. 행위자와 감독

2. 기술적 견실성과 안정성

3. 개인정보와 데이터 거버넌스


충족
4. 투명성
요건
5. 다양성, 차별 금지, 공정성

6. 사회적, 환경적 웰빙

7. 책임성
출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), pp. 68-69 재구성.

신뢰할 수 있는 인공지능의 실현 요건에서는 첫 번째로 인공지능이 인간의 기본적 권


리를 침해하지 않으며 인간 행위자와 상호작용하면서 동시에 인간의 감독을 받을 필요가
있다는 내용을 담고 있다. 기술적 견실성과 안정성은 인공지능 시스템이 적대적 공격에
대해 회복 탄력성을 가져야 하고, 보안이 유지되어야 하며, 예기치 않은 상황에 대한 대
비 계획, 일반적 안정성, 정확성, 신뢰성, 재현 가능성 등에 관한 내용을 포함한다. 개인
정보와 데이터 거버넌스는 프라이버시, 데이터의 품질과 무결성, 데이터에 대한 접근성
에 관한 내용을 담고 있다. 투명성은 인공지능의 결과물에 대해 추적 가능해야 하며, 설
명 가능해야 하고, 소통할 수 있어야 한다는 조건이다. 다양성, 차별 금지, 공정성에서는
데이터나 알고리즘의 불공정한 편향의 제거, 보편적 설계와 이해 관계자 참여의 필요성
을 강조했고, 사회적, 환경적 웰빙은 인공지능이 지속 가능성과 환경 친화성, 사회적 영
향을 고려해야 함을 정리하고 있다. 마지막으로 책임성은 인공지능에 대한 감사가 가능
해야 하고 그것의 부정적 영향력을 최소화하며, 손해 배상에 대한 고려사항을 담고 있
다. 이러한 요구사항은 개발자, 배포자, 최종 사용자, 전체 사회 등 인공지능의 수명주기
에 참여하는 모든 이해 관계자에게 적용된다.

3) 한국

우리나라에서 이루어진 인공지능의 윤리적 측면에 대한 논의는 2007년 로봇윤리헌장


으로부터 시작되었으며, 2017년부터는 인공지능 윤리의 법제화를 통해 인공지능의 순기
능과 역기능에 대한 총괄적인 대응이 논의되고 있다. 2007년 지식경제부 주도로 시작되
었던 로봇윤리헌장 제정 활동은 로봇 관련 산학연 전문가와 사회학, 미래학 분야 등 전
문가 13명으로 구성된 실무 위원회를 통하여 2007 로봇윤리워크숍ICRA(International

- 41 -
Conference on Robotics and Automation)에서 한국의 로봇윤리헌장 제정에 대해 배
경과 계획을 발표했다. 또한, 하드웨어인 지능형 로봇을 구동하는 것은 소프트웨어이자
인공지능이기 때문에 지능형 로봇윤리는 인공지능윤리와 별개로 보기 어렵다는 연구계의
견해에 따라70)71) 2008년에는 지능형 로봇 개발 및 보급 촉진법을 통해 로봇윤리헌장 제
정에 대한 법적 근거가 아래와 같이 마련되었다.

<표 6> 지능형 로봇 개발 및 보급 촉진법의 로봇윤리헌장

구분 내용

1. "지능형 로봇"이란 외부환경을 스스로 인식하고 상황을 판단하여


자율적으로 동작하는 기계장치를 말한다.

2. "지능형 로봇윤리헌장"이란 지능형 로봇의 기능과 지능이 발전함


제2조(정의) 에 따라 발생할 수 있는 사회질서의 파괴 등 각종 폐해를 방지하여
지능형 로봇이 인간의 삶의 질 향상에 이바지 할 수 있도록 지능형
로봇의 개발ㆍ제조 및 사용에 관계하는 자에 대한 행동지침을 정한
것을 말한다.
① 정부는 지능형 로봇의 개발 및 보급에 관한 이 법의 목적을 효
제5조(기본계 율적으로 달성하기 위하여 5년마다 기본계획(이하 "기본계획"이라 한
획의 수립 등) 다)을 수립하여야 한다.
② 기본계획에는 다음 각 호의 사항이 포함되어야 한다.

① 정부는 지능형 로봇 개발자ㆍ제조자 및 사용자가 지켜야 할 윤


리 등 대통령령으로 정하는 사항을 포함하는 지능형 로봇윤리헌장(이
하 "헌장"이라 한다)을 제정하여 공표할 수 있다.

제18조(지능 ② 정부는 대통령령으로 정하는 바에 따라 헌장의 보급 및 확산을


형 로봇윤리헌 위한 필요한 조치를 마련하여야 한다.
장의 제정 등) ③ 관계 중앙행정기관의 장은 헌장의 효율적인 운영을 위하여 필요
한 경우에는 다른 중앙행정기관의 장에게 관련 자료의 제출이나 그
밖에 필요한 협조를 요청할 수 있다.

④ 헌장의 제정ㆍ개정에 관한 절차, 홍보, 그 밖에 필요한 사항은

70) 심민석, 「한국의 인공지능과 로봇에 관한 법제 정비방안 연구」, 『경희법학』, 제55권(2020), pp. 139-181.
71) 고영미, 「지능형 로봇 금융지원제도 개선방안:[로봇 개발 및 보급 촉진법] 을 중심으로」, 『선진상사법률
연구』, 86호(2019), pp. 178-203.

- 42 -
대통령령으로 정한다.
① 지능형 로봇산업 진흥을 위한 사업을 효율적이고 체계적으로 추
제 4 1 조 ( 한 국 진하고 지능형 로봇산업 관련 정책의 개발을 지원하기 위하여 한국
로 봇 산 업 진 흥 로봇산업진흥원(이하 "진흥원"이라 한다)을 설립한다.
원의 설립 등) ④ 진흥원은 지능형 로봇산업 분야에 관한 다음 각 호의 사업을 수
행한다.
출처: 국가법령정보센터, 「지능형 로봇 개발 및 보급 촉진법」, 『법률 제13744호』(2016.1.6.)에서 일부 발췌.

과학기술정보통신부(이하 ‘과기정통부’)는 2017년 11월 ‘지능정보사회 윤리가이드라


인’을 제시하였으며, 2018년 6월에는 가이드라인의 대중적 요약본인 지능정보사회 윤리
헌장을 발표하였다. 지능정보사회 윤리가이드라인의 목적은 인간 중심의 지능정보사회를
구현하기 위해 지능정보 기술 및 서비스 개발자의 책임윤리 강화 및 이용자의 오남용
방지를 위한 지침을 제공하기 위한 것이다. 본 가이드라인 준비를 위해 과기정통부는 한
국정보화진흥원과 함께 민간 전문가로 구성된 ‘정보문화포럼’을 구성·운영했다. 본 윤리
가이드라인의 적용대상은 지능정보기술 및 서비스이며, 원칙의 적용범위는 개발자·공급
자·이용자이며, 이들이 공통적으로 준수해야 할 4대 공통 원칙으로 공공성, 책무성, 통제
성, 투명성이 제시되었으며, 이를 기반으로 적용대상이 지켜야할 세부 지침이 함께 제공
되었다.

- 43 -
III. 의료분야의 인공지능 도입과 생명의료윤리

생명의료분야에서 인공지능의 도입에 따라 발생할 수 있는 윤리적 문제에 대한 논의


는 의료분야에 도입된 인공지능기술에 대한 정확한 이해가 없이는 논의가 불가능 할 것
이다. 보건 의료 현장에서도 새로운 4차 산업 기술로 인해 발생될 수 있는 윤리적 문제
에 적합하게 대처할 수 있는 보건의료인을 양성하기 위해 인공지능을 포합한 4차 산업
기술에 대한 교육을 바탕으로 한 의료윤리교육의 확립을 위한 노력이 시작되고 있다. 따
라서 본 연구의 3장에서는 4차 산업 혁명 이후 생명의료분야에 적용된 인공지능의 최신
동향과 이에 따른 윤리적인 문제들을 소개함으로써 의료분야에 도입된 인공지능 기술의
개념을 정립하고자 하였다.

1. 생명의료분야의 인공지능 도입

1) 의료분야의 인공지능 기술 도입

높은 수준의 인공지능은 앞서 언급한대로 인간에게 조종을 받지 않으면서 스스로 인


간의 복지에 잠재적인 영향을 미칠 정도로 발전함에 따라 스스로 도덕적 판단을 내려야
하는 복잡한 수준에 이르렀다. 이러한 높은 수준의 인공지능은 의료분야에 엄청난 변화
를 가져올 것으로 예상되며, 4차 산업혁명의 급속한 성장은 높은 지능의 인공지능을 탑
재한 로봇의사의 진화 속도도 예측하기 어렵게 만들고 있다. 앞서 인공지능의 도입과 윤
리 문제에서 살펴보았듯이, 이러한 급격한 변화 속에서 인공지능의 도덕적 판단은 매우
중요한 문제이며, 특히 보건의료분야는 의료 윤리 전반에서 도덕적 원칙들이 상충하는
행동을 낳게 되는 상황이 무수하게 존재할 수 있고, 이것이 인공지능의 판단에 영향을
주어 경제적인 손실뿐만 아니라 인간의 건강이나 생명과 직결될 수 있으므로 더욱 중요
시되고 있다. 이러한 상황 속에서 머지않은 미래에 로봇의사가 진료와 진단 및 처치까지
하는 병원도 등장할 것이라고 말하는 학자들도 있으며, 무엇보다 환자 한명마다 본인의
유전자와 증상에 맞는 맞춤형 진단과 치료방법, 나아가 맞춤형 신약까지 제공하는 미래
형 병원은 인간의 수명과 의학의 미래를 완전히 바꿀 것으로 예측하고 있다.

이렇듯 생명의료분야에 적용될 수 있는 인공지능 기술은 매우 다양하고 복잡하기 때


문에, 이들을 예측하고 분류하기는 쉽지 않다. 그렇기 때문에 향후 나타나게 될 기술을
제외하고 지금까지 연구된 의료 인공지능의 유형은 크게 세 가지로 분류할 수 있다. 첫

- 44 -
째, 복잡한 의료 데이터를 분석하여 의학적인 통찰을 통해 결과를 도출하는 인공지능이
다. 둘째, 이미지 형식의 의료 데이터를 분석 및 판독하는 인공지능이다. 셋째, 하나가
아닌 연속적 의료 데이터를 모니터링 하여 질병을 예측하는 인공지능이 있다.72)

여기에서 복잡한 의료 데이터는 각 병의원에서 사용하는 전자기록지나 환자의 챠트에


기록된 의사의 처방, 진료비 청구내용, 각종 병리 검사 데이터 등이 해당할 것이다. 특
히 다양하고 방대한 진료 기록을 수집하여 의학적으로 의미있는 결과를 도출하면, 비슷
한 환자의 질병을 진단하거나 처방에 대한 방향, 향후 치료에 대한 결과를 예측해 볼 수
있다. 특히, 각종 병리 검사나 최근 유전자 검사는 질병의 원인을 근원적으로 파악하여
환자에게 맞춤형 진단을 내릴 수 있다는 장점이 있다.

다음으로 이미지 형식의 의료 데이터를 판독하는 기술은 최근 심층 신경망을 활용한


기계학습인 ‘딥러닝’73)을 활용하여 그 정확도가 매우 향상되고 있고, 최근 식약처에서
는 이 기술을 활용한 의료기기들의 등록이 증가하고 있다. 딥러닝의 기술 영역을 간략히
표현하면 아래 [그림 6]와 같다.

<그림 6> 인공지능 머신러닝 딥러닝의 기술적 영역 관계

기계학습(Machine Learning)은 정해진 문제에 대하여 주어진 명령어를 기반으로 수


학적인 방법으로 컴퓨터가 인간처럼 학습하여 결과를 산출해내고, 스스로 규칙을 형성하

72) 최윤섭, 『의료 인공지능』(클라우드나인, 2021), pp. 65-121 참고.


73) 최근 인공지능의 부흥을 가져다 준 기술로서 딥러닝은 양질의 학습 데이커가 많아질수록 그 정확도가
높아지고 전체적인 성능이 향상된다. 따라서 최근 인터넷의 보급과 SNS의 발달로 이미지와 영상, 음성,
문자 등의 학습 자료가 폭발적으로 증가함에 따라 다양한 디지털 데이터를 서로 공유하고 확보할 수 있
게 되었다. 따라서 인간의 얼굴 인식, 사물과 동물 인식, 음성 인식, 자연어 처리, 번역 등의 영역에서
인간을 능가하는 성능을 보여주고 있다.

- 45 -
는 기술이다. 대표적으로 구글과 같은 검색 엔진, 자율주행 자동차, 자연어를 처리하는
음성인식, 페이스북의 얼굴인식, 알파고, 왓슨 등이 이런 기계학습에 기반 한 기술들이
다. 기계학습 기술들 중에서 딥러닝 기술은 우리에게 익숙한 알파고의 학습 원리로서 인
간의 뇌가 학습하는 것처럼 신경망을 인공적으로 네트워크처럼 뉴런들을 연결하여 심층
을 가지도록 겹겹이 쌓아 컴퓨터의 메모리 역할을 하도록 만들었다. 이러한 형태의 신경
망은 예를 들면, 개의 수많은 사진들을 입력시키면 결국 다른 동물들과 개를 구별하는
특징을 스스로 발견하고 여러 동물들의 사진 중에 높은 확률로 개를 구별할 수 있다. 현
재 데이터를 분류하고 어떤 기준으로 다시 모으는 데 탁월한 기능을 하는 기술로서 많
은 의료용 이미지와 영상을 다루는 의료분야에 있어서 딥러닝 기술은 우수한 성과를 보
이고 있다. 인간이 이미지와 영상을 판독하는 과정에서 나타날 수 있는 일관성 부족과
오류를 최소화시켜 특히 영상의학과나 병리과에서는 활용 범위를 넓혀가고 있는 실정이
다.

마지막으로 생체 신호를 실시간으로 모니터링해서 질병을 분석하고 예방적 기능을 하


는 인공지능 기술이다. 최근에 많이 보급되고 있는 웨어러블 스마트 워치(Wearable
Smart Watch)는 심전도, 혈당, 혈압, 산소포화도, 체온 등을 실시간으로 측정하고 이러
한 데이터를 기반으로 자신의 질환을 관리하고 응급상황으로 가기 전 예방 기능을 한다.
그리고 병원에서는 특히, 신생아나 중환자실의 환자들이 병원 내 감염이 매우 위독한 패
혈증 등으로 나빠질 수 있는데, 실시간 모니터링 기술은 패혈증 초기에 나타나는 체온,
혈압 등의 변화를 초기에 발견하여 심각한 감염을 막을 수 있다.

우리나라를 포함한 해외 주요국들은 이러한 인공지능 기술을 이용하여 환자 개인에게


맞춤형 의료 서비스 제공을 위해 국가적 차원의 정책적 지원을 적극적으로 계획하고 추
진해 나가고 있다. 미국은 2016년 정밀의료 이니셔티브를 중심으로 미국 내 정밀의료
R&D 환경 인프라 구축을 추진하고 있고, 유럽에서는 FP7 & Horizon 2020 Program
을 중심으로 개인 맞춤형 정밀의료를 추진하고 있다. 또한, 일본은 2012년 의료혁신 5개
년 전략을 통해 개인 맞춤형 의료를 혁신과제로 선정하였으며, 중국은 2015년 정밀의료
전략전문가위원회를 설립하여 2030년까지 600억 위안 R&D 투자를 진행하고 있다. 우리
나라에서는 2016년 제2차 과학기술전략회의에서 정밀의료를 9대 국가과학기술전략 프로
젝트로 선정하고, 2019년 보건복지부 주요업무 추진계획을 통해 인공지능을 활용한 헬
스케어 혁신을 추진하고 있다.

- 46 -
2) 보건의료분야의 인공지능 현황

한국보건산업진흥원이 보고한 보건의료분야의 인공지능 현황과 과제에 대한 보고에서


는 보건의료분야에서 활용될 인공지능 기술을 크게 진단, 치료, 의약, 사전예측, 사후관
리분야로 나누어 제시했다.74)

<표 7> 보건의료분야에서 인공지능기술의 활용

분야 내용

- 질환 진단과 검사 결과 산출을 위한 일반 인공 신경망 기술


- 일반진단/스크리닝/테스트 과정을 위한 신경망 기술
진단 및
- 임상을 결정하는데 필요한 보조적 지원을 위한 지식발견 데이터마이
검출 분야
닝 기술
- 질환 검사 결과 산출을 위한 알고리즘이 적용된 인공 신경망 기술
치료 분야 - 진단치료/재활치료를 위한 일반 인공 신경망 기술
- 약물의 부작용을 감지하고 데이터를 분석하는 일반 데이터마이닝 기

의약 분야
- 치료 약물에 대한 내성 예측을 위한 인공 신경망 기술
- 최적의 치료 약물 투여량을 제공하기 위한 신경망 기술
사전예측 - 예후 예측을 위한 디시젼트리 알고리즘이 적용된 데이터마이닝 기술
분야 - 예후 예측을 위한 일반 인공신경망 기술
사후관리
- 리스크평가/예후평가를 위한 일반 인공 신경망 기술
분야
출처: 이관용, 김진희, 김현철, 「의료 인공지능 현황 및 과제」, 『한국보건산업진흥원, 보건산업브리프』
(2016), pp. 20-21 일부 발췌 재구성.

인공지능 기술이 가장 널리 활용될 것으로 예측되는 진단 및 검출 분야에서는 전립선


암, 위암, 직장결장암, 유방암, 각종 피부암 등 암 질환과 관련하여 빅 데이터를 이용한
영상 판독 기술의 활용이 용이할 것이다. 암 질환 조기 발견 기술과 전염성 질환과 유전
질환을 진단하기 위한 인공 신경망 기술이 소개되었다. 추가적으로 일반진단/스크리닝
(특정 질환 개체 발견)/테스트를 위한 일반 인공 신경망 기술에는 환자들의 다양하고 비
슷한 병력 또는 임상 데이터 등을 대량으로 수집하여 상기 데이터에 기초한 변수를 식
별하기 위해 인공 신경망을 이용한 정합성이 높은 의료 변수를 식별하는 기술과 임신
진단, 혈압과 혈당 측정, 호흡 패턴과 같은 일반 진단, 진단 스크리닝, 진단 테스트를 위

74) 이관용, 김진희, 김현철, 「의료 인공지능 현황 및 과제」, 『한국보건산업진흥원, 보건산업브리프』(2016),


p. 20.

- 47 -
한 특허 출원을 소개하고 있다. 또한, 치료의 우선순위를 판단하고 결정하는데 있어 보
조적인 자료, 질병의 모델링 생성을 위해 기초 자료, 고품질 정보 탐색과 같은 임상결정
보조 및 지원을 위한 지식발견 데이터마이닝 기술, 인공 신경망을 이용하여 녹내장이나
협심증과 같은 심혈관 질환, 췌낭포성 질환 등을 검출하는 MLP(Multi Layer
Perceptron) 알고리즘을 사용하여 지속적으로 학습함으로써 대량의 데이터를 처리하는
시간을 줄이고 보다 질환에 최적화된 진단결과를 도출하는 특허가 출원되었다.

치료분야에서는 환자의 질환 및 환부 상태를 진단하고 이러한 진단 결과를 기초로 환


자의 수면 장애 또는 심장발작을 치료하기 위한 인공 신경망 기술을 이용한 진단 치료
기술을 소개했고, 의약 분야에서는 데이터 마이닝 기법을 활용해 약물의 과(過)작용과
부작용을 분석하고, 특히 부작용들을 분류하여 그 결과를 예측하거나 환자와 약물 간의
부작용 정보를 매칭시켜 약물을 복용하는 환자의 안정성을 향상시키는 약물에 대한 부작
용의 감지 및 분석을 위한 데이터마이닝 기술이 출원되고 있다. 그리고 약물을 투약하는
환자의 유전자 정보를 기초로 인공 신경망을 이용하여 내성을 예측하며, 이에 인공 신경
망을 이용한 유전자 정보에 기초한 치료제 내성 예측 기술도 소개되었다. 그 외에도 컴
퓨터의 알고리즘 처리 기술을 이용하여 질환의 임상 화학 검사 결과를 기초로 해당 질
환에 대한 처치 후 환자의 예후를 측정하는 데에 디시젼트리(dicision tree, 결정트리)와
같은 질환 사전예측 모델 생성 기술이 개발되고 있고, 의료 임상실험 피험자의 위험 요
소를 인공 신경망을 통해 분석하여 부작용이나 임상실험으로 인한 리스크를 식별하거나
평가하는 사후관리 분야도 활동분야로 보고되었다.

실질적으로 의료현장에서 이용될 인공지능을 기반을 둔 의료기계는 로봇의 형태로 제


작되어 많은 면에서 인간 의사와 유사한 방식으로 의료 활동을 하게 될 것으로 예측되
고 있다.75) 로봇의사는 인간의 생명과 건강을 증진시키는 의료적 목적을 잘 수행하도록
제작된 의료 인공지능 기계로 정의되며, 앞으로 인간 의사가 진단과 치료법을 제시하는
역할을 보고하거나 대행하게 될 것으로 예측되고 있다.76) 2012년 IBM과 ‘메모리얼 슬론
케터링 암센터(Memorial Sloan Kettering Cancer Center)’ 의사들이 함께 암 환자에
게 맞는 최적의 치료법을 제시하기 위해 고안된 왓슨 포 온콜로지(Watson for
Oncology)는 2016년 우리나라에서 의료진단에 최초로 도입한 인공지능 시스템이다.

75) 웬델 월러치, 콜린 알렌, 노태복 옮김, 『왜 로봇의 도덕인가』(메디치미디어, 2014), pp. 138-141.
76) 맹주만, 앞의 논문, pp. 271-308.

- 48 -
<그림 7> 왓슨의 의료분야 주요활동

출처 : 최윤섭, 『의료인공지능』(클라우드 나인, 2021), p. 78.

길 병원에서는 환자의 신뢰를 높이기 위하여 국내 최초로 왓슨을 도입하였으며, 암


환자들에게 암 치료의 적기를 놓치지 않고 치료받을 수 있는 기회를 제공하고자 했다고
밝혔다. 길 병원이 2016년 도입한 이후, 부산, 대전, 대구 소재의 병원들이 잇따라 진료
현장에 왓슨을 도입해 활용하고 있으며, 국내 대형병원들도 의료 빅데이터를 활용한 인
공지능 기반 소프트웨어를 개발하고 있다.

실제 왓슨의 진료는 환자와 보호자가 진료실에 들어오면 서로 다른 분야의 전문의 대


여섯 명이 돌아가며 환자의 내원부터 수술 경과까지 환자가 받은 조직 검사, 수술경과
징후 등 각자 환자를 진료했던 결과를 설명하고, 5분 정도 진료 검토를 마친 왓슨은 항
암제, 방사선치료, 호르몬 치료를 초록색, 주황색, 빨간색의 세 단계로 제시한다. 여기에
서 초록색은 추천하는 치료법이고, 주황색은 고려해볼 수 있는 치료법, 빨간색은 권고하
지 않는 치료법이다. 그리고 왓슨은 각각의 치료법을 왜 제시했는지에 대해 근거를 제시
하는데, 임상연구 결과와 논문, 의학회의 가이드라인과 같은 형태의 자료를 영어로 빼곡
히 채워진 형태로 권고하고, 의료진은 이것을 환자에게 해석해준다.

인공지능은 새로운 의약품을 개발하고, 임상실험을 통해 그 효과를 검증하여 얻은 데

- 49 -
이터를 체계적으로 수집하여 진단에 적용하고, 환자의 임상데이터 뿐만 아니라, 유전정
보, 생활방식, 인구사회학적 특성을 모두 수집하여 통합적으로 분석하는 정밀 진단이 도
입되고 있다. 인공지능은 이렇듯 정밀한 진단이 요구되는 분야에서 개별 환자의 전자의
무기록, 유전정보, 건강 정보 데이터의 동시 분석을 가능하게 하여 좀 더 신속하게 검사
나 치료 방법을 제공할 수 있으며, 실제로 앞서 소개한 Watson for Oncology는 300개
이상의 의학저널과 200개 이상의 의학교과서, 20,000명 이상의 환자 사례를 분석하여
최적의 치료법을 선택하고 있다. 이렇듯 인공지능은 방대한 분량의 의료분야 문헌을 검
색하여 잠재적으로 치료 가능한 약물을 발견하고 실험에 필요한 용량까지 예측할 수 있
을 것이며, 실질적인 환자 본인의 의료 데이터를 사용하여 개별 환자에 대한 진단이나
예후, 치료, 재활을 예측하는 데에 이용 될 수도 있다. 의료 분야에서 인공지능을 통하
여 X-레이, 자기공명영상, 신체 부위의 이미지 및 병리학 슬라이드와 같은 다양한 유형
의 의료 이미지를 해석하고 시각적 패턴을 인식하는 것은 이미 진단 분야의 중요한 한
부분이다.

특히, 왓슨과 함께 인공지능기술을 활용한 다양한 웨어러블(wearable) 예측 도구들은


개인 건강의 위험을 평가하고 건강 관리 계획을 세워 향후 발생할지 모를 위험을 낮추
고 질병을 예방하여, 발병 이후 즉각적인 조치가 이루어질 수 있게 해 줄 것이다.77) 혈
액검사와 같은 다양한 진단 검사로 혈당, 혈압, 혈관 건강상태까지 실시간 진단이 가능
하게 되었다.

하지만 왓슨은 2017년 12월 가천대 길병원이 도입 한 후, 크게 두 가지 ‘인종 및 문


화적 차이로 인한 의사와의 암진단 일치율 차이와 보험적용에 관한 문제점’이 나타나고
있다.78) 구체적으로 살펴보면, 먼저 의사와의 암진단 일치율의 차이이다. 2018년 12월
1주년 심포지엄에서 발표한 의사와의 진단 일치율은 56% 수준으로, IBM과 미국 메모리
얼 슬로언 케터링 암센터((Memorial Sloan Kettering Cancer Center)가 소개하는 대
장암 등 5개 암에서 91% ~ 100%의 일치율보다 크게 떨어진다.79) IBM사에서는 이러한
진단 일치율 차이를 인종적, 문화적, 지역적 특성에 따른 데이터의 차이라고 주장한다.
결과적으로 왓슨은 미국의 암환자 데이터와 의학저널들을 학습했기 때문에, 우리나라에
도입 후 암진단에서부터 항암제 부작용까지 인종적 차이를 반영하지 못하는 것이다. 다
음으로 왓슨은 현재 식약처에 의료기기로 등록 되지 못하여 보험적용을 받지 못하는 문

77) 아르준 파네사, 고석범 역, 『헬스케어 인공지능과 머신러닝』(에이콘출판, 2020), pp. 298-299.
78) 메디포 뉴스(2020.01.17.), “길병원 의사들이 느낀 왓슨의 장단점은?”,
https://blog.naver.com/ceoofpaik/221776560498(2021.06.20 접속).
79) Watson For Oncology, https://ko.wikipedia.org/wiki/, 위키 백과사전(2021.05.18 접속).

- 50 -
제가 있다. 이는 높은 수가를 감당할 수 있는 환자들만이 혜택을 누릴 수 있고, 더욱이
왓슨이 권유하는 항암치료제 역시 우리나라 보건의료 수가에 책정되지 못하여 실제 암진
단 후 처방으로 이어지기 어려운 상황에 놓여있다.

이로 인하여 현재 길병원에서는 다학제 진료80)에 왓슨을 참가시켜 환자에게 여러 전


공의사의 견해뿐만 아니라 왓슨의 진단과 처방에 대한 인간 의료진의 진료상담 과정을
거쳐 일치율 차이에 대한 문제를 개선해 가고 있다. 여기에서 우리는 인간의사와 왓슨의
협업 중요성, 그리고 결과적으로 환자에게 미칠 수 있는 의료적 영향은 인간의사에게 있
음을 엿 볼 수 있다. 왓슨이 빅데이터 분석에 의해 얼마나 더 정확하게 측정값을 보여주
느냐도 중요하지만, 환자의 경제적 상황이나 나이, 삶에 대한 종교적, 철학적 견해 등을
고려하여 환자를 걱정하는 마음을 담은 인간의 눈빛과 육성, 손길에서 일어나는 감정적
인 안정과 신뢰는 인간의사만이 환자에게 제공할 수 있는 분명한 의료적 가치들일 것이
다. 따라서 향후 본 논문에서는 인간의사와 인공지능의사가 환자의 복리를 위해서 함께
노력해야할 책무와 의무, 원칙들을 의료주체(환자, 인간의사, 인공지능의사)들 간의 관계
속에서 살펴볼 것이다.

다음으로는 왓슨을 포함한 의료분야에 인공지능이 도입됨에 따라 나타나고 있고 향후


나타날 수 있는 여러 가지 윤리적 문제들에 대해 구체적으로 살펴보고자 한다.

80) 의학신문(2020.12.29.), “길병원, ‘폐동맥고혈압’ 8개과 다학제 진료 개시”,


http://www.bosa.co.kr/news/articleView.html?idxno=2141212(2021.06.24 접속)

- 51 -
2. 의료분야의 인공지능 도입과 윤리 문제

1) 기술적인 관점에서 고려해야 할 윤리 문제

의료 분야에 적용하기 위한 인공지능 기술을 개발하는 것에 대해 세계적으로 우려하


는 가장 큰 문제는 인공지능의 알고리즘을 훈련시키는 데이터의 대표성과 윤리성이다.
그리고 인간에서 유래한 의료 데이터의 복잡성은 그 방대한 양과 함께 점차 심화되어
제어하는 것이 불가능해지고 있다. 의료 인공지능의 현황과 과제에 대한 한국보건산업진
흥원의 정책동향 보고서에서는 이러한 의료데이터를 인공지능에 이용하기 위하여 적용하
고 분석하기 어려운 이유를 크게 다섯 가지로 설명하고 있다.

<표 8> 보건의료분야에서 인공지능을 위한 자료이용 문제

특징 내용

- 의료적 데이터는 다양한 종의 시스템에서 생성(EMRs, HR


software, etc.)
데이터 다양성
- 의료적 데이터는 다양한 영역에서 생산(radiology,
(multiple data
parmacy, etc.)
locations)
- 의료적 데이터는 다양한 포맷 파일로 구성(text, numeric,
paper, digital, picture, videos, multimedia, etc.)
구조화 vs 비구조화 - 의무의료기록은 일관성 있는 데이터 입력 양식을 제공하지
(structured vs. 만, 실제로는 사용자에 따라 다른 구조로 문서화
unstructured) - 의무의료기록 사용자들이 획일적 통합에 거부감 피력
- 환자의 질환에 대해 의료진마다 진단이 달라 합의되지 않
데이터 정의 는 결과 발생
(data definition) - 하나의 의료적 데이터가 새로운 연구결과나 실험결과를 통
해 다른 이해와 정의로 변화
- 의료적 자료는 표준화 작업에도 불구하고 변수의 발생이
복잡성 많아 보편적 결과로 활용하기에는 불안정함
(complexity) - 다른 의료 분야에 분산된 프로그램의 의료데이터를 관리하
기 위해서는 더욱 정교하고 확장성 높은 알고리즘이 필요
규제와 요구사항 - 활용 범위가 증가함에 따라 개별 규제와 예측되는 결과에
(regulation & 대한 제출 요구사항이 증가하고 있고, 진화를 거듭하고 있음
requirements) - 변수와 다양성에 따른 결과를 보완하기 위한 의료 기관 및

- 52 -
기구들의 지속적인 부담 발생
출처: 이관용, 김진희, 김현철, 「의료 인공지능 현황 및 과제」, 『한국보건산업진흥원 보건산업브리프』(2016),
pp. 7-9 인용 및 재구성.

의료데이터를 인공지능에 적용하기 어려운 첫 번째 이유로는 보건의료 데이터의 다양


성(multiple data locations)이 제시되었다. 보건의료 데이터는 의사를 주축으로 한 의
학분야 데이터뿐만 아니라 약학분야, 간호학분야, 방사선분야, 의료기계공학 등 다양한
부서에서 생산되기 때문에 각기 사용하는 시스템이 다르고, 다양한 종류의 시스템에서
생성된 의료데이터는 다양한 포맷의 파일로 구성될 수밖에 없다. 그러므로 각 다른 분야
의 용어와 시스템 언어를 취합할 수 있는 인공지능이 개발되어야하므로 그 설계가 더욱
어려운 것이다.

두 번째로는 앞서 언급한 다양한 데이터가 제대로 구조화되어 있는가에 문제이다. 의


료분야에서 사용하는 의료정보입력 프로그램들은 각 시스템에 맞는 구조화된 플랫폼을
제공하고 있지만, 실제 의료 현장에서는 약식으로 정보를 입력하거나 사용자의 편의에
따라 구조를 변경하여 사용한다는 문제가 있다. 그렇기 때문에 다양한 형태로 구조화되
거나 그렇지 않은 의료 데이터를 읽어 들일 수 있는 인공지능 알고리즘이 필요하다.

세 번째 이유로는 데이터에 대한 정의(data definition)의 문제를 들 수 있다. 예를


들어, 어떠한 질환을 진단하는 과정에서 의료진마다 환자의 증상에 대해 각자의 해석이
있을 것이고, 그에 따라 다른 진료 결과가 발생한다. 같은 질환이라도 환자의 건강상태,
생활습관, 유전적 특성에 따라 임상 증상이 다르기 때문에, 보편적 의료(average
medicine)는 일부 환자에게 효과가 없거나 심각한 부작용 발생할 수 있으므로 의사들은
경험과 의학적 지식을 기반으로 하여 각기 다른 처방을 내릴 수 있다는 것이다. 그러므
로 이러한 다양한 변수를 가진 의료데이터를 어떻게 정의 내려 진단하게 할 것인가하는
문제가 발생한다.

네 번째로, 복잡성(complexity)은 앞선 첫 번째 의료데이터의 다양성에서 기인하는


것으로, 다양한 프로그램에서 생성되는 복잡한 의료데이터를 관리하기 위해 보다 정교한
인공지능 알고리즘이 필요하다는 것이다. 많은 연구에서 의료데이터의 복잡성을 줄이기
위한 노력을 하였으나 여전히 변수의 발생이 많아 분석에 활용하기 어렵다는 문제가 발
생하고 있다.

다섯 번째 문제는 규제와 요구사항(regulation & requirements)에 대한 부분이다.


의료데이터의 분석에 대한 규제 및 보고에 대한 요구사항이 증가하고 국제적인 규범이

- 53 -
계속적으로 발효되고 있으며, 이를 따르고 보완하기 위한 생명의료분야의 부담이 지속적
으로 증가하고 있다는 것이다.

앞서 언급한 의료데이터 자체의 특성으로 인한 기술적인 문제 이외에도, 2019년 기술


정책연구본부에서 발표한 ‘개인 맞춤형 의료 AI 적용과 당면과제’에서는 우리나라에서
의료와 인공지능의 결합이 가져오는 주요 문제점은 크게 여섯 가지로 설명하고 있다.81)

<표 9> 의료분야 인공지능 도입의 문제점

항목 문제점

데이터의 품질 - 양질데이터의 부족
불확실성 - 인공지능 진단의 정확성에 대한 불확실성
사생활침해 - 개인의 의료정보 유출로 인한 사생활 침해
책임소재 - 오작동으로 인한 의료사고에 대한 법적 책임 소재
신뢰문제 - 의사결정의 불분명성으로 인한 신뢰 문제
데이터수집 - 인공지능 학습을 위한 데이터 수집의 어려움
출처: 박종현, 「개인 맞춤형 의료 AI 적용과 당면과제」, 『기술정책연구본부 국가지능화 특집』(2019), pp.
6-7 재구성.

첫째, 우리나라는 건강보험 DB, 건강검진 DB, 병원의 의료정보 등의 의료관련 데이


터는 방대하지만 실제 인공지능이 학습할 양질의 활용 가능한 데이터가 부족하다는 것이
다. 또한, 개인정보 및 의료정보 보호 정책으로 방대한 의료 데이터를 인공지능 분석을
위한 데이터로 공유하거나 활용하기 어려운 실정이고, 이러한 문제는 개인정보보호 측면
에서 사용자 정보 자체를 식별 불가능한 데이터로 처리하여 이용하는 것으로 해결하고자
하나, 질병 진단에 있어 인구사회학적인 요소가 배제된 데이터를 이용한 인공지능은 환
자별 맞춤형 정보를 얻어 낼 수 없게 만든다는 문제가 있다.

둘째, 인공지능 시스템을 활용한 진단의 정확성이 아직 불확실하다는 것이다. 예를


들어, IBM의 AI 솔루션 ‘왓슨 포 온콜로지’가 국내에 출시되자 현재 여러 병원에서 도입
하여 사용하고 있고 확산되는 추세이다. 그러나 IBM의 왓슨은 신뢰성의 문제가 드러나
고 있다. 즉, 빅데이터로 사용하는 인종, 국가의 상이함에 따라 암의 발병정도와 주요발
병 신체장기 등이 다르고 이렇게 국가별로 상이한 데이터를 동일하게 사용하는데 있어서
는 왓슨의 능력이 충분히 신뢰롭지 못하다는 것이다. 국내에서도 과천대 길 병원과 건양

81) 박종현, 「개인 맞춤형 의료 AI 적용과 당면과제」, 『기술정책연구본부, 국가지능화 특집』, 2019, pp.
6-7.

- 54 -
대병원이 왓슨 도입 후 일부 암 진단에 있어서는 의사와의 의견 일치율이 고작 40%대
에 머무르는 등 매우 낮은 것으로 나타났다. 특히, 왓슨은 미국 데이터를 기반으로 만들
어진 태생적 특성으로 인해 국가별, 인종별 특성 즉 한국인 고유의 빅데이터가 반영되지
못한 것이 원인으로 지적되고 있다.

셋째, 개인 의료정보 유출로 발생하는 사생활 침해에 대한 우려이다. 대부분의 의료


기관은 환자의 질병이나 유전 정보, 건강 상태 등 민감한 정보들을 다량 보유하고 있다.
따라서 최근 의료분야의 인공지능 도입에 따라 대규모의 의료정보를 보유한 대형병원의
보안 사고에 대한 걱정이 늘어나고 있다. 만약 악성 코드로 인공지능 시스템을 해킹하고
환자의 의료 기록, 영상, 이미지 등을 조작하게 되면, 보험 사기 등 의사를 속이는 형태
의 각종 범죄에 노출될 가능성이 커질 것이다. 아울러, 현재 의료기관들의 개인정보 유
출에 대한 기술적 보안체계를 완벽히 갖추는 것이 매우 힘든 것이 현실이다.

넷째, 인공지능 시스템이 오작동을 일으켰을 때 이러한 의료사고에 대한 책임소재가


불분명하다는 것이다. 예상하지 못한 의료사고가 발생할 경우에 이러한 법적 책임을 시
스템을 도입한 병원, 사용하는 의사, 기술을 개발한 과학자, 제품을 생산하는 의료기기
업체 등 다양한 이해관계가 있어 어느 누구에게 책임을 지우기가 쉽지 않을 것이다. 특
히, 환자가 인공지능 시스템의 진단을 의사보다 선호하여 인공지능의 진단대로 결정한
수술에서 심각한 문제가 발생하였을 경우 의사와 인공지능, 환자 중 누가 책임을 지고
해결해야 할지에 대한 충분한 논의가 필요한 실정이다.

다섯째, 인공지능 블랙박스 즉, 의사결정 과정의 불투명성으로 인한 신뢰 문제다. 딥


러닝 기술과 학습이 증가하면서 인공지능의 결과물은 어떤 과정과 방식에 의해 구현되었
는지 알 수가 없다는 것이다. 인공지능이 내린 판단에 대한 추론과정이 파악되어야 인공
지능이 내린 결정이 합당한지에 대한 설명이 가능한데, 심층신경망의 규모가 지금처럼
커져 가면 추론 과정 자체를 이해하는 것이 불가능해진다.

여섯째, 인공지능 학습을 위한 빅데이터 수집에 있어 어려움이다. 첫 번째 문제점에


서 언급한 대로 최근 우리나라는 개인정보보호법 강화 정책으로 각 개인의 정보 수집과
활용에 있어 데이터에 접근하고 활용하는 것이 매우 힘들다. 인공지능 시스템을 구축하
고 딥러닝, 머신러닝을 활용하여 인공지능 시스템의 핵심 기능을 활용하려면 유의미한
빅데이터의 수집과 활용은 필수적이다.

- 55 -
2) 환자의 관점에서 본 윤리 문제

최근 의료 데이터의 복잡성에 의한 문제나 기술적인 문제보다 더 이슈가 되고 있는


것은 환자의 관점에서 인공지능의 훈련에 사용된 데이터들이 사전 동의가 충분히 이루어
졌는가 하는 개인 정보 보호 및 신뢰성에 대한 문제이다. 또한, 인공지능이 의료분야에
적용될 경우 의료 행위의 자동화와 정밀화가 확보되어 환자의 치료 및 입원의 우선순위
와 관련하여 더 신속한 치료와 입원이 필요한 환자에 대한 판단과 처치가 보다 엄밀하
게 이루어질 수 있을 것이다. 즉 최근 의료계에서 일어나고 있는 치료 결정에 있어서 의
사결정의 개선에 대한 요청에 대한 일종의 해답을 제공해줄 수 있으리라 기대된다. 왜냐
하면 의료적 의사결정은 진단에 필요한 정보를 얼마나 많이 검토하며, 검증이 된 최신의
의학 정보를 가지고 진단을 하는가의 문제인데 인공지능을 도입하면 필요한 정보를 최대
한 많이 활용할 가능성이 높아지기 때문이다. 하지만 이와 같은 인공지능의 기술로 인해
제기될 수 있는 윤리적인 문제들을 환자의 관점에서 살펴보면 다음과 같다.

첫째, 개인의 정보 보호와 사생활 침해 문제가 있다. 이에 해당하는 문제로는 수집되


는 의료 데이터의 방대함으로 인해 제기되는 문제와 개인에 대한 지속적 관찰로 인한
감시 상황의 초래라는 문제가 있다. 인공지능과 관련된 의료데이터의 수집은 개인정보
보호의 문제를 제기하며 이는 개인의 인권 침해 가능성을 제기한다. 머신 러닝을 통해
수집되고 있는 방대한 데이터의 경우, 앞으로 어떤 목적과 조건 하에서 데이터를 이용하
고 처리할 것인지의 경계를 정하기가 점점 더 어려워지고 있다. 이렇게 수집된 데이터는
또 다른 데이터 세트와 연결되어 무한대로 이용될 가능성도 있으므로 의료분야의 방대한
빅데이터 연구에 대한 개인정보 보호와 더불어 인권의 침해 가능성이라는 윤리적인 문제
를 필연적으로 제기하게 된다.

이러한 문제는 인공지능이 환자의 개인적 심리상태까지 판단할 수 있다는 점에서도


개인의 프라이버시의 훼손과 자유의 침해라는 문제와 연결되는 문제이기도 하다. 인공지
능과 같이 방대한 데이터를 수집하여 판단을 내리는 도구가 환자의 치료적인 맥락에서
사용된다고 하더라도 개인의 정서적 상태와 정신 건강에 대해 지속적으로 모니터링 한다
는 것이 자유주의 사회에서 강조하는 개인의 자유라는 가치와 상충되는 심리적인 감시와
같은 상황을 만들어 낼 수 있기 때문이다.

둘째, 다른 윤리적인 문제로 의료행위의 진정한 책임주체의 문제가 있다. 현재 이미


지를 판독하는 영상의학 관련 분야에 있어서 인공지능이 인간의 능력 이상의 진단능력을
발휘하는 경우가 나타나고 있고, 이런 임상 진단 결과들의 누적은 환자로 하여금 자신이

- 56 -
질환을 치료함에 있어 누구에게 더 의지할 것인가에 대한 고민에 빠지게 할 것이다.

셋째, 위와 관련하여 제기되는 또 다른 문제로 의사와 환자 관계의 성격과 관련된 문


제가 있다. 요즘 같은 코로나19 팬데믹 현상은 원격진료, 비대면 진료가 각광받을 수 있
다. 하지만 의사와 환자가 대면하지 않고 지속적인 의료과정이 수행된다면, 이동성이 제
한된 노인들에게 신속한 치료를 제공하는 데는 유용할 수 있으나 환자는 점차 의료진으
로부터 소외되거나 고립되는 경우가 발생 가능할 것이다. 아울러 정신 질환 및 치매 등
정서적 교감이 무엇보다 치료에 중심이 되어야 하는 영역에서는 환자의 복리에 치명적인
결함을 가져올 수 있다.

인공지능이 실제 임상 현장에서 환자의 진단에 인공지능을 도입하는 데 있어서 발생


할 수 있는 윤리적인 문제로서 가장 중요한 문제는 인공지능에게 환자의 어떠한 부분까
지 결정하게 할 것인가와 관련된 문제일 것이다. 이와 관련하여 제기될 수 있는 문제는
다음과 같다. 인공지능이 진단하고 결정하는 범위가 환자의 생명에 관여하는 의료 업무
까지 확대되어도 되는가? 그 경우 인공지능의 판단기준은 단지 기술적 혹은 기능적 기
준에 머물러도 되는가? 그렇지 않다면 어떤 다른 기준이 필요한가? 무엇이 되어야 하는
가? 예를 들어 인공지능에 의해 자동화된 의료 서비스 환경에서 어떤 환자가 먼저 치료
받고 어떤 환자에게 어떠한 화학 요법이 제공되는지와 같은 결정이 필요할 때 무엇을
기준으로 해야 하는가의 문제가 제기될 수 있다. 이 경우 비용 효율성을 따르는 것이 가
장 올바른 판단인가? 아니면 인공지능의 결정에 대하여 서비스 운영자가 각 환자의 개
별적인 상황에 따라 객관적인 기준을 수정하거나 보완할 수 있도록 유연성 있게 적용할
수 있도록 해야 하는가?82) 오히려 윤리적 기준을 정립하고 그 적용의 절대성을 주장해
야 하는가?

이러한 점점 가속화되고 있는 인공지능의 의료현장 도입과 더불어 나타나는 여러 우


려는 인공지능의 의료적 판단 및 활동과 관련하여 일정한 기준을 요청하고 있다. 특히
윤리적 기준의 필요성이 시급히 제기되는데 많은 문제의 근간에 윤리적 측면이 함께 작
용하고 있기 때문이라 할 수 있다. 더구나 때에 따라 인공지능이 주는 피해가 재앙의 수
준이 될 수도 있어 이에 대한 성찰과 방안이 필요하며 이는 인공지능의 윤리성과 관련
된 문제를 제기한다.

82) A. Esteva et al, “Dermatologist-level classification of skin cancer with deep neural
networks”, Nature, Vol. 5(7), 2017, pp. 115-118.

- 57 -
3. 의료분야의 인공지능 도입에 따른 생명의료윤리원칙의 확장 필요성

1) 한국의 의료윤리원칙과 새로운 의료주체 등장

의료윤리 원칙은 기본적으로 의사의 소명과 책무 및 의사와 환자 사이의 관계를 기초


로 하는 윤리적 원칙이다. 그러나 미래의 의료 윤리는 양자의 관계만이 아닌 로봇의사와
의 관계도 포함해야 한다. 앞서 언급한 바와 같이, 인공지능은 이미 생명의료분야에서
의사만이 할 수 있었던 진단이라는 의료 행위에 대한 보조적인 역할을 수행하고 있다.
그렇다면 우리는 이제 실제 의료 현장에서 의료용 인공지능과 대면해야 하는 의료인에게
요구되고 있는 생명윤리 원칙은 무엇인지 확인하고, 의료현장에서 인공적 도덕 행위자로
서의 인공지능의 지위와 이에 맞는 인공지능시대의 생명의료윤리원칙에 대하여 재정립해
야할 필요가 있는 것이다. 하지만 생명의료윤리라는 개념에 대한 확고한 정립이 없이는
‘인공지능시대의 의료인과 인공지능에게 요구되는 윤리적 원칙에 대한 논의’가 이루어질
수 없다.

로봇의사에게 히포크라테스 선서와 같은 전통적인 의사윤리지침의 정신과 원칙을 그


대로 적용하기 어려우며, 인공지능 로봇의사를 받아들인다는 전제 하에 로봇의사가 의사
공동체의 일원으로서 받아들여졌을 때, 현재의 인간중심 의료윤리의 원칙에 덧붙여 환자
및 인간의사와의 관계를 중심으로 로봇의사의 관점에서 마련한 준칙들로 구성되어야 한
다. 따라서 이 준칙은 일차적으로 로봇의사의 윤리원칙이지만, 그 내용은 환자 및 인간
의사와의 관계에 집중한 것이기에 인간의사와 로봇 의사가 동시에 그리고 함께 준수해야
할 윤리 지침이기도 한 것이다. 그러므로 의료윤리의 개념을 정립하고, 의료인에게 요구
되는 생명의료윤리의 네 가지 원칙에 대해 논증해보고자 한다.

의료윤리(medical ethics)는 임상윤리, 생명윤리, 임상연구윤리, 보건윤리, 생명의료


윤리를 포괄하는 의미로써, 의료 환경에서 발생하는 매우 복잡하고 다양한 윤리문제에
대한 윤리적 원칙에 대한 학문이자 지침이다.83) 생명의료윤리(biomedical ethics)는 넓
은 의미로 인간과 생명에 대한 바람직한 접근방향에 대한 보편적인 윤리인 생명윤리학
(bioethics)과 인간을 대상으로 연구와 치료를 하는 의료행위에 대한 윤리인 의료윤리학
(medical ethics)을 합친 개념으로 정의되고 있다.84) 생명윤리(bioethics)는 1970년 미
국의 종양학자 포터(Van Rensselaer Potter)에 의해 생물학적 지식과 인간이 가지는 가

83) 엄영란 외, 『생명윤리학』(학지사메디컬, 2018), p. 33-39 참조.


84) 강신익, 「생명의료윤리의 역사와 철학: 치과의사의 윤리를 중심으로」, 『의사학』, 제11권 2호(2002),
pp. 117-136.

- 58 -
치 체계에 관한 지식을 결합하는 새 학문분야라고 정의되었고, 이후 라익(Warren T.
Reich)은 생명윤리를 의학 및 생명과학의 윤리적 차원에 관한 연구로 정의하였다. 우리
나라에서 생명윤리학은 유전자 재조합, 세포 융합, 인공 수정, 생물 복제 따위와 같은
생명 과학의 연구 결과가 인류에 미치는 영향을 도덕적, 윤리적 측면에서 연구하는 학문
으로 정의되고 있다.85)

그러므로 좁은 의미의 생명의료윤리는 의학과 생명과학을 포함한 인간을 대상으로 하


는 연구와 치료를 하는 직역에 대한 윤리적 문제와 전문직 윤리, 그리고 과학의 발달로
인해 발생한 여러 가지 윤리문제를 중점으로 다루는 윤리학의 한 영역인 것이다.86) 따라
서 생명의료윤리는 인간과 생명의 본질적 가치를 다루는 생명윤리와 이를 현실에서 구현
하고 적용하는 의료인이 가져야 할 가치와 행동규범을 다루는 의료윤리로 구분한다.87)
생명의료분야에 면허제도가 시행되면서 의료인에게 부여된 권리에 상응하는 책임과 윤리
를 강조하게 되었는데 이렇게 형성된 생명의료윤리의 영역을 전문직 윤리(professional
"개인 맞춤형 의료 AI 적용과 당면과제"ethics)라 한다. 또한, 모든 의료행위는 긍정적인
효과와 부정적인 효과를 내포하는 양면성이 있기 때문에 일반적으로 그 효과가 입증된
의술과 약물이라 하더라도 환자에게 발생할 수 있는 위험성의 수준이 환자의 입장에서
윤리적으로 타당한가에 대한 기준이 필요하다. 그렇기 때문에 의료윤리규정은 의료현장
에서 수행하는 의사의 직무관련 행위에 윤리적 정당성을 규정하고자 하는 것이다. 그러
므로 의료윤리규정은 윤리적으로 합당하고 환자의 복리에 부합하는 진료의 기준을 제시
함으로써 임상 현장에서의 갈등과 분쟁을 최소화하는 기능을 하고 있다.

의료윤리규정은 의사의 직업윤리로서 자율적 준수를 목적으로 의사의 역할에 관한 덕


목과 생명의료윤리에 대한 구체적인 실천 지침을 명문화한 것으로, 세계의사회(World
Medical Association, WMA)는 각국의사회와 전문학회가 윤리위원회를 두고 소속된 의
사의 소임과 역할에 걸맞은 윤리지침을 제정하도록 권장하고 있다. 세계의사회의 지침은
대한의사협회의 의사윤리강령과 지침에도 그대로 반영되어 의사가 가지는 권리와 의무,
그리고 환자와의 관계 및 사회적 역할, 각종 수술 및 의학연구에 관한 원칙과 조항에 명
시되어 있다.88) 진료하는 임상의를 위한 의료윤리와 임상연구를 수행하는 연구자를 위한
연구윤리로 구분되는 의료윤리규정은 현대 의료윤리의 4대 원칙을 핵심 주제로 하고 있
다.89)

85) 신동원, 앞의 논문, pp. 163-204.


86) 권복규, 「우리나라 의료윤리교육에 대한 비판적 고찰」, 『한국의료윤리교육학회지』, 제9권 1호(2006),
pp. 60-72.
87) L. B. McCullough, op. cit, pp. 395-402.
88) D. S. Ahn & J. J. Han & J. L. Park, op. cit, p.12.

- 59 -
의료윤리의 윤리원칙은 오래전에 미국의 생명윤리 학자들인 비첨(T.L.Beauchamp)과
차일드리스(J.F.Childress)가 생명 의료 윤리학의 원리(principles of biomedical
ethics)에서 제안한 바 있는 생명의료 윤리의 네 가지 원칙을 근간으로 한다. 네 가지
원칙은 자율성 존중의 원칙, 악행 금지의 원칙, 선행의 원칙, 정의의 원칙90)이며, 이러한
네 가지 원칙을 구체적인 의료 윤리 문제에 적용시켜 도덕적인 답을 찾아 나가는 것이
의료윤리의 윤리원칙이다. 여전히 생명의료윤리 원칙들이 원칙들 간의 충돌을 어떻게 해
결해 나갈 것이며, 4차 산업혁명과 그 기술로 인해 발생하는 복잡한 윤리적 문제들에 대
한 해결의 한계성을 우려하는 견해들이 나타나기도 했다. 하지만, 여전히 생명의료 윤리
의 네 가지 원칙은 의료윤리의 기본이며, 인공지능과 로봇의사윤리에 대한 연구에서도
이것이 환자와의 관계에서 결코 분리될 수 없는 인간의사와 로봇의사의 지위와 역할에
대한 윤리적 논의들로서 다루어졌다.91) 그리고 비첨과 차일드리스의 생명의료윤리의 원
칙이 로봇의사윤리의 원칙들을 정립하는 가운데 구체화 및 체계화될 수 있을 것이라고
보고 있다.

2) 생명의료윤리의 네 가지 원칙과 확장의 필요성

비첨과 차일드리스의 생명의료 윤리의 네 가지 원칙은 자율성 존중의 원칙, 악행 금


지의 원칙, 선행의 원칙, 정의의 원칙이며, 현재 대한의사협회의 의료윤리 강령과 지침에
서도 이러한 네 가지 원칙을 준용하여 더 구체적으로 작성하여 보급하고 있다.

첫 번째, 자율성 존중의 원칙은 의료 행위가 개인의 자율성을 최대한 존중하는 범위


에서 이루어져야 한다는 것으로, 의사가 본인의 의사에 따라 일방적으로 환자 진료를 결
정하는 것이 아니라, 환자의 자율적 의사에 따라서 진료 행위를 해야 한다는 것이다. 자
율성이 존중 되려면 의사는 진료 행위를 하기 전 환자의 동의를 얻어야 하는데, 의료 행
위는 사실상 고도의 전문성이 요구되는 행위이고, 환자는 의사만큼의 의료적 지식이 부
족하다. 이런 환자와 의사간의 의료지식에 대한 지나친 비대칭성으로 인해 환자가 하는
동의가 본인의 진정한 동의인가 하는 문제가 제기되기도 한다. 즉 의료 윤리학에서는 이
를 ‘충분한 정보에 의거한 동의(informed consent)’92)라고 한다. 충분한 정보에 의한
동의는 의사가 제공하려는 의학적 검사나 치료를 환자나 보호자에게 설명하고 그에 대해

89) Y. M. Koo, op. cit, pp. 119-142.


90) T. L. Beauchamp, & J. F. Childress, op. cit, pp. 5-27 참조.
91) 맹주만, 앞의 논문, pp. 271-308.
92) A. R. Jonsen & M. Siegler, & W. J. Winslade, “Clinical ethics: a practical approach to ethical
decisions in clinical medicine”, Journal of Legal Medicine, Vol. 3(3), 1982, pp. 490-495.

- 60 -
허락을 구하는 과정이자 그 결과라고 할 수 있다.

두 번째, 악행 금지의 원칙은 ‘환자에게 해악을 입히거나 환자의 상태를 악화시키는


의술을 사용해서는 안 된다’는 것이다. 악행 금지의 원칙은 당연하고 간단한 명제로 보
이지만, 실제 의료 행위에 있어 여러 가지 윤리적인 문제가 발생한다. 그리고 여기에서
이러한 문제의 기준이 되는 것이 ‘악행’을 정의하는 것이다. 의료윤리에서는 신체적 악행
이 우선적인 고려 대상이 될 것이고, 정신적 해악이나 재산상의 손실 등도 악행에 속한
다. 하지만, 만일 ‘악행 금지’가 단순히 고통을 야기하거나 증가시키는 행위를 대상으로
하는 것이라면 의사의 의료 행위는 상당히 제약될 수 있다. 어떠한 질병을 치료하는데
있어서 고통을 수반하지 않는 경우는 거의 없을 것이기 때문이다. 그러므로 악행 금지의
원칙에서 우리가 악행을 어떻게 정의하느냐에 따라서 인간의사의 판단은 극명하게 대립
될 수 있다.

세 번째, 선행의 원칙에서 선행(善行)이란 남을 이롭게 하는 행위를 뜻한다. 선행의


원칙은 해악의 예방과 해로운 조건들을 제거한다는 측면에서 적극적인 선행을 요구하고
있다는 점에서 해악의 제거에만 한정될 수 있는 악행 금지의 원칙에 비해서 구체적인
문제를 제기할 수 있다. 생명의료분야에서 환자의 선을 적극적으로 증진시킬 것을 요구
하는 선행의 원칙은 특히 건강관리라는 측면에서 중요하다. 해악금지의 원칙이 어떠한
행위를 하지 말라는 소극적인 의미라면, 선행의 원칙은 어떤 행위를 적극적으로 하라는
의미를 가지고 있다. 아울러 모든 사람에게 악행을 저질러서는 안 되지만, 모든 사람에
게 선행을 할 의무는 없다. 그래서 가족과 같은 특정 관계에 따른 차별적인 선행이 허용
된다.

의사들은 종종 자율성 존중과 선행원칙 사이에 갈등을 경험한다. 갈등 상황에서 한


번 더 숙고할 것은 환자에게 제공할 수 있는 최선의 이익이 궁극적으로 환자의 선호도
와 관련되어 있다는 것이다.93) 상황에 따라 달라질 수 있겠지만, 의사결정 능력이 있는
환자가 자신의 의지로 선택한 것이 환자 자신에게 치명적인 결과를 야기하지 않고 타인
에게 해를 주지 않는다면, 가능한 환자의 결정을 존중하는 방향으로 갈등을 조율해 나가
는 것이 보다 윤리적일 수 있을 것이다.

네 번째, 정의의 원칙에서 정의는 주로 배분적인 정의를 말한다. 배분적인 정의는 주


로 우리 사회에서 희소하게 존재하는 자원들을 어떻게 배분하는 것이 타당한가에 대해
논의한다. 가능한 환자는 남녀노소를 막론하고 차별 없이 진료를 받을 권리가 있어야 하
지만 사실상 각 개인의 경제력의 차이가 양질의 의료혜택을 받는 것이 현실이다.

93) T. L. Beauchamp, & J. F. Childress, op. cit, pp.32-44.

- 61 -
이렇듯 의료윤리의 윤리원칙은 자율성 존중의 원칙, 악행 금지의 원칙, 선행의 원칙,
정의의 원칙을 통하여 의료현장에서 발생하는 윤리문제에 대한 도덕적인 답을 찾아 나가
는 것이며,94) 여전히 이러한 원칙들이 원칙들 간의 충돌과 4차 산업혁명과 그 기술로
인해 발생하는 복잡한 윤리적 문제들을 해결할 수 있는가에 대한 우려가 존재한다. 그러
나 여전히 생명의료 윤리의 네 가지 원칙은 의료윤리의 기본이며, 인공지능과 의료인의
의료 행위를 평가하는 윤리적 원칙의 근간이 되기에는 충분할 것이다. 그리고 비첨과 차
일드리스의 생명의료윤리의 원칙이 확장되어 로봇의사 윤리의 원칙들을 정립하는 가운데
구체화 및 체계화될 수 있을 것이라고 보고 있다.

그렇다면 이제 우리는 새로운 의료주체인 인공지능 의사의 등장에 대한 보건의료인의


인식을 살펴보고, 환자의 복리, 공정성, 존엄성을 기반으로 한 보건의료인 스스로의 윤리
적 가치관과 생명윤리의식 수준을 조사하고자 한다. 그리고 그 결과를 바탕으로 환자의
복리를 위한 의료분야 인공지능의 윤리성 원칙 정립 방향과 향후 발생할 수 있는 임상
현장의 문제점들을 사례별로 예상해보고자 한다. 이를 위하여 이어지는 장에서는 보건의
료인을 대상으로 한 조사연구를 통하여 현재 의료분야의 인공지능 도입과 인공지능의 윤
리적 기준에 대한 인식에 대해 살펴보고, 보건의료인의 윤리적 가치관, 생명의료윤리의
식, 인공지능기술에 대한 인식과 윤리적 기준의 상관관계를 파악하고자 하였다.

94) 목광수, 「비췀과 췰드리스의 생명의료윤리학 논의에서의 넓은 반성적 평형에 대한 비판적 고찰」, 『철
학』, 제119권(2014), pp. 115-148.

- 62 -
IV. 보건의료인의 생명의료윤리의식과 인공지능 인식

의료현장은 머지않은 미래에 새롭게 공존할 대상으로서의 인공지능을 인식해야 한다.


그리고 보건의료 종사자들이 윤리적 측면에서의 사전적 대비 없이 인공지능에 의한 직업
세계의 변화를 받아들일 경우, 의료서비스를 제공하는 의료진뿐만 아니라 환자와 보호자
도 혼돈을 느낄 수 있다. 이러한 상황에서 윤리적 가치관의 정립은 보건의료인이 의료행
위나 간호행위 중에 발생할 수 있는 윤리적 문제에 대하여 의사결정을 이끌어내는 원동
력이 될 수 있으며,95) 생명의료윤리 의식은 개인의 윤리적 가치관과 함께 전문 의료인으
로서 윤리적 문제를 해결하는 과정에서 기반이 될 수 있을 것이다. 그러므로 보건의료
종사자들이 이러한 인공지능 기술에 대하여 얼마나 인식하고 있는지 확인하고, 인공지능
시대의 생명의료윤리에 대해 책임을 갖도록 준비시키고 윤리적 의사결정을 하도록 돕는
것은 보건의료 교육의 중요한 부분이다.

보건의료 학계 및 교육현장에서도 이미 4차 산업 기술로 인해 발생될 수 있는 윤리적


문제에 적합하게 대처할 수 있는 보건의료인을 양성하기 위한 노력이 시작되고 있다. 실
제로 국내에 대부분의 의과대학에서 의료윤리 관련 인문사회과목이 개설되었고, 간호학
과를 비롯한 보건의료계열 학과에서 생명윤리가 포함된 교과목을 운영하고 있다. 또한,
윤리적인 문제에 대하여 도덕적인 판단을 할 수 있는 인문적 소양과 인성을 갖출 수 있
어야 하므로, 보건의료인의 기초교육을 담당하고 있는 대학에서 자율성, 인간에 대한 이
해, 가치 판단과 같은 생명윤리에 대한 깊은 이해와 교육이 선행되어야 한다는 주장이
늘어나고 있다. 그러나 국내의 생명의료윤리 관련 연구는 넒은 범위의 보건의료인을 대
상으로 한 연구는 부족한 실태이며, 의료 현장에서 다양한 분야의 보건의료인을 대상으
로 생명의료윤리의식과 인공지능 인식을 확인한 연구는 부족한 실정이다. 이러한 배경
하에 본 장에서는 보건의료인을 대상으로 생명의료윤리의식과 윤리적 가치관, 그리고 인
공지능 도입에 대한 인식에 대해 살펴보고자 하였다.

1. 인공지능과 생명의료윤리의식

의료현장은 새롭게 공존할 대상으로서의 인공지능을 인식하고 윤리적 측면에서 사전


적 대비가 없이 보건의료 종사자들이 인공지능에 의한 직업세계의 변화를 받아들일 경

95) 유명숙, 손기철, 「간호대학생의 생명의료윤리의식, 도덕적 민감성 및 도덕 판단력에 관한 간호윤리교육


의 효과」, 『생명윤리』, 제12권 2호(2012), pp. 61-76.

- 63 -
우, 의료서비스를 제공하는 의료진뿐만 아니라 환자와 보호자도 혼돈을 느낄 수 있으므
로 이에 대한 대책이 필요한 시점이다. 그러므로 보건의료 종사자들은 이러한 인공지능
기술에 대한 인식과 생명 및 인공지능 윤리에 대한 고민이 필요하며, 일부 윤리학자들은
인공지능을 사람과 동등한 타자로 인정하여 사람과 수평적 공존이 가능한 사회에 미리
대비해야 하고 의학, 약학, 간호학 등을 포함하는 보건의료계열 전공에서는 4차 산업혁
명 시대의 새로운 의료기술에 대한 이해를 바탕으로 윤리적 갈등 상황에서 의사결정을
갖출 수 있는 교육이 더욱 요구된다고 보고하고 있다.

생명윤리의식은 보건의료계열 종사자에게 있어 의료행위나 간호행위 중에 발생할 수


있는 윤리적 문제를 해결할 수 있는 기반으로서, 보건의료시스템 하에서 바람직한 의사
결정을 이끌어내는 원동력이 될 수 있다.96) 또한, 인간의 질병 및 치료와 관련된 학문을
전공하는 보건의료계열 대학생들이 생명의료윤리에 대해 책임을 갖도록 준비시키고 윤리
적 의사결정을 하도록 돕는 것은 매우 중요한 부분이다.97) 따라서 보건의료 종사자들은
향후 의료현장에서 점차적으로 늘어나는 인공지능 기술의 사용에 있어 윤리적 해석과 깊
은 성찰 및 반성적 사고가 요구되고 있으며, 이에 특히 보건의료계열 전공에서는 인공지
능에 대한 이해를 바탕으로 윤리적 갈등 상황에서 의사결정을 갖출 수 있는 체계적인
교육이 더욱 요구된다고 할 수 있다.

보건의료 학계 및 교육현장에서도 4차 산업혁명 기술의 하나인 가상현실을 이용한 새


로운 교육방법을 이용하고 있으며, 보건 의료 현장에서도 새로운 4차 산업 기술로 인해
발생될 수 있는 윤리적 문제에 적합하게 대처할 수 있는 보건의료인을 양성하기 위한
노력이 시작되고 있다. 실제로 국내에 대부분의 의과대학에서 의료윤리 관련 인문사회과
목이 개설되었고, 간호학과를 비롯한 보건의료계열 학과에서 생명윤리가 포함된 교과목
을 운영하고 있다. 또한, 윤리적인 문제에 대하여 도덕적인 판단을 할 수 있는 인문적
소양과 인성을 갖출 수 있어야 하므로, 보건의료인의 기초교육을 담당하고 있는 대학에
서 자율성, 인간에 대한 이해, 가치 판단과 같은 생명윤리에 대한 깊은 이해와 교육이
선행되어야 한다는 주장이 늘어나고 있다. 그러나 국내의 생명의료윤리 관련 연구는 넒
은 범위의 보건의료인을 대상으로 한 연구는 부족한 실태이며, 보건의료인의 생명의료윤
리의식과 인공지능 인식을 확인한 연구는 부족한 실정이다. 이러한 배경 하에 본 장에서
는 보건의료인을 대상으로 생명의료윤리의식과 인공지능 도입에 대한 인식에 대해 살펴
보고자 하였다.

96) 유명숙, 손기철, 앞의 논문, pp. 61-76.


97) 백성희, 「기독보건의료계열 대학생의 생명의료윤리의식에 관한 연구」, 『신앙과 학문』, 제19권 2호
(2014), pp. 61-82.

- 64 -
1) 연구일정

본 연구는 2020년 1월부터 6월까지 부산지역 병원 및 의료기관에 재직하는 보건의료


인을 대상으로 연구조사를 수행하였으며, 본 연구의 목적을 이해하고 설문조사에 참여를
서면 동의한 사람들을 대상으로 수행되었다. 본 연구는 보건의료인을 대상으로 설문지를
배포하여 수거하였고, 그 결과 총 298명(남자 77명, 여자 221명)이 설문에 참여하였다.

2) 조사설계

본 연구에서 생명의료윤리 의식 측정 도구는 권선주(2003)가 9개영역의 총 49문항으


로 구성한 생명의료윤리 의식 도구98)를 사용하였다. 세부적인 문항 구성은 태아의 생존
권 다섯 문항, 인공임신중절 여섯 문항, 인공수정 일곱 문항, 태아 진단 다섯 문항, 미숙
아생존권 다섯 문항, 안락사 다섯 문항, 장기이식 네 문항, 뇌사 다섯 문항, 인간생명공
학 일곱 문항으로 구성된 9개 영역 총 48문항이며, 하위 영역은 생식 윤리(인공수정, 인
공임신중절), 생존권 윤리(태아 및 미숙아 생존권), 진료 윤리(태아 진단, 장기이식, 인간
생명공학), 죽음 윤리(안락사, 뇌사)의 4가지로 나뉜다. 부정 문항은 역문항 처리 하였으
며, 4점 척도로 최저 49점에서 최고 196점의 범위로 점수가 높을수록 인간생명을 존중
하는 생명의료윤리 의식이 높음을 의미한다. 권선주(2003)의 연구에서 전체 도구의
Cronbach's alpha는 .76이었으며, 본 연구에서 하위 영역별 Cronbach's alpha는 생
식 윤리 .69, 생존권 윤리 .71, 진료 윤리 .44, 죽음 윤리 .66이고, 전체 도구의
Cronbach's alpha는 .78이었다. 또한, 일차적으로 완성된 설문지를 부산소재 대학에
재학 중인 대학생에게 사전 테스트를 실시하였고, 설문 문항 자체의 판독이 너무 어려운
문항은 삭제하거나 수정하고, 설문지와 함께 설문지 작성의 이해를 돕기 위한 용어의 정
의를 부록에서와 같이 기술하여 제공하였다.

본 연구에서 보건의료인과 보건의료계열 대학생의 인공지능기술 인식에 대한 문항은


인공지능관련 국내외 선행연구를 탐색하여,99)100)101) 이를 본 연구의 연구대상인 보건의
료인에 맞게 수정한 본 연구자의 도구를 사용하였다.102) 해당 도구의 세부적인 문항은

98) 권선주, 「간호대학생과 의과대학생의 생명의료윤리 의식에 관한 조사 연구: 대구. 경북지역을 중심으
로」, 계명대학교 대학원, 석사학위논문(2003), pp. 55-56.
99) 김장묵, 「보건의료분야에서의 인공지능기술 (AI) 사용 의도와 태도에 관한 연구」, 『융합정보논문지
(구 중소기업융합학회논문지)』, 제7권 4호(2017), pp. 53-60.
100) 이정원, 문형돈, 「국내 인공지능 인식 현황 연구」, 『한국통신학회 학술대회논문집』(2018),
pp. 1396-1397.
101) 한학진, 서정모, 「인공지능 기술 (AI) 의 도입에 따른 관광산업 직무대체수준 및 영향에 관한 탐색적
연구-대학생을 중심으로」, 『호텔리조트연구』, 제16권 3호(2017), pp. 45-61.

- 65 -
인공지능기술에 대한 인식 정도를 비롯하여 인공지능 기술이 의료분야 전반에 미치는 영
향, 인공지능이 의료분야 직종에 미치는 영향과 관련된 속성으로 구성되었다. 그런 다음
설문 문항의 신뢰도를 높이기 위하여 보건의료계열 전문가 2-3명을 통하여 서로의 문항
심사 의견을 교환한 후 이를 수정, 보완하였다.

<표 10> 인공지능에 대한 인식

현재 인공지능이 전반적인 산업분야에서 개발 중인 것으로 인식하고 있다.


현재 의료분야에 인공지능 적용이 가능하다.
인공지능 기술은 의료분야에 긍정적인 영향을 줄 것이다.
인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다.
인공지능 기술에 대한 선재대응이 필요하다.
인공지능에 인공지능 기술은 의료분야 서비스를 대체할 가능성이 높다.
대한 인식 환자들은 인공지능보다 인적서비스를 더욱 선호 할 것이다.
인공지능으로 의료분야 일자리가 감소할 것이다.
고난이도나 단순 업무는 인공지능으로 대체가능 할 것이다.
인공지능으로 사라지는 직업만큼 새로운 일자리가 창출 될 것이다.
인공지능으로 정확하고 차별화된 의료서비스가 가능할 것이다.
감성이 요구되는 업무는 인공지능으로 대체 불가능할 것이다.

3) 분석방법

본 연구에서 모든 통계적 자료는 SPSS 23.0 프로그램을 통해 분석하였고 통계학적


유의수준은 α=.05 이하로 설정하였다. 연구대상자들의 일반적 특성은 빈도분석과 기술
통계를 이용하여 산출하였고, 보건의료인의 윤리적 가치관, 생명윤리의식, 인공지능기술
에 대한 인식과 윤리적 기준의 차이는 independent t-test 로 분석하였다. 보건의료인
의 생명윤리의식과 인공지능기술에 대한 인식의 상관관계는 Pearson’s correlation으로
분석하였다.

102) 김진동, 「보건의료계열 종사자와 대학생의 생명윤리의식과 인공지능기술에 대한 인식」, 『학습자중심교


과교육연구』, 제19권 12호(2019), pp. 955-971.

- 66 -
2. 보건의료인의 생명윤리의식과 인공지능 인식

1) 보건의료인의 생명윤리의식

보건의료인의 생명윤리의식 결과는 아래의 표에 제시하였다. 본 연구에서 보건의료인


의 생명윤리의식 총점 평균은 2.74점이었으며, 하부 영역별로 보면, 미숙아 생명권이
3.28점, 인공수정이 3.27점, 장기이식이 3.12점의 순서로 평균점수가 높았으며, 가장 낮
은 영역은 뇌사의 2.13점으로 나타났다. 또한, 성별에 따른 보건의료인의 생명윤리의식
에는 유의적 차이가 없었고, 세부항목 중 여성 보건의료인의 태아진단, 미숙아 생명권,
장기의식 점수가 남성보다 통계적으로 유의미하게 높았다(p<0.05).

<표 11> 보건의료인의 생명윤리의식

남자 여자 전체
(N=77) (N=221) (N=298)

Mean ± SD Mean ± SD Mean ± SD

태아 생명권 2.76 ± 0.59 2.69 ± 0.63 2.70 ± 0.62

인공임신중절 2.46 ± 0.44 2.45 ± 0.35 2.45 ± 0.38

인공수정 3.17 ± 0.63 3.30 ± 0.64 3.27 ± 0.64

태아진단 2.86 ± 0.30* 3.00 ± 0.36 2.96 ± 0.35

미숙아 생명권 3.16 ± 0.49* 3.33 ± 0.45 3.28 ± 0.47

안락사 2.26 ± 0.41 2.17 ± 0.50 2.19 ± 0.48

장기이식 2.92 ± 0.36* 3.19 ± 1.00 3.12 ± 0.88

뇌사 2.09 ± 0.29 2.14 ± 0.53 2.13 ± 0.48

인간생명공학 2.79 ± 0.22 2.76 ± 0.28 2.77 ± 0.27

평균 2.70 ± 0.26 2.76 ± 0.28 2.74 ± 0.28

*Significant different at the 0.05 level using student t-tests

- 67 -
지금까지 보건의료인의 생명윤리의식에 대한 연구는 교육현장에서 보건의료계열 대학
생이나 간호학과 대학생을 대상으로 한 연구 위주로 이루어졌다. 본 연구에서 나타난 보
건의료인의 생명윤리의식 수준은 보건의료인과 보건의료계열 대학생을 대상으로 생명윤
리의식을 조사한 연구보다 높았다. 해당 연구에서 보건의료인의 생명윤리의식 총점 평균
은 2.71점으로 보건의료계열 종사자의 2.64점보다 유의적으로 높았다.103) 또한, 본 연구
에서 조사된 보건의료인의 생명윤리의식은 보건계열 대학생의 생명의료윤리 의식을 조사
한 선행연구의 2.01점보다 높았다.104) 이러한 보건의료인과 보건의료계열 대학생의 생명
의식 차이는 과거에 교육을 받은 보건의료계열 종사자 보다는 현재 교육과정 중인 보건
의료계열 학생들이 의무적으로 생명과 관련된 윤리적 교육을 받을 기회가 많음으로 인해
발생했을 것으로 추측되며, 보건의료인들의 생명윤리의식 또한 사회적인 윤리에 대한 관
심의 증가로 인해 상향되고 있는 것으로 보인다. 하지만 보건의료인을 대상으로 생명윤
리의식을 확인한 연구는 매우 미흡한 실정이다.

생명윤리의식의 하위 영역별로 살펴보면, 미숙아 생명권이 3.28점, 인공수정이 3.27


점, 장기이식이 3.12점의 순서로 평균점수가 높았으며, 가장 낮은 영역은 뇌사의 2.13점
으로 나타났다. 이러한 결과는 앞서 언급한 보건의료인을 대상으로 한 연구에서 미숙아
생명권이 가장 평균점수가 높았으며, 가장 낮은 영역은 뇌사로 나타났다는 결과와 일치
하며, 간호학생과 비간호학생을 대상으로 한 연구에서 가장 높은 영역은 태아의 생명권
이고 가장 낮은 영역은 뇌사로 나타났다는 결과와도 일치한다.105) 이렇듯 보건의료인들
은 뇌사나 안락사와 같이 생명의 종결에 대여 인정해야 하는 문항에 대하여 낮은 점수
를 보였으며, 이러한 결과는 아직까지 현장에 종사하는 보건의료인들이 해당 윤리적인
문제에 있어 의식하기 힘든 상황이라는 것을 의미하며, 이러한 생명의 종결에 대한 인식
은 연령이 낮을수록 인정하는 것이 쉽지 않다. 그러나 보건의료인의 생명윤리의식에 대
한 연구는 계속적으로 이루어져야 하며, 그 세부적인 사항에 대한 교육과 인지 방향 설
정 또한 향후 보건의료계열 학생들을 위한 윤리 교육의 핵심 주제가 되어야 할 것이다.

103) 김진동, 앞의 논문, pp. 955-971.


104) I. Lee, op. cit, pp. 147-155.
105) 전현숙, 앞의 논문, pp. 401-410.

- 68 -
본 연구에서 보건의료인의 인공지능과 관련한 인식과 의료분야의 적용가능성, 인공지
능이 의료분야에 미치는 영향을 살펴본 결과는 다음과 같다.

2) 보건의료인의 인공지능 인식

본 연구에서 전체 산업 분야의 인공지능 도입에 대한 보건의료인의 인식을 살펴본 결


과는 아래의 표에 제시하였다. 본 연구에서 보건의료인의 현재 전반적인 산업분야의 인
공지능 개발에 대한 인식은 ‘매우 잘 인식하고 있다’고 응답한 대상자가 54%로 가장 많
았고, 남성인 보건의료계열 종사자의 경우 ‘매우 잘 인식하고 있다’고 응답한 대상자가
61%로 여성의 51%보다 많았다. 또한, 전반적인 산업분야의 인공지능 개발에 대해 ‘전혀
인식하지 않고 있다’고 대답한 응답자는 남녀 보건의료계열 종사자 모두 없었다. 전체
보건의료인 중 92%가 현재 인공지능이 전반적인 산업분야에서 개발 중인 것으로 인식하
고 있고, 특히 남성 보건의료인의 경우 전체의 95% 이상에서 인공지능의 도입에 대해
높게 인식하고 있는 것으로 나타났다.

<표 12> 보건의료인의 전반적인 산업 분야에 대한 인공지능 인식

남자 여자 전체
(N=77) (N=221) (N=298)

N (%) N (%) N (%)

현재 인공지능이 전반적인 산업분야에서 개발 중인 것으로 인식하고 있다.

전혀 그렇지 않다 - - - - - -

그렇지 않다 3 3.9% 3 1.4% 6 2.0%

보통이다 0 0.0% 18 8.1% 18 6.0%

그렇다 27 35.1% 87 39.4% 114 38.3%

매우 그렇다 47 61.0% 113 51.1% 160 53.7%

본 연구에서 생명의료 분야의 인공지능 적용에 대한 보건의료인의 인식을 살펴본 결


과는 아래의 표에 제시하였다. 본 연구에서 보건의료인의 현재 생명의료분야의 인공지능
적용에 대한 인식은 ‘그렇다’고 응답한 대상자가 66%로 가장 많았고, 의료분야의 인공지

- 69 -
능 적용에 대해 ‘전혀 그렇지 않다’고 대답한 응답자는 남녀 보건의료인 모두 없었다.
또한, 전체 보건의료인 중 91%가 인공지능이 현재 생명의료분야에 적용이 가능한 것으
로 인식하고 있었다.

<표 13> 보건의료인의 의료 분야에 대한 인공지능 인식


남자 여자 전체
(N=77) (N=221) (N=298)

N (%) N (%) N (%)

현재 의료분야에 인공지능 적용이 가능하다.

전혀 그렇지 않다 - - - - - -

그렇지 않다 3 3.9% 6 2.7% 9 3.0%

보통이다 6 7.8% 12 5.4% 18 6.0%

그렇다 50 64.9% 146 66.1% 196 65.8%

매우 그렇다 18 23.4% 57 25.8% 75 25.2%

3) 보건의료인의 인공지능 영향력 인식

본 연구에서 인공지능이 생명의료 분야에 미치는 긍정적 영향에 대한 보건의료인의


인식을 살펴본 결과는 아래의 표에 제시하였다. 인공지능이 의료분야에 미치는 긍정적인
영향에 대해서는 44%가 ‘그렇다’라고 응답하여 가장 높은 비율을 차지했고, ‘매우 그렇
다’라고 응답한 비율은 25%였다. 또한, 의료분야에서 인공지능의 긍정적 영향력에 대해
‘전혀 그렇지 않다’고 대답한 응답자는 남녀 보건의료인 모두 없었으며, 전체 보건의료인
중 69%가 인공지능이 생명의료분야에 긍정적인 영향을 줄 것으로 인식하고 있었다.

- 70 -
<표 14> 보건의료인의 인공지능에 대한 긍정적인 영향력 인식
남자 여자 전체
(N=77) (N=221) (N=298)

N (%) N (%) N (%)

인공지능 기술은 의료분야에 긍정적인 영향을 줄 것이다.

전혀 그렇지 않다 - - - - - -

그렇지 않다 3 3.9% 9 4.1% 12 4.0%

보통이다 9 11.7% 72 32.6% 81 27.2%

그렇다 41 53.2% 89 40.3% 130 43.6%

매우 그렇다 24 31.2% 51 23.1% 75 25.2%

본 연구에서 인공지능이 생명의료 분야에 미치는 부정적 영향에 대한 보건의료인의


인식을 살펴본 결과는 아래의 표에 제시하였다. 인공지능이 의료분야에 미치는 부정적인
영향에 대해서는 41%가 ‘보통이다’라고 응답하여 가장 높은 비율을 차지했고, ‘그렇다’
라고 응답한 비율은 27%였다. 또한, 의료분야에서 인공지능의 부정적 영향력에 대해 ‘매
우 그렇다’고 대답한 응답자는 전체의 8.1%였다.

<표 15> 보건의료인의 인공지능에 대한 부정적인 영향력 인식


남자 여자 전체
(N=77) (N=221) (N=298)

N (%) N (%) N (%)

인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다.

전혀 그렇지 않다 3 3.9% 27 12.2% 30 10.1%

그렇지 않다 9 11.7% 33 14.9% 42 14.1%

보통이다 21 27.3% 102 46.2% 123 41.3%

그렇다 38 49.4% 41 18.6% 79 26.5%

매우 그렇다 6 7.8% 18 8.1% 24 8.1%

- 71 -
4) 보건의료인의 세부주제별 인공지능 인식

보건의료인의 의료분야 인공지능에 대한 전반적인 인식 결과는 아래의 표에 제시하였


다. 현재 산업 전반 인공지능의 개발에 대한 보건의료인의 평균 점수는 최대 5점 중
4.40점으로 인공지능에 대한 선재대응이 필요하다는 문항과 함께 가장 높은 점수가 나
타났다. 보건의료인은 인공지능의 긍정적 영향, 인공지능으로 인한 단순 업무의 대체가
능성을 높게 인지하고 있었으며, 감성이 요구되는 업무는 인공지능으로 대체 불가능할
것이라는 문항의 점수가 가장 낮은 것으로 나타났다. 또한, 남성 보건의료인의 인공지능
에 대한 긍정적인 영향 인식, 부정적인 영향 인식, 의료 서비스 대체 가능성을 포함한
세부항목 점수가 여성 보건의료인보다 통계적으로 유의미하게 높았다(p<0.05).

인공지능에 대한 보건의료인의 전반적인 인식을 살펴보면, 본 연구에서 전체 보건의


료인 중 91%가 현재 인공지능이 현재 생명의료분야에 적용이 가능한 것으로 인식하고
있었고, 69%가 인공지능이 생명의료분야에 긍정적인 영향을 줄 것으로 인식하고 있었
다. 선행연구에서도 현재 의료분야의 인공지능 적용 가능성에 대한 보건의료인의 평균
점수는 최대 5점 중 4.02점으로 적용 가능성을 높게 인지하고 있었고, 인공지능의 긍정
적 영향, 인공지능에 대한 선재대응의 필요성을 높게 인지하고 있었다.106)인공지능 인식
에 대한 대국민 조사에서는 인공지능이 향후 5∼10년 내 본격적으로 보편화 될 것
(41.6%)으로 생각하고 있으며, 국민 대다수가 인공지능의 도입이 미래사회에 긍정적 영
향을 줄 것으로 생각(58%)한 반면, 부정적 영향이 클 것으로 생각(14%)한 국민들은 인
공지능 도입으로 인한 기계의 일자리 대체에 대한 우려가 가장 높았으나, 장기적으로는
새로운 일자리의 창출로 인한 일자리가 더 많을 것으로 기대(40.9%)하고 있다고 보고했
다.107) 이러한 결과는 전반적인 산업분야에서 인공지능에 대한 인식이 높아지고 있다는
것을 보여주고 있으며, 본 연구의 결과에서도 보건의료인의 인공지능 인식의 수준이 상
당히 높으며 긍정적이라는 것을 알 수 있었다. 그러나 의료분야의 인공지능 적용가능성
과 그 인식에 대한 연구는 아직까지 미흡하므로 이에 대한 추후 확대 연구가 요구된다.

106) 김진동, 앞의 논문, pp. 955-971.


107) 이정원, 문형돈, 앞의 논문, pp. 1396-1397.

- 72 -
<표 16> 보건의료인의 의료분야 인공지능에 대한 인식
남자 여자 전체
(N=77) (N=221) (N=298)
Mean ± SD Mean ± SD Mean ± SD

(1) 4.50 ± 0.70 4.40 ± 0.70 4.40 ± 0.70

(2) 4.10 ± 0.80* 3.80 ± 0.80 3.90 ± 0.80

(3) 3.50 ± 0.90* 3.00 ± 1.10 3.10 ± 1.10

(4) 4.50 ± 0.80 4.30 ± 0.80 4.40 ± 0.80

(5) 3.70 ± 0.90* 3.60 ± 1.00 3.70 ± 0.90

(6) 1.60 ± 0.60* 2.50 ± 1.40 2.30 ± 1.30

(7) 3.90 ± 0.50* 3.50 ± 1.00 3.60 ± 0.90

(8) 4.10 ± 0.80* 3.70 ± 0.90 3.80 ± 0.90

(9) 3.40 ± 1.10 3.30 ± 1.10 3.30 ± 1.10

(10) 4.00 ± 0.80* 3.60 ± 0.90 3.70 ± 0.90

(11) 2.20 ± 1.10* 1.80 ± 1.10 1.90 ± 1.10

*Significant different at the 0.05 level using student t-tests


(1) 현재 인공지능이 전반적인 산업분야에서 개발 중이다.
(2) 인공지능 기술은 의료분야에 긍정적인 영향을 줄 것이다.
(3) 인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다.
(4) 인공지능 기술에 대한 선재대응이 필요하다.
(5) 인공지능 기술은 의료분야 서비스를 대체할 가능성이 높다.
(6) 환자들은 인공지능보다 인적서비스를 더욱 선호 할 것이다.
(7) 인공지능으로 의료분야 일자리가 감소할 것이다.
(8) 고난이도나 단순 업무는 인공지능으로 대체가능 할 것이다.
(9) 인공지능으로 사라지는 직업만큼 새로운 일자리가 창출 될 것이다.
(10) 인공지능으로 정확하고 차별화된 의료서비스가 가능할 것이다.
(11) 감성이 요구되는 업무는 인공지능으로 대체 불가능할 것이다.

- 73 -
5) 보건의료인의 생명윤리의식과 인공지능에 대한 인식의 상관관계

본 연구에서 생명윤리의식의 하위 영역인 생식 윤리, 생존권 윤리, 임상 윤리, 죽음


윤리와 의료 분야에서 인공지능에 대한 인식과의 상관관계를 분석한 결과는 아래의 표에
제시하였다. 보건의료인의 생명윤리의식과 인공지능에 대한 인식 중 의료서비스의 대체
(r=-0.174 p<0.01), 감성적 업무는 인공지능으로 대체될 수 없음(-r=0.219, p<0.01), 차
별화된 의료서비스의 가능성(r=-0.213, p<0.01) 문항은 유의적인 음의 상관관계가 있었
다.

생명윤리의식의 하위 영역 중 생식윤리에서는 의료서비스의 대체, 감성적 업무는 인공


지능으로 대체될 수 없음 문항과의 음의 상관관계, 생존권 윤리에서는 인공지능의 부정
적 영향이 유의적인 양의 상관관계와 의료서비스의 대체, 차별화된 의료서비스의 가능성
문항과의 음의 상관관계, 진료 윤리에서는 의료서비스의 대체, 감성적 업무는 인공지능
으로 대체될 수 없음, 차별화된 의료서비스의 가능성 문항과의 음의 상관관계, 죽음 윤
리에서도 고난이도 업무의 대체, 감성적 업무는 인공지능으로 대체될 수 없음, 차별화된
의료서비스의 가능성 문항과의 음의 상관관계가 있었다.

<표 17> 보건의료인의 생명윤리의식과 인공지능에 대한 인식의 상관관계

생식윤리 생존권윤리 진료윤리 죽음윤리 생명윤리의식

(1) -.089 .018 .029 .081 .010


(2) .050 .031 -.072 .119* .050
(3) .058 .132* -.011 .105 .103
(4) -.052 -.046 -.087 -.095 -.095
(5) -.135* -.140* -.204** -.034 -.174**
(6) -.020 .067 -.034 .060 .028
(7) -.096 -.098 -.113 .013 -.101
(8) .079 -.026 .012 -.115* -.016
(9) -.070 .019 .014 -.076 -.041
(10) -.185** -.085 -.175** -.193** -.219**
(11)
-.067 -.145* -.285** -.146* -.213**
*p<0.03, **p<0.01 Significant different level using pearson correlation.
(1) 현재 인공지능이 전반적인 산업분야에서 개발 중이다.
(2) 인공지능 기술은 의료분야에 긍정적인 영향을 줄 것이다.

- 74 -
(3) 인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다.
(4) 인공지능 기술에 대한 선재대응이 필요하다.
(5) 인공지능 기술은 의료분야 서비스를 대체할 가능성이 높다.
(6) 환자들은 인공지능보다 인적서비스를 더욱 선호 할 것이다.
(7) 인공지능으로 의료분야 일자리가 감소할 것이다.
(8) 고난이도나 단순 업무는 인공지능으로 대체가능 할 것이다.
(9) 인공지능으로 사라지는 직업만큼 새로운 일자리가 창출 될 것이다.
(10) 인공지능으로 정확하고 차별화된 의료서비스가 가능할 것이다.
(11) 감성이 요구되는 업무는 인공지능으로 대체 불가능할 것이다.

본 연구에서 보건의료인의 생명윤리의식과 인공지능으로 인한 의료서비스의 대체


(r=-0.174 p<0.01)에서 유의적인 음의 상관관계가 나타난 결과는 보건의료인이 이미 인
공지능 기술을 인식하고 의료분야에 긍정적인 영향을 줄 것으로 기대하지만, 생명윤리의
식이 높을수록 인공지능 기술의 의료서비스 대체에 대하여 부정적인 생각을 가진다는 것
을 보여준다. 또한, 생명윤리의식의 하위 영역 중 생식윤리와 의료서비스 대체와는 음의
상관관계, 생존권 윤리와 인공지능의 부정적 영향이 유의적인 양의 상관관계에서도 보건
의료계열 종사자와 대학생의 생명윤리의식이 높을수록 인공지능이 의료분야에 긍정적인
영향은 낮고, 부정적인 영향이 높다고 생각하고 있다는 것을 의미한다. 이러한 결과는
생명윤리의식의 하위 영역에서도 보건의료인의 윤리 의식이 높을수록 인공지능이 의료분
야에 부정적인 영향을 줄 것으로 생각하는 것으로 조사되었던 선행연구와는 그 정도에서
차이가 있지만,108) 생명윤리의식이 높은 보건의료인이 인공지능에 대한 우려가 더 나타
난다는 점에서는 일치한다.

이러한 결과는 보건의료인이 인공지능 기술을 의료분야에 적용하는 것이 당면한 과제


임을 이미 인식하고 있으며, 의료분야에 긍정적인 영향을 줄 것으로 기대하지만 생명윤
리적으로 합당할 것인지에 대해서는 아직 확실한 가치관을 가지지 못했다는 것을 의미하
고 있다. 의료계에서도 대한의사협회에서 주최한 의료정책포럼에서도 인공지능이 의료문
제에 대한 윤리적 판단까지는 단시간 내에 하지 못할 것이고, 이러한 부분이 인공지능
시대의 의사에게 중요한 역할이하고 강조하고 있다.109)

108) 김진동, 앞의 논문, pp. 955-971.


109) 김형수, 전우택, 양광모 외, 「인공지능(AI: Artificial Intelligence) 시대, 보건의료 미래 전망」, 『의료
정책포럼』, 제15권 1호(2017), pp. 86-102.

- 75 -
6) 보건의료인의 생명윤리의식과 인공지능 인식

현재 우리 사회의 생명의료분야 중 인간복제, 인공수정, 생명연장의 영역에서는 급진


적인 기술적 변화를 보여주고 있으며 이는 인간의 존엄성이나 생명에 대한 인식영역의
변화도 함께 불러일으키고 있다. 이러한 상황에서 인공지능에 대한 기본 지식과 윤리적
측면에서의 사전적 대비가 없이 보건의료분야에 인공지능이 도입될 경우, 의료서비스를
제공하는 의료진뿐만 아니라 환자와 보호자도 혼돈을 느낄 수 있다. 그러므로 보건의료
종사자들은 이러한 인공지능 기술에 대한 인식과 생명 및 인공지능 윤리에 대한 고민이
반드시 필요하다. 앞서 언급한대로 생명윤리의식은 보건의료인에게 의료행위 중에 발생
할 수 있는 윤리적 문제를 해결할 수 있는 기반으로서, 윤리적인 의사결정을 이끌어내는
원동력이 될 수 있다.110) 보건의료인들은 단계적으로 강화되는 인공지능의 적용에 대비
하여 윤리적 측면에 대한 깊은 고찰과 적극적인 참여가 요구되고 있으며,111) 인공지능
기술에 대한 인식과 보건의료인의 생명윤리의식이 불가분의 관계에 있다는 것은 널리 알
려져 있으나, 실제로 그 상관관계를 알아본 연구는 없었다.

앞서 언급한 바와 같이, 지금까지 보건의료인의 생명윤리의식에 대한 연구는 교육현


장에서 보건의료계열 대학생이나 간호학과 대학생을 대상으로 한 연구 위주로 이루어졌
다. 본 연구에서 조사된 보건의료인의 생명윤리의식은 2.74점으로 보건계열 대학생의 생
명의료윤리 의식을 조사한 연구보다는 높고, 보건의료인의 생명의료윤리의식을 조사한
선행연구보다 높았다. 구체적으로 보건의료계열 대상생과 보건의료인을 대상으로 한 연
구에서 보건의료인의 생명윤리의식 총점 평균은 2.71점으로 보건의료계열 종사자의
2.64점보다 유의적으로 높았다.112) 또한, 본 연구에서 조사된 보건의료인의 생명윤리의
식은 보건계열 대학생의 생명의료윤리 의식을 조사한 선행연구의 2.01점보다 높았다.113)
이러한 보건의료인과 보건의료계열 대학생의 생명의식 차이는 과거에 교육을 받은 보건
의료계열 종사자 보다는 현재 교육과정 중인 보건의료계열 학생들이 의무적으로 생명과
관련된 윤리적 교육을 받을 기회가 많음으로 인해 발생했을 것으로 추측되며, 보건의료
인들의 생명윤리의식 또한 사회적인 윤리에 대한 관심의 증가로 인해 상향되고 있는 것
으로 보인다. 하지만 여전히 보건의료인을 대상으로 생명윤리의식을 확인한 연구는 매우
미흡한 실정이다. 또한, 생명윤리의식의 하위 영역별에서는 미숙아 생명권, 인공수정, 장

110) 유명숙, 손기철, 앞의 논문, pp. 61-76.


111) 박동균, 「인공지능과 내과 의사의 미래」, 『Korean Journal of Medicine (구 대한내과학회지)』,
제92권 3호(2017), pp. 235-238.
112) 김진동, 앞의 논문, pp. 955-971.
113) I. Lee, op. cit, pp. 147-155.

- 76 -
기이식의 순서로 높았으며, 이렇듯 보건의료인들은 뇌사나 안락사와 같이 생명의 종결에
대해 인정해야 하는 문항에 대하여 낮은 점수를 보였다. 이러한 결과는 아직까지 현장에
종사하는 보건의료인들이 해당 생명의 종결에 대한 인식과 윤리 의식이 낮다는 것을 의
미하며, 보건의료인의 생명윤리의식에 대한 연구는 계속적으로 이루어져야 하며, 그 세
부적인 사항에 대한 교육과 인지 방향 설정 또한 향후 보건의료계열 학생들을 위한 윤
리 교육의 핵심 주제가 되어야 할 것이다.

또한, 본 연구에서 전체 보건의료인 중 91%가 현재 인공지능이 현재 생명의료분야에


적용이 가능한 것으로 인식하고 있었고, 69%가 인공지능이 생명의료분야에 긍정적인 영
향을 줄 것으로 인식하고 있었다. 인공지능 인식에 대한 대국민 조사에서는 인공지능이
향후 5∼10년 내 본격적으로 보편화 될 것(41.6%)으로 생각하고 있으며, 국민 대다수가
인공지능의 도입이 미래사회에 긍정적 영향을 줄 것으로 생각(58%)한 반면, 부정적 영향
이 클 것으로 생각(14%)한 국민들은 인공지능 도입으로 인한 기계의 일자리 대체에 대
한 우려가 가장 높았으나, 장기적으로는 새로운 일자리의 창출로 인한 일자리가 더 많을
것으로 기대(40.9%) 하고 있다고 보고했다.114) 선행연구에서도 현재 의료분야의 인공지
능 적용 가능성을 높게 인지하고 있었고, 인공지능의 긍정적 영향, 인공지능에 대한 선
재대응의 필요성을 높게 인지하고 있었다.115) 이러한 결과는 전반적인 산업분야에서 인
공지능에 대한 인식이 높아지고 있다는 것을 보여주고 있으며, 본 연구의 결과에서도 보
건의료인의 인공지능 인식의 수준이 상당히 높으며 긍정적이라는 것을 알 수 있었다. 그
러나 의료분야의 인공지능 적용가능성과 그 인식에 대한 연구는 아직까지 미흡하므로 이
에 대한 추후 확대 연구가 필요하다.

또한, 보건의료인의 생명윤리의식과 인공지능으로 인한 의료서비스의 대체(r=-0.174


p<0.01)는 유의적인 음의 상관관계가 있었다. 이것은 보건의료인이 이미 인공지능 기술
을 인식하고 의료분야에 긍정적인 영향을 줄 것으로 기대하지만, 생명윤리의식이 높을수
록 인공지능 기술의 의료서비스 대체에 대하여 부정적인 생각을 가진다는 것을 보여준
다. 이러한 결과는 보건의료계열 종사자와 대학생의 생명윤리의식이 높을수록 인공지능
이 의료분야에 긍정적인 영향은 낮고, 부정적인 영향이 높다고 생각하며, 생명윤리의식
의 하위 영역에서도 보건의료계열 종사자와 대학생의 임상 윤리 의식이 높을수록 인공지
능이 의료분야에 부정적인 영향을 줄 것으로 생각하는 것으로, 조사되었던 선행연구와는
그 정도에서 차이가 있지만, 생명윤리의식이 높은 보건의료인이 인공지능에 대한 우려가

114) 이정원, 문형돈, 앞의 논문, pp. 1396-1397.


115) 김진동, 앞의 논문, pp. 955-971.

- 77 -
더 나타난다는 점에서는 일치한다.

의료계에서도 대한의사협회에서 주최한 의료정책포럼에서 뇌사 상태의 환자에게 사망


을 결정하고 다른 이식환자들에게 새 생명을 주는 것과 같은 윤리적 결정은 인공지능이
빠른 기간 내에 하지 못할 것이고, 이러한 부분이 인공지능 시대에 의사에게 더 필요한
역할이며,116) 인공지능에 의한 보편적 자가의료 행위가 가능하게 되었다고 하더라도 이
를 전체적으로 통제하며 윤리적으로 감시하고 책임질 인간 의료인의 존재는 필요한 것이
라고 주장한다.117) 이에 현재 보건의료계열에 종사하는 종사자들은 인공지능 기술의 도
입과 함께 임상 현장에서 발생할 수 있는 문제에 대응하여 올바른 윤리적인 선택을 할
수 있는 생명 및 인공지능 윤리에 대한 고찰이 필요하며, 보건의료계열 전공자들은 생명
의료윤리 의식을 바탕으로 인공지능 기술로 인하여 발생할 수 있는 윤리적 갈등 상황에
서 의사결정 능력을 갖출 수 있는 능력을 배양하는 것이 무엇보다 중요하다고 할 수 있
다.

따라서 향후 더욱 확대될 인공지능 기술의 대상과 적용 범위를 감안하여, 발생할지


모를 심각한 윤리적인 문제를 예견하고 적극적으로 대비하여야 할 것이다. 그러기 위해
서는 보건의료인이 주체적인 생명윤리의식과 윤리적 가치관을 확립하고, 의료현장에서
대면하게 될 인공지능에 대하여 인식하고 대비해야 할 것이다.

116) 김형수, 전우택, 양광모 외, 앞의 논문, pp. 86-102.


117) 정창록, 앞의 논문, pp. 143-156.

- 78 -
3. 보건의료인의 윤리의식과 인공지능 인식

포시스(Forsyth-1992)는 개인의 도덕적 신념과 가치가 개인의 도덕 철학을 구성한다


는 전제 하에 상대주의와 이상주의로 분류하여 윤리적 가치관 척도(ethical position
questionnaire)를 제시하였다. 이상주의는 의사결정의 관점을 인간의 복지에 맞추고, 어
떤 사람에게 해가 될 수 있는 어떠한 의사결정도 하지 않는다. 반면, 상대주의는 개인의
생각을 일반적인 원칙과 기준에 관련하여 묘사하며, 높은 수준의 상대주의자는 개인의
윤리적 신념에 대한 집단의 규칙은 거부하는 경향이 있다. 또한, 생명윤리의식은 보건의
료인이 의료행위나 간호행위 중에 발생할 수 있는 윤리적 문제에 대하여 의사결정을 이
끌어내는 원동력이 될 수 있으며,118) 보건의료인이 생명의료윤리에 대해 책임을 갖도록
준비시키고 윤리적 의사결정을 하도록 돕는 것은 보건의료 교육의 중요한 부분이고, 생
명의료윤리 의식은 개인의 윤리적 가치관과 함께 전문 의료인으로서 윤리적 문제를 해결
하는 과정에서 기반이 될 수 있을 것이다.

보건의료 종사자들은 이러한 윤리적 가치관과 생명의료윤리 의식의 확립뿐만 아니라


단계적으로 강화되는 인공지능의 실용화에 대비하여 윤리적 측면에 대한 고민과 준비가
요구되고 있으며,119) 특히 보건의료계열 전공에서는 4차 산업혁명으로 의학 약학, 간호
학 등의 분야에서 나타날 수 있는 새로운 의료기술을 바탕으로 윤리적 갈등 상황에서
의사결정을 갖출 수 있는 교육이 더욱 요구되고 있다.120) 이처럼 새롭게 공존할 대상으
로서의 인공지능을 인식하고 윤리적 측면에서 사전적 대비가 없이 보건의료 종사자들이
인공지능에 의한 직업세계의 변화를 받아들일 경우, 의료서비스를 제공하는 의료진뿐만
아니라 환자와 보호자도 혼돈을 느낄 수 있으므로 이에 대한 대책에 필요한 시점이다.

실제로 국내에 대부분의 의과대학에서 의료윤리 관련 인문사회과목이 개설되었고, 학


생들의 윤리적 교육과정에서 4차 산업혁명시대에 따른 윤리적 이슈에 대한 대학 교육의
방향에 대해 제고하는 연구가 이루어졌다. 교육 현장에서는 공청회 등을 통하여 시대적
흐름에 맞는 생명윤리 교육을 제공하기 위한 시도가 이루어지고 있으며, 간호사 혹은 간
호대학생을 대상으로 생명의료윤리 관련 연구를 수행했고,121) 간호대학생을 대상으로 도
덕적 민감성과 윤리적 가치관이 생명의료윤리 인식에 미치는 영향을 보고한 연구도 시도
되었다.122) 그러나 국내의 생명의료윤리 관련 연구는 넒은 범위의 보건의료인을 대상으

118) 유명숙, 손기철, 앞의 논문, pp. 61-76.


119) 박동균, 앞의 논문, pp. 235-238.
120) 김수경, 이경화, 김상희, 앞의 논문, pp. 34-47.
121) 전현숙, 앞의 논문, pp. 401-410.
122) 김명숙, 앞의 논문, pp. 382-392.

- 79 -
로 한 연구는 부족한 실태이며, 보건의료인의 윤리적 가치관과 새로운 인공지능 기술에
대한 윤리적 기준을 확인하고 비교한 연구는 없는 실정이다.

이러한 배경 하에 본 장에서는 보건의료인을 대상으로 윤리적 가치관을 확인하고, 현


재 의료분야의 인공지능 도입과 인공지능의 윤리적 기준에 대한 인식에 대해 살펴보고자
한다. 또한, 보건의료인의 윤리적 가치관, 생명의료윤리의식, 인공지능기술에 대한 인식
과 윤리적 기준의 상관관계를 파악하여 보건의료인의 윤리적 가치관과 생명의료윤리 의
식이 인공지능기술의 도입과 그에 대한 윤리관에 미칠 수 있는 영향을 알아보고자 하였
다.

1) 연구일정

본 연구는 2020년 1월부터 6월까지 부산지역 병원 및 의료기관에 재직하는 보건의료


인을 대상으로 연구조사를 수행하였으며, 본 연구의 목적을 이해하고 설문조사에 참여를
서면 동의한 사람들을 대상으로 수행되었다. 본 연구는 보건의료인을 대상으로 설문지를
배포하여 수거하였고, 그 결과 총 298명이 설문에 참여하였다.

2) 조사설계

본 연구에서 보건의료분야 종사자와 대학생의 윤리적 가치관은 올바름에 대한 이상적


기준과 상대적 기준에 대한 문항으로 구성하였다. 윤리적 가치관에 대한 설문은 다른 분
야에 적용되었던 윤리관 관련 문항을 차용하여 전문가 검토와 사전테스트를 통하여 제작
하였다. 설문문항은 윤리관, 또는 윤리적 가치관으로 검색된 국내외 선행연구를 검토해
서 구성하였다.123) 이상주의와 상대주의에 대한 물음은 Forsyth(1992)의 EPQ 내용을
기반 한 임도빈(2003)의 연구를 활용하였다.124) 세부적인 문항은 이상적 기준(6문항), 상
대적 기준(6문항)으로 구성하였으며, 설문문항의 신뢰도를 높이기 위하여 전문가 2-3명
을 통하여 문항 타당도에 관한 의견을 교환한 후 설문지를 수정 및 보완하고, 대학생에
게 사전테스트를 실시하여, 설문 문항의 해독이 어려운 문항은 삭제하거나 수정하였다.
본 도구는 5점 척도로 점수가 높을수록 각각 이상주의적 윤리관과 상대주의적 윤리관이
높음을 의미한다. 본 연구에서 이상주의적 윤리관과 상대주의적 윤리관의 Cronbach's

123) 문영배, 이상봉, 「회계담당자의 윤리관이 이익조정인식에 미치는 영향」, 『산경논집』(2011),


pp. 155-180.
124) 임도빈, 「한국 공무원의 윤리적 특성에 관한 연구」, 『행정총론』, 제41권 2호(2003), pp. 1-29.

- 80 -
alpha는 각각 .743과 .679였으며, 그 내용은 부록에서 첨부하였다.

본 연구에서 생명의료윤리 의식 측정 도구는 권선주(2003)가 9개영역의 총 49문항으


로 구성한 생명의료윤리 의식 도구125)를 사용하였다. 세부적인 문항 구성은 태아의 생존
권 다섯 문항, 인공임신중절 여섯 문항, 인공수정 일곱 문항, 태아 진단 다섯 문항, 미숙
아생존권 다섯 문항, 안락사 다섯 문항, 장기이식 네 문항, 뇌사 다섯 문항, 인간생명공
학 일곱 문항으로 구성된 9개 영역 총 48문항이며, 하위 영역은 생식 윤리(인공수정, 인
공임신중절), 생존권 윤리(태아 및 미숙아 생존권), 진료 윤리(태아 진단, 장기이식, 인간
생명공학), 죽음 윤리(안락사, 뇌사)의 4가지로 나뉜다. 부정 문항은 역문항 처리 하였으
며, 4점 척도로 최저 49점에서 최고 196점의 범위로 점수가 높을수록 인간생명을 존중
하는 생명의료윤리 의식이 높음을 의미한다. 또한, 일차적으로 완성된 설문지를 부산소
재 대학에 재학 중인 대학생에게 사전테스트를 하였고, 설문 문항의 해독이 어려운 문항
은 삭제하거나 수정하고, 설문지와 함께 설문지 작성의 이해를 돕기 위한 용어의 정의를
기술하여 제공하였다. 권선주(2003)의 연구에서 전체 도구의 Cronbach's alpha는 .76
이었으며, 본 연구에서 하위 영역별 Cronbach's alpha는 생식 윤리 .69, 생존권 윤리
.71, 진료 윤리 .44, 죽음 윤리 .66이고, 전체 도구의 Cronbach's alpha는 .78이었으
며, 용어의 정리와 설문내용은 3장에 제시하였다.

본 연구에서 보건의료인과 보건의료계열 대학생의 인공지능기술 인식에 대한 문항은


인공지능관련 국내외 선행연구를 탐색하여,126)127)128) 이를 본 연구의 연구대상인 보건의
료인에 맞게 수정한 본 연구자의 도구를 사용하였으며,129) 해당 도구의 세부적인 문항은
인공지능기술에 대한 인식 정도를 비롯하여 인공지능 기술이 의료분야 전반에 미치는 영
향, 인공지능이 의료분야 직종에 미치는 영향과 관련된 속성으로 구성되었으며, 그 내용
은 3장에 제시하였다. 의료용 인공지능과 관련된 윤리적 기준에 대한 문항은 아래와 같
이 구성하였다.

125) 권선주, 앞의 논문, pp. 55-56.


126) 김장묵, 앞의 논문, pp. 53-60.
127) 이정원, 문형돈, 앞의 논문, pp. 1396-1397.
128) 한학진, 서정모, 앞의 논문, pp. 45-61.
129) 김진동, 앞의 논문, pp. 955-971.

- 81 -
<표 18> 의료용 인공지능에 대한 윤리적 기준

의료용 AI는 환자의 존엄성을 가장 중요하게 고려해야 한다.

의료용 AI는 모든 환자를 공평하게 대하는 것을 가장 중요


의료용 AI와 관련된
하게 고려해야 한다.
윤리적 기준
의료용 AI는 의료현장 전체의 복지를 가장 중요하게 평가해
야 한다.

3) 분석방법

본 연구에서 모든 통계적 자료는 SPSS 23.0 프로그램을 통해 분석하였고 통계학적


유의수준은 α=.05 이하로 설정하였다. 연구대상자들의 일반적 특성은 빈도분석과 기술
통계를 이용하여 산출하였고, 보건의료인의 윤리적 가치관, 인공지능기술에 대한 인식과
윤리적 기준의 차이는 independent t-test 로 분석하였다. 보건의료인의 윤리적 가치관,
생명윤리의식, 인공지능기술에 대한 인식과 윤리적 기준의 상관관계는 Pearson’s
correlation으로 분석하였다.

- 82 -
4. 보건의료인의 윤리관과 인공지능 인식

본 연구에서 보건의료인의 인공지능과 관련한 인식과 의료분야의 적용가능성, 인공지


능이 의료분야에 미치는 영향을 살펴본 결과는 다음과 같다.

1) 보건의료인의 윤리적 가치관

보건의료인의 윤리적 가치관의 결과는 아래의 표에 제시하였다. 보건의료인의 이상적


기준과 상대적 기준에 대한 평균은 각각 4.00점과 3.63점이었으며, 이상적 기준 점수가
상대적 기준 점수보다 높았다. 또한, 여성 보건의료인의 이상적 기준점수가 4.07로 남성
의료인의 3.82보다 통계적으로 유의미하게 높았으며(p<0.05), 성별에 따른 상대적 기준
점수에는 차이가 없었다.

<표 19> 보건의료인의 윤리적 가치관


남자 여자 전체
(N=77) (N=221) (N=298)
Mean ± SD Mean ± SD Mean ± SD

이상적 기준 3.82 ± 0.64* 4.07 ± 0.50 4.00 ± 0.55

상대적 기준 3.60 ± 0.67 3.64 ± 0.58 3.63 ± 0.61

*Significant different at the 0.05 level using student t-tests

개인의 윤리관에 있어 상대주의와 이상주의가 상대적인 개념이나 개인마다 상대주의와


이상주의 윤리관을 동시에 가지고 있을 수 있으며, 하나의 윤리관이 강하게 나타나면 한
쪽의 윤리관은 상대적으로 낮아지는 상대성이 나타날 수 있다.130) 본 연구에서도 보건의
료인들은 임상현장에서 윤리적 결정에 대하여 훈련되어 왔음에도 불구하고 윤리적 가치
관이 분명하게 확립하지 못한 것으로 보인다. 보건의료인과 대학생의 윤리적 가치관에
대한 선행연구의 결과를 살펴보면, 보건의료계열 대학생의 이상주의와 상대주의 윤리관
점수는 동일했고, 보건의료인의 이상주의가 상대주의 점수보다 높았으며, 보건의료인의
이상적 기준에 대한 점수가 대학생보다 유의적으로 높았다.131)

이러한 결과는 실질적인 임상현장에서 윤리적 결정에 대하여 훈련되어 온 보건의료인

130) 문영배, 이상봉, 앞의 논문, pp. 155-180.


131) 김진동, 김홍수, 앞의 논문, pp. 1247-1264.

- 83 -
과 비교하여 보건의료계열 학생들이 윤리적 가치관을 적립할 기회가 적음으로 인해 나타
났을 것으로 보았으나, 해당 연구에서도 보건의료인 역시 윤리적 가치관이 분명하게 확
립하지 못한 것으로 나타났다. 간호대학생의 윤리적 가치관을 알아본 선행연구에서도 윤
리적 가치관의 전 영역에서 간호대학생은 의무주의 경향을 보였으며, 간호사로서의 지켜
야할 윤리적 책무성을 중요하게 인식하고 윤리적 가치관은 어떤 상황에서라도 반드시 지
켜야한다는 의무주의적 사고를 하고 있다고 보고하였다.132)

2) 보건의료인의 인공지능과 관련된 윤리적 기준

보건의료인의 의료분야 인공지능과 관련된 윤리적 기준에 대한 결과는 아래의 표에


제시하였다. 본 연구에서 살펴본 의료분야 인공지능과 관련된 윤리적인 기준은 환자의
존엄성, 환자의 공평성, 의료현장의 복지에 대한 문항으로 구성되었으며, 환자의 존엄성
에 대한 점수가 4.30으로 가장 높았다. 또한, 남성 보건의료인의 환자의 공평성에 대한
점수가 3.9점으로 여성보다 통계적으로 유의미하게 낮은 것으로 나타났다(p<0.05).

<표 20> 보건의료인의 인공지능과 관련된 의료분야의 윤리적 기준


남자 여자 전체
(N=77) (N=221) (N=298)
Mean ± SD Mean ± SD Mean ± SD

(1) 4.20 ± 0.80 4.40 ± 0.80 4.30 ± 0.80

(2) 3.90 ± 0.90* 4.20 ± 0.80 4.10 ± 0.90

(3) 3.90 ± 0.60 3.90 ± 0.80 3.90 ± 0.80

*Significant different at the 0.05 level using student t-tests


(1) 의료용 AI는 환자의 존엄성을 가장 중요하게 고려해야 한다.
(2) 의료용 AI는 모든 환자를 공평하게 대하는 것을 가장 중요하게 고려해야 한다.
(3) 의료용 AI는 의료현장 전체의 복지를 가장 중요하게 평가해야 한다.

132) 김명숙, 앞의 논문, pp. 382-392.

- 84 -
3) 보건의료인의 윤리적 가치관과 인공지능 인식의 상관관계

본 연구에서 보건의료인의 윤리적 가치관, 생명윤리의식, 의료 분야에서 인공지능에


대한 윤리적 기준의 상관관계를 분석한 결과는 아래의 표에 제시하였다. 먼저, 보건의료
인의 윤리적 가치관, 생명윤리의식과 인공지능에 대한 인식의 상관관계를 살펴보면, 보
건의료인의 이상적 윤리관은 인공지능의 적용가능성(r=0.149, p<0.05)과 양의 상관관계
가 있었고, 인공지능으로 인한 일자리 감소(r=-0.126, p<0.05), 정확하고 차별화된 의료
서비스의 가능성(r=-0.147, p<0.05)은 유의적인 음의 상관관계가 있었다. 또한, 상대적
윤리관은 인공지능의 부정적 영향(r=-0.268, p<0.01)과 음의 상관관계가 있으며, 생명윤
리의식과 인공지능의 의료서비스 대체(r=-0.174, p<0.01), 정확하고 차별화된 의료서비
스의 가능성(r=-0.219, p<0.01), 감성적 업무는 인공지능으로 대체될 수 없음(r=-0.213,
p<0.01) 문항은 유의적인 음의 상관관계가 있었다.

또한, 보건의료인의 윤리적 가치관, 생명윤리의식과 인공지능에 대한 윤리적 기준의


상관관계를 살펴보면, 이상적 윤리관은 생명윤리의식(r=0.169, p<0.01), 인공지능 윤리의
존엄성(r=0.2426, p<0.01), 인공지능 윤리의 공평성(r=0.298, p<0.01)과 유의적인 양의
상관관계가 있었다. 또한, 상대적 윤리관은 생명윤리의식(r=-0.192, p<0.01)과 유의적인
음의 상관관계가 있었다. 또한, 인공지능 윤리의 존엄성과 공평성이 가장 높은 양의 상
관관계(r=0.513, p<0.01), 인공지능 윤리의 공평성과 복지는 음의 상관관계(r=-0.138,
p<0.01)가 나타났다.

- 85 -
<표 21> 보건 의료인의 윤리적가치관과 생명윤리의식, 인공지능(AI)에 대한 인식과
윤리적 기준의 상관관계
윤리관 윤리관 생명윤리의 AI 윤리 AI 윤리 AI 윤리
(이상적) (상대적) 식 (존엄성) (공평성) (복지)

(1) .149* -0.017 0.01 .343** .292** -0.085

(2) -0.011 -0.079 0.05 -0.029 -0.084 0.017

(3) -0.085 -.268** 0.103 0.025 -0.04 -0.048

(4) -0.016 -0.007 -0.095 .238** 0.096 0.048

(5) -0.008 0.051 -.174** 0.095 -0.065 0.082

(6) 0.1 -0.008 0.028 .143* 0.046 0.022

(7) -.126* -0.09 -0.101 0.002 -.198** -0.068

(8) 0.09 0.071 -0.016 -0.069 -.172** .161**

(9) -0.032 0.094 -0.041 -.131* 0.051 .198**

(10) -.147* 0.09 -.219** -0.035 -.117* .179**

(11) -0.113 0.056 -.213** -.149* -.183** -0.048

윤리관 (이상적) 1

윤리관 (상대적) .333** 1

생명윤리의식 .169** -.192** 1

AI 윤리 (존엄성) .242** 0.04 -0.022 1

AI 윤리 (공평성) .298** 0.001 0.023 .513** 1

AI 윤리 (복지) 0.026 0.079 -0.061 -0.077 -.138* 1

*Correlation is significant at the 0.05 level. **Correlation is significant at the 0.01 level,
(1) 현재 인공지능이 전반적인 산업분야에서 개발 중이다.
(2) 인공지능 기술은 의료분야에 긍정적인 영향을 줄 것이다.
(3) 인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다.
(4) 인공지능 기술에 대한 선재대응이 필요하다.
(5) 인공지능 기술은 의료분야 서비스를 대체할 가능성이 높다.
(6) 환자들은 인공지능보다 인적서비스를 더욱 선호 할 것이다.
(7) 인공지능으로 의료분야 일자리가 감소할 것이다.
(8) 고난이도나 단순 업무는 인공지능으로 대체가능 할 것이다.
(9) 인공지능으로 사라지는 직업만큼 새로운 일자리가 창출 될 것이다.
(10) 인공지능으로 정확하고 차별화된 의료서비스가 가능할 것이다.
(11) 감성이 요구되는 업무는 인공지능으로 대체 불가능할 것이다.

- 86 -
4) 보건의료인의 윤리관과 인공지능 인식

보건의료인은 임상현장에서 판단과 의사 결정에 있어 윤리적 해석과 가치관 정립이


시급히 요구되고 있다. 인공지능에 의한 보편적 자가의료 행위가 가능하게 된다고 하더
라도 이를 전체적으로 통제하며 윤리적 가치관에 대한 기준을 두고 이를 감시하고 책임
질 인간 의료인의 존재는 필요하다.133) 이에 보건의료인들은 인공지능 기술에 의하여 발
생 될 수 있는 윤리적인 갈등에 대응하여 올바른 윤리적인 가치 선택을 하기 위해서 이
상적인 윤리적 가치관이 확립되어야 하며, 이를 위한 지속적이고 체계적인 현장교육이
필요하다고 판단된다. 그러나 국내에서 이루어진 인공지능의 윤리와 관련한 연구들은 넒
은 범위의 보건의료인을 대상으로 한 연구는 부족한 실태이며, 보건의료인의 윤리적 가
치관과 새로운 인공지능 기술에 대한 윤리적 기준을 확인하고 비교한 연구는 매우 부족
한 실정이다.

본 연구에서 보건의료인의 윤리적 가치관에 대한 결과를 살펴보면, 보건의료인의 이


상적 기준과 상대적 기준에 대한 평균은 각각 4.00점과 3.63점이었으며, 이상적 기준에
대한 점수가 높았다. 먼저, 보건의료인의 윤리적 가치관, 생명윤리의식과 인공지능에 대
한 인식의 상관관계를 살펴보면, 보건의료인의 이상적 윤리관은 인공지능의 적용가능성
과 양의 상관관계가 있었고, 인공지능으로 인한 일자리 감소, 정확하고 차별화된 의료서
비스의 가능성은 유의적인 음의 상관관계가 있었다. 또한, 상대적 윤리관은 인공지능의
부정적 영향과 음의 상관관계가 있으며, 생명윤리의식과 인공지능의 의료서비스 대체,
정확하고 차별화된 의료서비스의 가능성, 감성적 업무는 인공지능으로 대체될 수 없음
문항은 유의적인 음의 상관관계가 있었다. 이러한 결과는 보건의료인의 이상적 윤리관이
높을수록 인공지능의 적용가능성에 대한 인식도가 높아졌고, 상대적 윤리관이 높을수록
인공지능의 부정적 영향이 낮아진다는 것을 의미한다. 또한, 이상적 윤리관은 상대적 윤
리관, 생명윤리의식, 인공지능 윤리의 존엄성, 인공지능 윤리의 공평성과 유의적인 양의
상관관계, 상대적 윤리관은 생명윤리의식과 유의적인 음의 상관관계가 있었다. 이러한
결과는 보건의료인의 이상적 윤리관이 높을수록 인공지능 윤리의 존엄성, 인공지능 윤리
의 공평성에 대한 인식과 생명윤리의식이 높았고, 상대적 윤리관이 높을수록 생명윤리의
식은 낮아진다는 것을 의미한다. 인공지능 윤리의 존엄성과 공평성이 가장 높은 양의 상
관관계, 인공지능 윤리의 공평성과 복지는 음의 상관관계가 나타났다.

개인의 윤리관에 있어 상대주의와 이상주의가 상대적인 개념이나 개인마다 상대주의


와 이상주의 윤리관을 동시에 가지고 있을 수 있으며, 하나의 윤리관이 강하게 나타나면

133) 정창록, 앞의 논문, pp. 143-156.

- 87 -
한쪽의 윤리관은 상대적으로 낮아지는 상대성이 나타난다고 보고했다.134) 보건의료인과
대학생을 대상으로 한 선행연구에서는 이상적인 기준의 윤리적 가치관이 높을수록 인공
지능의 적용가능성을 높이 인식하고, 인공지능이 환자의 존엄성과 공평성을 중요시하는
방향으로 가야한다고 보고 있는 반면, 상대적인 기준의 윤리적 가치관이 높을수록 인공
지능의 부정적인 영향은 적고 생명윤리의식도 낮아진다고 보고했다.135) 또한, 간호대학
생의 윤리적 가치관을 공리주의와 의무주의로 구분하여 그 경향을 알아본 선행연구에서
도 윤리적 가치관의 전 영역에서 간호대학생은 의무주의 경향을 보였으며, 간호사로서의
지켜야할 윤리적 책무성을 중요하게 인식하고 윤리적 가치관은 어떤 상황에서라도 반드
시 지켜야한다는 의무주의적 사고를 하고 있다고 보고하였다.136) 그러므로 이러한 결과
들은 보건의료인과 미래의 보건의료인을 준비하는 대학생이 인간의 가치와 존엄성을 옹
호해야하는 의무를 다해야한다는 것을 의미하므로 의료인의 수준에 맞는 윤리적 가치관
을 확립하기 위해서는 체계적인 교육이 필요하다고 보여진다.

실제로 국내 대부분의 의과대학에서 의료윤리 관련 인문사회과목이 개설되었고, 간호


학과를 비롯한 보건의료계열 학과에서 생명윤리가 포함된 교과목을 운영하고 있다.137)
보건의료 학계 및 교육현장에서도 새로운 4차 산업 기술로 인해 발생될 수 있는 윤리적
문제에 적합하게 대처할 수 있는 보건의료인을 양성하기 위한 노력이 시작되고 있는 것
이다. 교육 현장에서는 공청회 등을 통하여 시대적 흐름에 맞는 생명윤리 교육을 제공하
기 위한 시도가 이루어지고 있으며, 간호사 혹은 간호대학생을 대상으로 생명의료윤리
관련 연구를 수행했고,138)139) 간호대학생을 대상으로 도덕적 민감성과 윤리적 가치관이
생명의료윤리 인식에 미치는 영향을 보고한 연구도 시도되었다.140) 그러나 국내의 생명
의료윤리 관련 연구는 넒은 범위의 보건의료인을 대상으로 한 연구는 부족한 실태이며,
보건의료인의 윤리적 가치관과 새로운 인공지능 기술에 대한 윤리적 기준을 확인하고 비
교한 연구는 없는 실정이다.

또한, 국내에서 이루어진 인공지능과 윤리와 관련한 실질적인 연구들은 매우 부족한


실태이며, 보건의료인의 윤리적 가치관과 새로운 인공지능 기술에 대한 윤리적 기준을
확인하고 비교한 연구는 거의 없다. 하지만 이미 세계적인 인공지능 연구들은 이미 도덕
적 주체로서의 인공지능에 대해서 그 존재와 인식, 윤리원칙에 대한 논의가 이미 상당

134) 문영배, 이상봉, 앞의 논문, pp. 155-180.


135) 김진동, 김홍수, 「보건의료 종사자와 대학생의 윤리적 가치관, 생명윤리의식과 인공지능인식의 상관관
계 연구」, 『학습자중심교과교육연구』, 제20권(2020), pp. 1247-1264.
136) 김명숙, 앞의 논문, pp. 382-392.
137) I. Lee, op. cit, pp. 147-155.
138) 권선주, 앞의 논문. pp. 1-78.
139) 김인순, 앞의 논문, pp. 1-13.
140) 김명숙, 앞의 논문, pp. 382-392.

- 88 -
수준 진행되었다.141) 또한, 세계의사회와 대한의사협회도 인공지능과 관련한 윤리문제에
대응하기 위하여 대비해야 한다는 논의를 시작하고 있다. 본 연구에서도 지금까지 이루
어진 의료분야 인공지능 윤리에 대한 연구들을 바탕으로 인공지능 시대에 있어 환자와의
관계에서 결코 분리될 수 없는 의료인과 인공지능의 지위와 역할에 대한 윤리적 문제들
을 다루고자 한다. 하지만, 생명의료분야에서 제기하는 인공지능의 지위와 역할에 대한
문제는 도덕적 주체로서의 인공지능과 한계점에 대한 정확한 이해가 없이는 논의가 불가
능 할 것이다. 따라서 본 연구에서는 이어지는 장에서 4차 산업 혁명 이후 등장한 인공
지능의 윤리성에 최신 연구들과 이에 따른 윤리적인 문제들을 소개함으로써, 의료분야에
도입될 도덕적 주체로서의 인공지능에 대한 개념을 정립하고 그 한계점을 확인하고자 하
였다.

141) H. R. Na, & H. S. Kim, “Medical Ethics in the Era of Artificial Intelligence Based on
Medical Big Data”, The Journal of Korean Diabetes, Vol. 21(3), 2020, pp. 126-129.

- 89 -
V. 의료분야 인공지능의 윤리성 정립과 한계점

본 연구는 가속화되고 있는 인공지능의 의료현장 도입과 함께 나타나는 윤리 문제를


인공적 도덕 행위자로서 인공지능의 정립가능성과 그 윤리성 정립 방향 및 완전한 윤리
적 주체로서의 한계점에 대한 문제로 설정하고 풀어가 보고자 한다. 실제 의료현장에 도
입된 인공지능은 일종의 도덕적 판단의 상황에 직면하기도 하며 위에서 제기된 윤리적
상황들은 인공지능에게 도덕적 판단을 요구하기도 한다. 인공지능에게 도덕적 의사결정
이 요구된다면 이 도덕적 의사결정의 원칙과 규준 또한 정립되어 있어야 할 것이다. 이
는 마치 인간이 행위를 할 때 준거하는 도덕적 원칙과 규준이 있어야 한다는 것과 같은
의미라 할 수 있다. 다만 인간과 인공지능의 차이는 인간은 스스로 도덕적 원칙과 규준
을 찾고 정립할 수 있지만 인공지능은 인간에 의해 그 원칙과 규준을 학습하도록 설계
되어야 한다는 점이 다르다.

아울러 인공지능이 도덕적 주체로서 정립되기 위해서는 이러한 원칙과 규준을 일회적
으로 주입하기 보다는 지속적 학습 과정을 통하여 의료적 임상 결과들의 빅데이터를 갖
추어 향후 딥러닝과 머신러닝을 할 수 있도록 설계 할 필요가 있다. ‘하나의 도덕적 행
위는 스스로 자기 행위의 주체로 변형시키기 위해 자신에게 가하는 윤리적 작업의 지속
성, 다시 말해 시간의 집적을 통해서 의미를 가진다는 주장’142)에서는 우리 인간이 도덕
적 주체가 되기 위해서는 도덕적 행위의 지속적인 구축(構築)이 필수적이라는 도덕적 주
체에 관한 푸코(Foucault, Michel. 1926)의 견해를 통해 삶의 기술을 설명하고 있다.
우리는 이러한 도덕적 주체에 대한 학자들의 견해들을 통해서 향후 인공지능의 도덕적
주체 정립 과정들에 대한 방향을 살펴보아야 할 필요가 있다.

그러므로 본 장에서는 윤리적 주체로서 인공지능의 의미를 밝힌 후 인공지능의 윤리


적 주체정립 가능성의 근거와 한계를 논증하고, 생명의료 현장에서 인공지능이 윤리적
행위자로서 의사결정을 위해 학습해야 할 윤리적 원칙과 규준에 대해 탐구하고자 한다.
이를 위해 윤리학의 중요이론들을 살펴보고, 이 과정에서 인간이 실제 인공지능의 윤리
성과 관련하여 기대하거나 믿고 있는 바가 무엇인지를 실증적으로 탐구하여 인공지능의
윤리성을 위한 논증에 실질적 내용을 담보하고자 하였으며, 각 이론의 원칙과 규준을 논
증해보고자 하였다.

142) 조수경, 「미셸 푸코, 도덕적 주체와 삶의 기술」, 『한국윤리교육학회 춘계학술대회』(2019), p. 28.

- 90 -
1. 인공지능의 윤리성

1) 준자율적인(semi-autonomous) 윤리적 주체로서의 인공지능

윤리적 주체란 자발적으로 도덕적 판단을 하고 그에 입각하여 윤리적 행위를 하는 주


체이다. 지금까지 인류 역사에서 윤리적 주체는 자신의 행위에 책임을 질 수 있는 존재
로서 인격적인 존재로 한정되었으며, 이러한 도덕적 행위자가 되기 위한 요건으로 이성
과 자유의지, 의식과 같은 엄격한 기준을 제시했다. 도덕 행위자는 전통적으로 도덕주체
의 공동체에 누가 포함되는지를 결정하는 배제적 결정의 문제와 연관되어 있기 때문에
오랜 기간 동안 도덕주체는 인간으로 불리는 존재로 국한되었으며, 인류 역사는 어떤 의
미에서 도덕 행위자의 외연 확장에 대한 도전에 대해 저항해 왔다고 말할 수 있다.143)
우리나라에서도 포스트 휴먼의 관점에서 인공지능과의 공존의 윤리학을 새롭게 규명하
고 있는 인공지능의 존재론144)에 이어 인공지능의 윤리학을 논하는 책을 출간했다. 인공
지능의 존재론에서는 인공지능의 공학적 관점에서 시작하여 윤리적 존재로서 인격적 지
위가 부여될 수 있는지 동서양의 철학적 관점에서 검토하였다. 가장 큰 특징은 인공지능
은 인간들이 가진 사회적 직관이 없고 자연에서 만들어진 몸도 없기 때문에 책임과 권
리의 주체가 될 수 없다. 따라서 자율성을 부여할 수 없다는 것이다. 자율성을 부여하기
위해서는 관계적 자율성을 논할 수 있는데, 인공지능이 가진 빅데이터에 대한 자체 분석
기능을 통해 사회적 관습과 규범, 다양한 맥락적 사회관계를 반영한 자율적 행위가 가능
하다는 것이다. 인공지능의 윤리학145)에서는 인공지능과의 공존을 위한 윤리학에 대한
심도 깊은 논의, 구체적으로 책무성 중심의 인공지능 윤리학과 또 다른 타자로서의 인공
지능에 대한 논의를 시작했다. 이는 인공지능에게 제한된 자율성을 부여하고 새롭게 책
임을 지우는 방식으로 4)장에서 구체적으로 논의를 진행할 예정이다.

윤리는 보편적인 행위 기준이 되며, 따라서 개개인의 주관적 가치인 도덕보다 일반


사회 규범의 성격을 띤다. 하지만 윤리에 의한 가치관이라는 것은 가변성을 가지고 있기
때문에 장소와 시점에 따라 변화할 수 있어 어떠한 행위가 윤리적인가 하는 질문에 대
한 대답은 시대와 환경에 따라 그 윤리적 기준을 명확하게 제시하기 어려운 경우가 많
다. 아래의 표와 같이 전통적으로 윤리적 행위의 기준에 대한 이론은 결과주의와 행위주
의가 있으며, 이후 덕윤리, 예치의 윤리, 책임윤리 등이 등장하였다. 이러한 윤리적 원칙
에 대한 자세한 내용은 생명의료윤리와 전통적인 윤리적 원칙에서 다시 다루고자 한다.

143) 신상규, 「인공지능은 자율적 도덕행위자일 수 있는가?」, 『철학』, 제132권(2017), pp. 265-292.
144) 이중원 외, 『인공지능의 존재론』(한울아카데미, 2018), pp. 81-136.
145) 이중원 외, 『인공지능의 윤리학』(한울아카데미, 2019), pp. 223-263.

- 91 -
<표 22> 행위의 윤리성 판단에 대한 이론

구분 내용

수단과 방법을 불문하고 결과적으로 최대의 행복을 가져오는 행위


라면 옳고 정당하다고 보는 윤리 이론이며, “최대 다수의 최대 행복
결과주의
(the greatest happiness for the greatest number)”이라는 공리주
의적 정의론에 근거

어떤 행동의 도덕성 및 정당성은 행위 그 자체로 이미 명백하기 때


동기주의
문에 결과가 아닌 의무동기가 중요

행위자의 품성에 따라 도덕적 행동이 결정되며 구체적인 상황과 맥


덕윤리 락 및 인간관계를 고려해 윤리성을 판단하여 평소 공동체 생활에서의
미덕을 중시하는 삶을 강조

의무윤리와 덕윤리가 상호 보완하는 가운데 도덕적 상상력과 창의


예치의 윤리
성을 수용하면서도 규칙에 기반 한 의무 윤리가 갖는 현실성도 차용

현대과학기술 기반의 행위들은 그 규모와 대상, 결과가 너무 새롭


책임윤리 기 때문에 기존의 전통 윤리학의 틀에서 파악될 수 없으므로, 미래학,
두려움, 겸손, 검소함, 절제와 같은 새로운 가치가 필요

출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 13 인용.

그러나 앞선 장에서 언급한대로 인간 수준의 인지 능력과 기능을 갖춘 인공지능은 인


간에게 조종을 받지 않으면서 스스로 도덕적 판단을 내려야 할 정도로 복잡한 수준에
다다르고 있다. 이로 인해 도덕 행위자의 범위는 인간을 넘어 인공지능 시스템으로까지
확대되고 있으며, 이러한 인공적 도덕 행위자(artificial moral agent)로서 인공지능의
설계를 위한 윤리적 측면의 고려사항에 대한 연구들이 활발하게 이루어지고 있다.146) 이
러한 연구들은 인공지능이나 인공지능을 탑재한 로봇이 현실에서 당면하는 여러 선택사
항에 대하여 어느 것이 윤리적으로 받아들일 만한 것인지 스스로 평가하는 능력을 갖게
되기를 바라며 시작되었다.

앞서 언급한 데로, 인공지능이 도덕적 주체가 된다는 것은 인간에 의해 프로그램화된

146) 목광수, 「보건의료 빅데이터의 윤리적 활용을 위한 방안모색: 동의가 아닌 합의 모델로의 전환」, 『한국
의료윤리학회지』, 제22권 1호(2019), pp. 1-19.

- 92 -
도덕적 판단을 인간 대신에 할 수 있고 그에 따라 의사결정이라는 행위를 수행한다는
의미가 된다. 인공지능은 인간과 달리 도덕적 판단에는 일정한 목적이 있다. 인간에게는
올바른 행위를 위한 판단이 바로 도덕적 판단이다. 그러므로 도덕적 판단은 올바름 자체
를 구현하기 위한 것이라 할 수 있다. 그러나 인공지능에게는 올바름 자체가 아니라 인
간에 의해 프로그램화된 무엇을 위한 올바름으로 나타나야 한다. 인공지능은 자신이 아
닌 인간을 위한 행위와 판단을 하는 것이기 때문이다. 그러므로 인간과의 관계에서 입력
된 도덕적 판단의 주체로서 인공지능이 성립하게 된다.

윤리적 주체와 인공지능에 대한 연구들은 대체로 윤리적 주체로서의 인공지능을 도덕


적 의사결정자로서의 인공지능과 동일시하면서 논의를 진행하고 있다. ‘인공지능과 포스
트휴머니즘’에서는 인간과 인공지능이 공존할 포스트휴머니즘 시대를 모색하고, 우리는
인간과 인간 아닌 것들의 경계가 명확하고 인간과 동물, 인간과 자연, 인간과 기계의 모
든 관계가 인간 중심적 관점에서 언급되던 인간중심주의 시대에서 벗어나 인간과 비인간
의 연결, 동맹, 공생을 모색해야 하는 포스트휴머니즘 시대로 접어들고 있다는 관점에서
인공지능을 접근하고 있다.147) 즉, 인공지능은 그 자체가 어떤 목적을 가지고 세계를 구
성하는 실존적 존재자로서 인간과 복잡하게 연결된 관계망 속에서 사회를 구성하는 하나
의 행위자로 인정되며 객체가 아니라 주체적 존재로 인정받는다는 것이다. 하지만 인공
지능이 제기하는 수많은 윤리적인 이슈들을 정리한 ‘인공지능 AI로봇 프로젝트’에서는
윤리적 인공지능을 위한 윤리를 다루며, 그로 인해 발생하는 윤리적인 문제들에 대해 고
려하는 기초를 마련하고자 했다.148) 여기에서 인공지능은 인간이 허용한 범위 안에서 주
어진 환경을 인식하고, 대안을 찾으며 최선의 결정을 수행하는 제한되고 준자율적인
(semi-autonomous)149) 대상으로 한정된다.

이와 관련하여 본 연구에서는 도덕적 의사결정자로서의 인공지능과 윤리적 주체의 동


일시에 대한 선행연구의 검토를 통해 동일시의 합당성을 확인하고 그 한계와 의미를 보
다 분명히 하고자 하였다. 다시 말하면 인공지능이 인간과 달리 직접 도덕적 행위를 하
기 보다는 의사결정에서 도덕성을 담보하거나 발휘할 수 있을 뿐이라는 점에 근거하여
인공지능이 가질 수 있는 도덕적 의사결정 가능성의 근거를 찾아 도덕적 주체로서의 정
립가능성과 그 제한점을 탐색하고자 했다.

147) 이중원 외, 『인공지능과 포스트휴머니즘』(이학사, 2020), pp. 5-16.


148) 변순용, 『인공지능 AI로봇 프로젝트』(어문학사, 2019), p. 6.
149) 송선영, 앞의 논문(2017b), p. 59

- 93 -
2) 인공지능의 도덕적 판단 능력

인공지능이 도덕적 주체가 되기 위한 첫 단계는 도덕적 판단의 가능성을 확보하는 일


이다. 인공적 도덕 행위자(artificial moral agent)의 윤리적 주체화에 대한 연구자들도
인공지능의 능력 수준을 인간의 지적 수준에 어느 정도 부합하도록 설계하는가에 대한
문제로 논증을 시작하고 있다. 이것은 인공적 도덕 행위자에게 어느 정도의 자율성과 결
정을 할 수 있는 주도권을 가지도록 인공지능의 수준을 설계할 것인가를 내포하는 문제
인 것이다.

인공지능 시대에 맞는 도덕 행위자의 개념을 제시하고자 한 플로리디와 샌더스(L.


Floridi & J.W. Sanders)는 전통적인 윤리적 행위자에 대한 규정의 재정립을 시도했
다.150) 이것은 어느 정도의 수준에서 인공지능을 윤리적 행위자로 규정해야만 인공 지능
이 과연 인간과 동등한 수준의 윤리적 판단을 할 수 있는지에 대해 의문을 제기할 수
있고, 모든 윤리 행위자가 인간과 같은 수준일 필요는 없으며, 인공적인 도덕 행위자가
윤리적으로 판단할 수 있도록 만드는 것 자체로 대단히 중요한 문제이기 때문일 것이다.
이를 위하여 플로리디와 샌더스는 도덕적 행위자의 전통적인 개념인 상호작용성
(interactivity), 자율성(autonomy), 적응성(adaptability)을 인공 행위자에 부합하도록
재정립하고, 도덕적 행위자에 대하여 도덕적이라 평가될 수 있는 행동을 수행할 수 있는
상호작용적, 자율적, 적응적인 전이 시스템이라고 대안적 정의를 제시했다.

또한, 제임스 무어(James Moor)는 도덕 행위자를 그 수준에 따라 4단계로 구분하


고151), 가장 낮은 수준의 1단계는 윤리적 영향 행위자(ethical impact agent)라고 분류
했다. 여기에는 인간이 하는 위험한 일을 대신하는 로봇과 같이 윤리적인 의미를 갖는
결과를 유발하고 평가될 수 있는 모든 기계가 포함되었다. 2단계는 암묵적 윤리 행위자
(implicit ethical agent)로써, 부정적인 윤리적 결과가 발생하지 않도록 제한적인 통제
하에 설계된 기계들을 말하며, 이러한 윤리적 영향 행위자나 암묵적 윤리 행위자는 정통
적으로 설계자나 사용하는 사람의 통제 안에서 작동하는 영역이다. 3단계는 명시적 윤리
행위자(explicit ethical agent)는 윤리적 범주가 포함된 시스템을 통하여 윤리적 추론이
나 평가를 할 수 있도록 프로그래밍 된 도덕적 행위자를 포함한다. 그리고 마지막으로 4
단계는 완전한 윤리행위자(full ethical agent)라고 불리며, 인공적 도덕 행위자가 도덕
적 판단을 내리며, 스스로의 결정에 대한 정당성을 부여하는 수준에 해당한다. 제임스

150) L. Floridi & J. W. Sanders, “On the morality of artificial agents”, Minds and machines, Vol.
14(3), 2004, pp. 349-379.
151) J. Moor, “Four kinds of ethical robots”, Philosophy Now, Vol. 72, 2009, pp. 12-14.

- 94 -
무어의 4단계 분류에 따라 윤리적 주체로서의 인공지능을 도덕적 의사결정자로서의 인
공지능과 동일시할 수 있는가에 대한 문제를 고려해야하는 수준은 3단계인 명시적 윤리
행위자로 판단된다.

이렇듯 윤리적 주체로서의 인공적 도덕 행위자에 대한 연구들은 로봇이 단순한 기계


라는 전통적인 개념에서 벗어나는 수준으로 발전하면서 인공지능 시대에 맞는 도덕적 행
위자의 범위에 대해 이해의 폭을 넓혀야 할 필요가 있으며, 인공적 도덕 행위자에게 윤
리적인 규범을 제안하기 위해서는 먼저 윤리적 객체로서 그들을 인정해야 한다고 제안하
고 있다.152) 이러한 주장은 학자들의 도덕적 지위 논의에 의하여 인공적 도덕 행위자를
준자율적인(semi-autonomous) 도덕적 행위자로 인정한다면, 상호작용성(interactivity)
에 의해 윤리적 대우를 받을 자격이 있다는 데에서 출발하고 있다. 우리나라에서도
2017년 7월 더불어민주당 박영선 의원이 발의한 ‘로봇기본법’은 로봇에게 전자적 인격체
로서의 지위를 부여하는 내용을 담고있다. 로봇 기본법은 로봇을 ‘전자적 인격체’로 인정
하고 책임과 권리, 의무를 부여하고 있다.

<표 23> 로봇기본법의 주요내용

로봇기본법의 주요내용

Ÿ ‘전자적 인격체’로서 로봇의 지위를 인정하고, 책임과 권리, 의무를 부여


Ÿ 로봇에 의해 손해가 발생한 경우, 책임 부여 및 보상 방안과 관련된 정책 마련
Ÿ ‘로봇윤리규범’에 관한 사항 및 로봇 설계자・제조자・사용자가 준수해야할 윤리원칙
규정
Ÿ 국무총리 소속의 국가로봇윤리・정책위원회 설치하고, 국가로봇정책연구원을 설립하
여 로봇공존 사회의 도래에 따른 사회 각 분야의 미래변화를 예측하고 대응할 수
있는 체계 마련
Ÿ 사회적 약자들이 로봇과 로봇기술 이용의 기회를 누릴 수 있는 대책 마련
Ÿ 로봇의 제조사가 로봇의 결함으로 손해를 입은 자에게 배상해야 하며, 정부는 이용
자의 권익보호를 위한 시책 마련
Ÿ 로봇등록제 시행

출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 111 인용.

그렇다면 이제 환자와 대면하여 환자의 생명에 대한 의사결정을 해야 하는 인공적 도

152) 목광수, 앞의 논문, pp. 1-19.

- 95 -
덕 행위자로서 의료용 인공지능의 도덕적 판단 능력은 어느 정도의 수준으로 설계되고
있으며, 그 윤리적 기준은 어떻게 정립되고 있는지에 대해서 논의해야 할 시점이다.

3) 생명의료분야의 인공적 도덕 행위자

인공지능은 그 실체가 존재하지 않는 소프트웨어이다. 그렇기 때문에 목적에 따라 기


능이 탑재되고 인간과 유사한 활동을 하는 주체로까지 설계될 수 있다. 앞선 장에서 언
급한 바와 같이, 생명의료분야에서 인공지능은 이미 의사만이 할 수 있었던 진단이라는
의료 행위를 위한 보조 역할을 수행하기 시작했다. 특히, 데이터화 및 반복적인 패턴에
따른 비교분석이 쉬운 방사선 사진, MRI 등의 영상을 판독해 진단정보를 제공하는 모델
의 경우 머신러닝이 발전하던 초기단계부터 인공지능에 의한 의사의 부분적 내지는 완전
대체가능성이 높은 영역으로 꼽혀왔고 현재도 가장 활발하게 상업화가 진행 중이다. 그
렇다면 우리는 실제 의료 현장에서 의료인과 환자가 대면해야 하는 의료용 인공지능의
존재론적 특징을 확인하고 인공적 도덕 행위자로서의 인공지능의 지위에 대하여 재정립
해야할 필요가 있다.

본 연구에서는 의료용 인공지능의 목적이 환자의 복리를 우선으로 해야 한다고 전제


한다. 그렇기 때문에 전자인간 의사는 일반적인 인공지능과는 다른 존재론적 특징이 나
타날 수 있다. 지금까지 인공지능이 인간의 영역에 범접할 수 없다는 기준을 정하는 데
에 있어서 지표로 설정해 온 것은 자기목적성이라는 칸트의 인간지능에 대한 정의였다.
인간은 “어떤 법칙의 표상에 따라 자기 자신의 행위를 규정하는 능력”이 있으므로 스스
로 문제를 판단하고 해결하지만, 인공지능은 인간 설계자가 그 문제를 규정하고 설정해
주어야 한다는 것이 제한적이라는 것이다. 하지만, 의료용 인공지능은 환자의 생명과 복
리라는 하나의 목적을 위해 설계될 것이므로 이러한 목적을 가진 전자인간 의사의 목적
지향성은 다른 인공지능의 영역보다는 분명하다.

의료용 인공지능과 환자의 관계에 대한 연구에서는 환자에 대한 배려와 보호를 목적


으로 한 인공지능의 네 가지 존재론적 특징을 다음과 같이 설명하고 있다.153) 첫째, 의
료용 인공지능은 환자의 배려와 보호를 위한 기계적 도구이며, 의사의 통제 하에서 최소
수준의 침습적 의료행위를 하는 기계를 포함한다. 둘째, 일정한 윤리적 수준을 가진 의
료용 인공지능은 목적이 인간의 선을 실현하기 위한 것이므로, 그 목적 자체에서 윤리적
의미를 확인할 수 있다는 것이다. 셋째는 도덕적 행위자로서의 인공지능의 존재를 의미

153) 송선영, 앞의 논문(2017b), pp. 49-76.

- 96 -
하고, 이러한 도덕적 행위자로서의 의료용 인공지능을 크게 의사의 통제에 따라 의료 행
위를 수행하는 환자에 대한 도덕적 대리인의 특징을 가진 형태와 설계된 범위 안에서
환자와 직접 소통하는 자율적 도덕적 행위자의 형태로 구분했다. 그리고 마지막으로 넷
째, 현존하지 않는 새로운 종으로서 자율성, 양심, 도덕적, 지적 측면을 모두 갖춘 인공
지능을 제시했다.

<그림 8> 의료용 인공지능의 존재론적 특징

출처 : 송선영, 「의료용 케어로봇과 환자 간의 서사와 공감 관계의 가능성」, 『인간· 환경· 미래』, 18호
(2017), p. 58 인용.

의료분야를 대상으로 “도덕적 주체로서의 인공지능과 윤리적 원칙”에 대한 논의를 제


시한 연구들에서는 구체적인 인공지능 로봇의사의 의료윤리 지침154)에 대한 논의를 시작
했다. 그 중에서도 인공지능로봇을 통한 의료의 도덕형이상학적 모색에 대한 연구155)에
서는 자율적 특성을 가지는 도덕과 윤리에 관한 덕론과 강제적 성격을 갖는 법에 관한
법론을 기반으로 한 칸트의 도덕형이상학을 통하여 의료분야 인공지능에 있어 도덕적 주
체에 대한 모색을 시도했다. 또한, 의료분야에서 실질적으로 이용되고 있는 수술 로봇에
대한 윤리적 쟁점을 논한 윤리연구에서는156) 수술의 전 과정 또는 일부에서 의사를 대

154) 맹주만, 앞의 논문, pp. 271-308.


155) 정창록, 앞의 논문, pp. 143-156.
156) 송선영, 변순용, 앞의 논문, pp. 183-202.

- 97 -
신하거나 함께 작업하는 로봇의 존재를 도덕적 행위자(moral agent)로서 제시하며, 의
사의 명령에 따라 수술을 직접 시술하는 행위자(agent)로서 수술 로봇은 환자에 대한 도
덕적 대리인으로서 지위를 갖는다고 하였다.

2017년 1월 12일 이루어진 유럽연합(European Union, EU)의 전자인간(electronic


person)에 대한 인공지능로봇 결의안 발표는 인공지능을 탑재한 로봇을 전자인간으로
인정한다는 결의안으로서, 향후 인공지능 로봇의 제작과 설계에 대한 주요 원칙뿐만 아
니라 비상상황에 있어 이에 대한 작동을 멈추는 ‘킬 스위치’ 탑재를 의무화한 첫 번째
원칙을 제시한 것이다. 그리고 이러한 구체적인 인공지능에 대한 가이드라인은 의료분야
에서 설계해야 할 전자인간 의사에 기대하는 윤리적 판단능력과 그러한 전자인간 의사를
설계하기 위한 방법론에 대한 논의를 제안하며, 실제 전자인간 의사에게 문제가 발생했
을 시 ‘킬 스위치’를 작동해야 하는 인간 의사의 역할에 대해서도 논쟁을 재촉하고 있
다.

4) 인공지능의 자율적 도덕행위자로서 한계와 책무

인공지능에 대해 전자인간으로 인정한 유럽연합 결의안 주요 내용은 인공지능 로봇이


누릴 수 있는 자율적 권리나 자격보다는 인공지능으로 인해 발생할 수 있는 일종의 책
임이나 의무를 법적으로 규제하기 위함이라고 볼 수 있다. 전통적으로 서양의 도덕철학
에서 책임문제는 인간에게만 부가되었다. 인간만이 자유의지를 가지고 행동할 수 있으
며, 이런 자율성에 바탕을 둔 인과관계로 책임을 물을 수 있다는 것이다.

칸트(Immanuel Kant)는 책임과 자유의 불가분의 관계를 강조하면서, 자유를 바탕으


로 도덕적 책임을 정당화 한다.157) 지금까지 철학사에서 자율성, 또는 자유의지 개념은
인간의 고유 속성으로 간주되었다. 그리고 우리나라에서는 인간이라 하더라도 만 14세
미만이거나 심신상실자로 온전한 자율적 판단이 불가능한 대상일 경우 법적으로 범죄사
실이 있더라도 감형하거나 무죄판결을 내리는 경우도 많다. 즉, 자율성은 책임의 전제조
건이라고 볼 수 있다.

여기서 우리는 인공지능기기는 자율적 권리를 가질 수 있는지, 그리고 행동의 책임을


지울 수 있는 대상인지에 대한 물음에 관심을 가질 수 있다. 행동과 판단의 자율적 권리
가 없다면 책임을 묻기도 쉽지 않은 게 현실이기 때문이다. 먼저 자율주행자동차를 예를
들어 자율성의 특징을 공학적 의미와 윤리적 의미로 나누면, 공학자들이 추구하는 인공

157) http://plato/stanford.edu/entries/kant-maral/(이중원, 『인공지능의 윤리학』, p.225 재인용.)

- 98 -
지능의 자율성 특징은 인공지능이 얼마나 사물인식에 정확하고 안정적인지, 경제적인지,
효율성은 높은지, 편리한지, 기술적으로 견실한지에 관한 것들이 갖추어진 상태일 것이
다. 그리고 이러한 조건들이 인간의 개입 없이 독립적으로 자신의 행동을 판단하고 결정
하는 것이다. 하지만 윤리학자들이 중요하게 생각하는 자율성은 자율주행 인공지능이 복
잡한 윤리적 결정을 요구하는 충돌사고와 같은 딜레마에 빠졌을 때 자동차를 미리 어떻
게 제어할 것인지, 다양한 운전 환경 속에서 나타나는 긴급한 상황에서 피해를 최소화하
기 위한 가치판단을 스스로 얼마나 잘 해낼 수 있는지, 이러한 것들을 어떤 결정 원칙에
따라 스스로 해결해 냈는지, 등에 있을 것이다.

따라서 가까운 미래 인공지능은 기술적, 공학적으로는 자율성을 갖출 수 있을지라도


윤리적으로 자율성을 갖추기에는 분명한 한계가 있다. 우리는 흔히 사용하는 내비게이션
(navigation)이 비롯 잘못된 길로 안내하여 운전자가 사망한 사건158)이 있었지만, 내비
게이션 기술 개발자나 생산자에게 그 책임을 묻지 않는다. 오히려 현재 내비게이션은 대
중화되어 스스로 정체구간을 파악하고 이동경로를 재설정하며 운전자의 편의를 위해 인
공지능의 기능을 충실히 하고 있다. 현재 인공지능은 기술적으로도 완벽하지 않고 올바
른 윤리적 판단을 내리기에도 그 능력이 부족한 실정이다. 따라서 인공지능과 관련된 책
임은 지금껏 인간에게 부여되어 왔고 향후에도 사용자에게 부가될 가능성이 매우 높다.

하지만 현재 개발되고 있는 인공지능기기는 유럽연합에서 전자인간으로 규정할 만큼


인간과의 깊은 상호작용을 통한 사회 행위자의 한 주체로 인정받아 가고 있다. 인공지능
의사 왓슨, 인공지능판사 콤파스, 정서기반 공감 돌봄로봇 등 인간과 밀접히 매우 중요
한 일들을 처리하거나 도와주는 역할을 하고 있어 언제든지 도덕적, 법적 문제가 발생할
수 있고 심각한 문제 발생시 그 피해는 고스란히 또 인간에게 돌아갈 가능성이 높다.

우리는 애완견을 반려견이라 부르며 한 가족의 구성원으로 인정하는 가정이 늘어나고


있다. 새로운 가족 구성원으로서의 반려견도 과거 들판에서 살아가던 늑대의 후예였다는
점을 생각하면 인간과의 정서적 유대관계가 우리가 살아가는데 얼마나 민감하며 중요한
일인지 알 수 있다. 이것이 동물이든 기계이든 우리 인간에게 사회적으로 혹은 도덕적으
로 의미를 갖고 인간의 생활 깊숙이 점점 더 확장하며 영향을 미친다면 사회적 관계의
맥락 안에서 이루어진 ‘준-인격체’로서 인간들은 이들을 대우할 가능성이 매우 높다.

따라서 인공지능은 일정한 목적을 위한 도구적이고 수단적인 차원의 기기이지만, 때


로는 인간의 서사를 공유하며 도덕성을 담보하거나 발휘하는 ‘준 자율성’159), 또는 ‘조건

158) 서울신문(2010.10.05.),‘죽음의 길 안내하는 내비게이션은 저승사자’,


http://nownews.seoul.co.kr/news/newsView.php?id=20101005(2021.05.21. 접속)

- 99 -
적 자율성’160)을 갖추어 현재 인간의 감성이나 의사결정 과정에 깊이 개입하고 있다. 현
재 대량생산을 앞둔 로봇 소피아는 감정표현과 소통을 위해 조건화된 인공지능 로봇이
다. 2016년 3월 홍콩 핸슨 로보틱스에서 제작되어 2018년 한국에서 그 능력을 선보인
바 있다.161) 이러한 인공지능형 로봇은 우리 인간들이 지녀왔던 수많은 상호 경험과 그
경험을 통해 반복적으로 재창출된 데이터를 지니고 있다. 아울러 현재는 인간과의 상호
작용에서 스스로 경험을 만들고 언어와 표정으로 대화를 이어가고 있어 인간이 설정한
범위를 벗어나서도 활동하고 있다. 소피아는 의료보조인, 자폐증 환자 돌봄, 암 치료 등
을 위해 개발되었지만 미국 토크쇼에서 “스스로 세상을 곧 지배할 것”이라는 가벼운 대
화는 소피아와 환자와의 밀접한 치료적 관계를 위해 기술개발을 책임지는 관계자들에게
큰 고민을 던져 준 바 있다.

그럼 인공지능에게는 그 책임을 어떻게 물을 수 있을까? 진정한 자율적 행위자는 아


니지만 현재의 인공지능은 내재하는 자율성보다는, 인간 사회와 관계 또는 인간들 사이
의 사회적 관계에 대한 패턴 인식을 통한 ‘관계적 자율성’을 맺고 있다162). 따라서 뛰어
난 상호작용성과 유사한 자율성을 가진 또 다른 타자로서-자율적 도덕적 행위자는 아니
더라도-피동자의 위치에서 도덕적 이해관계를 갖기 때문에 도덕 행위자가 행위를 함에
있어 행위자, 혹은 제 3의 존재에게 미치는 영향을 고려하여 보편적 책임에 준하는 제도
적 장치를 갖추어야 한다. 즉, 인공지능 시스템의 오류로 인한 의료사망사고의 경우 책
임의 영역을 확장 및 분산하여 의료기기 사용자, 설계자, 제작자, 판매자뿐만 아니라 인
공지능기기까지 이루어져야 한다는 것이다.

인공지능의 책임 대해서는 정확하게 말하면, 단순한 응보의 개념인 책임 대신, 마땅


히 수행해야 할 의무와 역할로서의 ‘책무(accountability)’를 지우는 것이 더 합당할 것
이다.163) 이러한 책무성은 인공지능 시스템으로 인해 사고가 발생했을 때, 어떤 규칙이
나 규범들을 준수했는지, 어떤 과정을 통해 오류가 나타났는지를 설명할 수 있어야 한다
는 것이다. 즉, 인공지능 시스템이 갖춘 정보들의 빅데이터는 공정하고 충분히 갖추어졌
는지, 이 중 어떤 근거에 의해서 그러한 행위를 최종 선택하게 되었는지, 그 설계 과정
을 투명하게 제시할 수 있어야 한다는 것이다. 특히, 행위를 판단하기 위한 규칙이나 규
범, 원칙들은 무엇이었고 제대로 준수했는지에 대한 설명도 포함해야 한다. 이런 책무성

159) 송선영, 앞의 논문(2017b), p. 59


160) 송선영, 「로봇과 인공지능 시대의 시민윤리와 도덕교육적 함의」, 『윤리연구』, 115호(2017), p. 145.
161) SBS 뉴스(2018.01.30.), “인공지능 로봇 소피아, 한복 입고 한국 첫선”, https://news.sbs.co.kr/
news/endPage.do?news_id=N1004598739&plink=ORI&cooper(2021.06.10. 접속)
162) 이중원 외, 『인공지능 윤리학』(한울엠플러스, 2019), p. 226.
163) 이중원 외, 앞의 책, p. 247.

- 100 -
의 부과는 인공지능의 해악에 대해 책임을 묻는 일보다 사회적, 도덕적으로 보다 자연스
럽게 통용 가능할 것이다. 이러한 책무성의 부과 내용은 인공지능 기술이나 기기의 도입
에 앞서 공학자, 윤리학자 등 다양한 분야의 전문가가 모여 인공지능 기술과 윤리성에
대한 연구와 공청회 등으로 엄격하게 세부적인 안건을 갖추어 가야 할 것이다.

향후 본 논문에서 전개할 인공지능의사의 역할에서도 환자와 인간 의사에 대한 책무


의 역할을 강조할 것이다. 이러한 책무성을 바탕으로 인공지능의사가 의료적, 도덕적 판
단을 위해서 갖추어야 할 원칙과 기준들에 대해 강조하고, 아울러 개별 임상 사례 적용
시에 예상되는 결과와 인공지능의사-환자-인간의사 간의 협업과정에서 중요하게 다루어
야 하는 쟁점에 관해서 서술할 것이다.

2. 인공지능의 윤리적 원칙과 제언

도덕적 행위자의 도덕적 판단에는 원칙이 작용한다. 어떤 도덕적 원칙을 적용하느냐


에 따라 그 판단이 달라질 것이다. 윤리학에서 다루는 도덕에 관한 이론이 바로 이 원칙
을 설명하기 위한 이론이라 할 수 있다. 의료관련 인공지능의 기기를 개발하는 공학자는
인공지능기기가 도덕적 행위자로서 스스로 다양한 윤리적인 선택의 상황에 놓일 수밖에
없다는 것을 잘 알고 있을 것이다. 주어진 전통적인 윤리기준에 따라 설계하여 착하고
실용적인 인공지능기기를 제작하는 것도 중요하지만, 인공지능 기술의 알고리즘 설정에
있어서 무엇보다도 생명의료윤리를 기반으로 환자의 존엄성과 공평성과 같은 새로운 윤
리적 원칙을 세우고 알고리즘을 설정함에 있어 적극적으로 고려하는 것도 매우 중요하다
고 판단된다. 따라서 이와 같은 인공지능기기의 윤리기준 설정을 위한 체계적이고 광범
위한 연구가 지금부터는 반드시 이루어져야 한다.

본 장의 핵심주제는 환자의 복리를 우선하는 도덕적 행위자로서의 인공지능을 설계하


기 위해서 어떤 도덕적 원칙을 적용할 것인가와 그 적용을 위한 원칙의 탐구이다. 그러
므로 생명의료윤리라는 범위를 설정하고 생명의료윤리에서 말하는 환자 복리의 개념과
윤리적 원칙에 대해 논증해보고자 하였다.

1) 생명의료윤리와 환자의 복리

인공지능은 인간과 달리 도덕적 판단에는 일정한 목적이 있다. 인공지능은 자신이 아


닌 인간을 위한 판단과 행위를 하는 것이기 때문이다. 그러므로 인간과 관련하여 그 무

- 101 -
엇을 위한 도덕적 판단의 주체로서 인공지능이 성립하게 된다. 본 연구는 인공지능에게
도덕적 판단을 요구하는 근본적 목적을 환자의 복리로 설정하였으므로 먼저 개념연구를
통해 생명의료윤리와 환자복리(Patient Benefit)라는 개념을 정립한다. 생명의료윤리와
환자의 복리라는 개념에 대한 확고한 정립이 없이는 ‘생명의료분야에서 환자의 복리에
우선한 인공지능의 윤리성에 대한 논의’가 정밀하게 수행되지 않을 것이기 때문이다.

생명윤리(bioethics)는 1970년 미국의 종양학자 포터(Van Rensselaer Potter)가 최


초로 사용한 용어로, 생물학적 지식과 인간이 가지는 가치 체계에 관한 지식을 결합하는
새 학문분야라고 정의된다. 이후 라익(Warren T. Reich)은 의학 및 생명과학의 윤리적
차원에 관한 연구를 생명윤리로 정의하였다. 우리나라에서 생명윤리학은 유전자 재조합,
세포 융합, 인공 수정, 생물 복제 따위와 같은 생명 과학의 연구 결과가 인류에 미치는
영향을 도덕적, 윤리적 측면에서 연구하는 학문으로 정의되었다.164)

생명의료윤리(biomedical ethics)는 넓은 의미로 인간과 생명에 대한 바람직한 접근


방향에 대한 보편적인 윤리인 생명윤리학(bioethics)과 인간을 대상으로 연구와 치료를
하는 의료행위에 대한 윤리인 의료윤리학(medical ethics)을 합친 개념으로 정의된
다.165) 일반적으로 윤리는 행위규범의 특징을 가지고 있으며, 일정한 주제영역에 관련된
분야의 사람들에 대한 윤리를 포함하고 있다. 이것은 도덕이나 윤리가 그 영역의 구성원
이 가지고 있는 가치관을 체계화한 것으로 교육자 윤리라고 하면 우리 사회의 교육자에
게 요구되는 어떠한 가치 체계를 말한다는 것이다. 그러한 의미에서 생명의료윤리도 주
제영역과 직업적인 영역 모두를 포함하는 것으로 아래의 그림과 같이 이해할 수 있
다.166) 그러므로 좁은 의미의 생명의료윤리는 의학과 생명과학을 포함한 인간을 대상으
로 하는 연구와 치료를 하는 직역에 대한 윤리적 문제와 전문직 윤리, 그리고 과학의 발
달로 인해 발생한 여러 가지 윤리문제를 중점으로 다루는 윤리학의 한 영역인 것이다.
따라서 생명의료윤리는 인간과 생명의 본질적 가치를 다루는 생명윤리와 이를 현실에서
구현하고 적용하는 의료인이 가져야 할 가치와 행동규범을 다루는 의료윤리로 구분한
다.167) 또한, 생명의료분야에 면허제도가 시행되면서 의료인에게 부여된 권리에 상응하
는 책임과 윤리를 강조하게 되었는데 이렇게 형성된 생명의료윤리의 영역을 전문직 윤리
(professional ethics)라 한다.

164) 신동원, 앞의 논문, pp. 163-204.


165) 강신익, 앞의 논문, pp. 117-136.
166) 권복규, 앞의 논문, pp. 60-72.
167) L. B. McCullough, op. cit, pp. 395-402.

- 102 -
<그림 9> 의료윤리의 영역

출처 : 권복규, 「우리나라 의료윤리교육에 대한 비판적 고찰」, 『한국의료윤리교육학회지』, 제9권 1호(2006),


p. 70 인용.

의료윤리규정은 의사의 직업윤리로서 자율적 준수를 목적으로 의사의 역할에 관한 덕


목과 생명의료윤리에 대한 구체적인 실천 지침을 명문화한 것으로, 세계의사회(World
Medical Association, WMA)는 각국의사회와 전문학회가 윤리위원회를 두고 소속된 의
사의 소임과 역할에 걸맞은 윤리지침을 제정하도록 권장하고 있다.168) 의사의 직업적 자
주성과 자율규제에 관한 세계의사회의 마드리드 선언은 ‘의사는 사회로부터 전문직으로
서 높은 수준의 직업적 자율성과 독립성을 보장받아 왔고, 그로부터 외부의 부당한 영향
력 없이 환자의 이익을 최우선으로 하는 권고(처방)를 할 수 있다.’는 환자의 복리를 기
반으로 한 직업적 임무를 첫 번째로 제시했다.169) 세계의사회 헬싱키 선언에서도 일반
원칙의 첫 번째로 세계의사회 <제네바 선언>은 “환자의 건강에 가장 큰 관심을 두어야
한다.”는 말로 의사의 의무를 촉구하고 있으며, <국제의료윤리강령>은 “의사는 환자에게
최선책을 고려하여 진료에 임하여야 한다.”고 선언하고 있다.170) 두 번째 일반원칙에서

168) D. S. Ahn & J. J. Han & J. L. Park et al, op. cit, p. 12.
169) World Psychiatric Association, “The WMA declaration of madrid on professionally-led
regulation”, Geneva: World Psychiatric Association(2009), pp. 1-2.
170) World Medical Association, “Declaration of Helsinki. Ethical principles for medical research

- 103 -
도 의사의 의무는 의학연구와 관련된 사람을 포함하여 환자의 건강과 안녕, 그리고 권리
를 증진시키고 지키는 것이며, 의사는 지식과 양심에 따라 이 의무를 다하여야 한다고 '
환자의 복리'를 가장 우선적으로 제시하고 있다.

위와 같은 환자의 복리를 기본으로 한 세계의사회의 지침은 대한의사협회의 의사윤리


강령과 지침에도 그대로 반영되어 의사가 가지는 권리와 의무, 그리고 환자와의 관계 및
사회적 역할, 각종 수술 및 의학연구에 관한 원칙과 조항에 명시되었다. 진료하는 임상
의를 위한 의료윤리와 임상연구를 수행하는 연구자를 위한 연구윤리로 구분되는 의료윤
리규정은 진료와 연구 윤리 모두 최우선하는 핵심 대상은 ‘환자’이고, 핵심 주제는 현대
의료윤리의 4대 원칙인 ‘자율성 존중의 원칙(the principle of respect for
autonomy)’, ‘악행 금지의 원칙(the principle of nonmaleficence)’, ‘선행의 원칙(the
principle of beneficence)’, ‘정의의 원칙(the principle of justice)’이다.171) 모든 의
료행위는 긍정적인 효과와 부정적인 효과를 내포하는 양면성이 있다. 가벼운 수술을 함
에 있어서도 절개의 흉터는 남을 수 있다. 즉 모든 의술은 크고 작은 예상 밖의 나쁜 결
과를 초래할 수 있기 때문에 일반적으로 그 효과가 입증된 의술과 약물이라 하더라도
환자에게 발생할 수 있는 위험성의 수준이 환자의 입장에서 윤리적으로 타당한가에 대한
기준이 필요하다. 그렇기 때문에 의료윤리규정은 의료현장에서 수행하는 의사의 직무관
련 행위에 윤리적 정당성을 규정하고자 하는 것이다. 그러므로 의료윤리규정은 윤리적으
로 합당하고 환자의 복리에 부합하는 진료의 기준을 제시함으로써 임상 현장에서의 갈등
과 분쟁을 최소화하는 기능을 하고 있다.

그러므로 환자의 생명과 건강을 증진시키는 목적을 위해 향후 개발될 인공지능의사는


인간 의사에게 요구되는 ‘환자의 복리’를 우선으로 한 의료윤리규정에서 제시하는 직업
윤리에 따라 설계되는 것이 적합할 것이다. 결국 최종적인 의료용 인공지능의 수준은 초
인공지능 수준에 도달하여 환자의 진단과 진료를 주도하게 되어 인간 의사와 대면하게
될 상황에서 윤리적 문제에 대한 공통의 지향점을 가지고 있는가 하는 것이 쟁점이 된
다는 것이다. 따라서 우리는 인공적 도덕 행위자로서의 인공지능 의사와 보건의료인, 그
리고 환자 사이의 관계를 기초로 하는 윤리적 원칙과 그 적용 방법에 대한 논의가 필요
하다.

involving human subjects”, Jahrbuch Für Wissenschaft Und Ethik, Vol. 14(1), 2009, pp.
233-238.
171) Y. M. Koo, op. cit, pp. 119-142.

- 104 -
2) 생명의료윤리와 전통적인 윤리적 원칙

도덕적 행위자의 도덕적 판단에는 원칙이 작용한다. 어떤 도덕적 원칙을 적용하느냐


에 따라 그 판단이 달라질 것이다. 윤리학에서 다루는 도덕에 관한 이론이 바로 이 원칙
을 설명하기 위한 이론이라 할 수 있다. 전통적으로 윤리학의 도덕이론은 동기주의, 결
과주의, 덕 윤리학의 세 가지 이론으로 대별된다. 각 이론마다 도덕적 판단을 위한 원칙
을 제시하고 있다. 도덕이론들은 우리의 윤리적 판단은 이러한 기본 원칙의 근거 하에
이루어져야 한다고 주장한다. 예를 들어 동기주의의 대표적 입장인 칸트의 의무론적 도
덕이론은 도덕적 판단의 원칙으로 결과와 상관없는 의무의 준수라는 동기를 원칙으로 제
시한다. 결과주의는 결과의 옳음이라는 원칙을 제시한다.172)

생명의료윤리 분야에서 동기주의와 결과주의는 확연히 다른 장단점을 지니고 있다.


동기주의는 의료행위의 옳고 그름의 원칙적인 기준과 방향을 제안해 줄 수 있지만 환자
의 복리와 직접적으로 관련된 의료행위의 실질적 결과가 무시될 수 있다는 비판이 있고,
결과주의는 의료행위의 실질적인 결과를 평가하는 데에 도움이 될 수 있지만 아직은 우
리에게 의료행위의 결과를 평가할 명확한 기준이 없다는 비판이 있다. 그러나 여전히 생
명윤리분야에서 가장 영향력이 큰 규범윤리 이론은 의무론과 결과주의 이론이다. 그것은
생명의료 분야의 윤리적 문제들이 대부분 의료인의 도덕적인 의무와 환자의 결과적 이익
사이에서 나타나는 문제를 함축하고 있는 것처럼 보이기 때문이다. 이것은 도덕적으로
문제가 있을 수 있는 어떠한 의료행위가 결과적으로 환자에게 이익을 가져다줄 것으로
생각되는 경우, 의료인의 행위가 과연 정당화될 수 있는지에 대한 논쟁이 끊임없이 제기
되는 데에서 기인한다. 그렇기 때문에 결과주의로서의 공리주의는 환자의 복지를 최우선
으로 하는 결과주의를 내세우고, 다른 한쪽에서는 의무를 중시하는 의무론을 내세우며
팽팽하게 대립하고 있다.173)

본 장에서는 인공지능의 설계에 적용되어야할 생명의료분야의 윤리적 원칙에 대해 논


의하기에 앞서, 이러한 전통적인 윤리적 원칙인 의무론과 결과주의의 개념을 알아보고
각 이론이 생명의료윤리분야에서 어떻게 논의되고 있는지 살펴보고자 한다.

가) 동기주의적 입장에서 요구되는 존엄의 원칙

의무론적 윤리(deontological ethics)는 도덕 판단을 내리는 데에 있어서 ‘나의 의무

172) 맹주만, 『이성과 공감: 포스트모던 칸트와 공감윤리』(어문학사, 2020), pp. 562-576.
173) 강명신, 손명세, 「의료윤리학의 학문적 위상과 학제적 연구의 범위에 대한 일고」, 『한국의료윤리학회
지』, 제12권 3호(2009), pp. 219-234.

- 105 -
는 무엇인가’를 묻는 것으로부터 출발하는 것이다. 이러한 질문은 의무론적 윤리의 어원
인 ‘deon’이 그리스어로 의무(duty, obligation) 혹은 원리(principle)를 의미하는 것에
서도 확인할 수 있다. 우리는 실제로 모든 행위에 대하여 ‘이 행동의 이유는 무엇인가?’
라는 질문을 하지는 않는다. 그러나 이렇게 행동에 대한 이유나 목적을 구체적으로 질문
하지 않는다 할지라도, 모든 행동에는 행위자의 목적이 뒤따른다.

이것을 보건의료분야에서 의료행위에 대해 적용한다면, 의료인의 모든 행위는 환자의


치료나 질병예방을 위한 것이고, 구체적으로 왜 그러한 시술을 통하여 의료 행위를 했느
냐는 질문을 한다면 여러 가지 의료방법 중에서 해당 시술이 다른 것과 비교하여 환자
에게 좋을 것이라고 판단했다는 답을 할 수 있을 것이다. 이렇듯 모든 의료 행위는 환자
의 생명을 좌우할 수 있는 수술부터 환자의 삶의 질을 높이거나 미용을 위한 시술이나
약 처방까지 다양하며, 의료인의 행위에는 그러한 선택을 한 이유가 존재한다. 그렇다면
미래의 인공지능 의사를 포함한 넓은 의미의 의료인이 도덕적 행동을 해야 하는 이유는
무엇인가? 의무론적 윤리이론에 따르면 우리가 도덕적 행위를 해야 하는 데에는 이유가
없고, 그것이 그 자체로 옳기 때문에 우리가 그렇게 행위 해야 한다는 것이다. 임마누엘
칸트(Immanuel Kant)는 이러한 의무론적 윤리학을 대표하는 학자로서, 칸트적 윤리 이
론은 동기주의, 도덕 지상주의, 보편주의로 설명할 수 있다.

첫째, 동기주의(motivism)는 행위자의 동기를 행위의 결과와 무관하게 도덕적 행위의


조건으로 삼는 것이다. 행위의 옳고 그름을 결정하는 것은 오직 그 행위를 하게 한 의지
일 뿐이고, 결과는 판단의 기준이 아니라는 것이다. 그렇기 때문에 ‘선의지’에 의한 행위
만이 진정 옳은 행위라고 본다는 것이다. 이러한 동기주의는 공리주의에서 말하는 ‘결과
주의’가 행위의 결과를 통해 도덕적 행위여부를 판단하는 것과 반대되는 개념이다. 동기
주의에 의한 행위는 결과와는 상관없이 그 동기만을 강조하고 있으므로, 행위자의 좋은
의도와는 상관없이 좋은 결과가 나타날 수도 있고, 좋지 않은 결과가 나타날 수도 있다.
예를 들어, 암환자의 항암치료로 인한 통증을 완화하기 위해 처방한 진통제가 환자에게
알레르기 반응을 일으켜 환자의 항암치료를 중단하는 결과를 가져왔다. 그렇다면 동기주
의적 입장에서 오로지 환자의 통증 완화를 위해 진통제를 처방한 의사가 도덕적으로 옳
은 판단을 했다고 판단할 것이며, 결과주의적 입장에서는 그렇지 않을 수 있는 것이다.

둘째, 도덕 지상주의는 도덕적 행동은 부가적인 목적의 수단이 되어서는 안되며, 그


자체로 무조건적인 목적이 되어야 한다는 것이다. 이러한 도덕 지상주의는 엄숙주의라고
도 불리며, 도덕적 명령은 어떤 다른 목적을 달성하기 위한 수단으로서의 명령이 될 수
없으므로 인간의 행복도 도덕에 우선하는 목적이 될 수 없다고 주장한다. 도덕 지상주의

- 106 -
는 도덕적 행위를 개인의 이익에 따른 선택사항이나 특정 목적을 위한 수단으로 삼지
말아야 한다는 의무론의 핵심과 맞닿아 있어, 목적론과 그 의미가 분명히 대비되고 있
다. 칸트는 이렇듯 ‘왜?’라는 질문을 할 수 없는 도덕법칙을 그 자체로 목적이 되는 정
언명법(categoricalimperative)의 형태로 제시했다.

셋째, 보편주의는 도덕적 원칙은 보편성을 담고 있어야 한다는 것이다. 칸트의 보편


주의는 모든 사람에게 동일한 도덕원리를 적용한다는 것을 의미하며, 인간이 스스로 적
용하는 규칙과 남에게 적용되는 규칙을 일치시키고, 나 자신뿐만 아니라 타인을 최고의
목적으로 대하도록 명령하고 있다. 공리주의의 보편주의가 개인의 결과적인 행복을 보편
적으로 적용해야 함을 강조한 소극적인 보편주의라면, 이러한 칸트 의무론의 보편주의는
대상이나 수단에 관계없이 나와 타인을 동등하게 존중한다는 적극적인 의미의 보편주의
이다. 이렇듯 의무론적 윤리는 나의 의무 혹은 윤리적 원칙을 기준으로 올바른 행위라고
판단된 행위는 결과와 상관없이 따르는 것이 옳다고 말하고 있다. 그렇기 때문에 생명의
료분야에서 어떠한 의료결정을 하는 데에 있어 위험과 이익을 분석하여 분명한 의사결정
원칙을 제안할 수 있으며, 환자의 존엄이라는 원칙을 바탕으로 의사결정을 해야 한다는
기본 원칙을 세울 수 있다는 큰 장점이 있다.

반면, 의무론적 윤리는 의료분야의 의사결정에 있어 여러 가지 논쟁을 일으키기도 한


다. 예를 들어, 칸트적 의무론에 의하면 의사가 불치병 환자를 위하여 질병의 어떠한 진
단이나 병세에 대해 숨기거나 거짓을 말해야하는 상황에서도 모든 사람은 거짓말해서는
안 된다는 의무를 지고 있기 때문에 의사도 환자에게 거짓말해서는 안 된다. 아무리 좋
은 의도에서 나온 행동일지라도 거짓말하지 말라는 의무보다 앞설 수는 없기 때문이다.
그렇다면, 아래와 같은 사례에서는 어떠한 결정을 내려야 할 것인가?

60세 여자 환자 S가 수술 전 혈당 조절을 위해 입원하였다. 환자는 지금까지 경구혈당저하제를 복용하


였고, 입원하여 처음으로 인슐린을 투여 받았다. 인슐린을 투여하고 3일이 되었으나 혈당이 여전히 조절되
지 않아 확인해 보니 담당 교수가 지시한 인슐린 용량만큼 환자에게 투여되지 않았다. 수술 날짜가 가까워
져 담당 교수는 전공의에게 인슐린을 빠른 속도로 증량하도록 처방하였고, 혹시 저혈당이 올지 모르니 주
의하여 살필 것을 당부하였다.174)

위의 사례에서 의사는 의무론적 입장에서는 환자에게 본인의 과실로 인슐린이 필요한


용량만큼 투여되지 못했다는 것을 환자에게 고지해야 한다. 하지만 고의성이 없는 교수
와 전공의의 단순 착오는 수술 전까지 인슐린을 증량해서 투여하면 환자에게 해악을 끼
치지는 않고 원하는 수술 결과를 가져올 수 있다. 즉, 궁극적으로 환자에게 치명적인 피

174) 대한내과학회 윤리위원회, 「내과전공의 의료윤리 사례집」, 『대한내과학회』(2015), p. 46.

- 107 -
해 없이 결과적으로 원하는 치료 결과를 달성하였다면 굳이 이러한 의료과오를 수술을
앞둔 환자에게 말해서, 그 결과 담당의에 대한 불신으로 인해 환자의 수술이 지연되거나
수술경과가 좋지 않을 가능성까지 고려할 때, 무조건 고지가 최선이라고 볼 수 없다. 하
지만, 의무론적 윤리관으로는 환자에게 의료과오를 정직하게 인정하는 것이 옳다고 보는
것이다.

또한, 임상실험에서 실험군과의 비교를 위해 위약을 제공받는 대조군의 경우 환자가


심리적으로 위약에 효과를 느끼거나 의존하는 플라시보(Placebo) 효과가 나타날 수 있
다. 이러한 경우 환자에게 대조군이라고 밝히지 않아 나타나는 플라시보 효과가 긍정적
인 결과를 나타낸다 하더라도, 환자에게 본인이 위약을 받은 것을 밝히지 않은 것을 거
짓말이라고 보는 것이 의무론적 윤리이기 때문이다.

나) 결과주의적 입장에서 요구되는 공익의 원칙

결과주의(consequentialism)는 도덕적 의무는 의무 자체가 아닌 행동의 결과를 고려


하여 설정한다는 것이다. 결과주의에서는 여러 가지 다른 방식으로 이루어지는 행위들을
어떤 결과를 초래하는지 예견하고 다양한 결과들을 비교함으로써 무엇이 도덕적이고 올
바른 행동인지 여부를 평가한다는 주장이다. 전형적인 결과주의 이론인 벤담(Jeremy
Bentham)과 밀(John Stuart Mill)의 고전적 공리주의는 어떤 행위의 옳고 그름은 그 행
위 결과의 총합에 의해서만 판단되어야 하고, 개인의 행복은 똑같이 중요하다고 주장한
다. 다시 말해서 공리주의는 우리가 추구하는 도덕적 가치의 기준이 어떤 행위의 의도나
목적 등이 아닌 순수한 결과에 의해서 판단해야 한다는 ‘결과주의(consequentialism)’와
그 결과가 결국 우리에게 행복을 가져다주어야 한다는 ‘행복주의(eudaemonism)’를 명
제로 한다. 또한, 공리주의는 인간은 누구나 행복을 추구하며 가능하면 고통을 줄이고
쾌락을 늘이고자 하는 경향을 가지고 있다는 쾌락주의의 기본 입장을 사회 전체의 쾌락
이라는 사회적 의미에 적용한 것이다.

벤담은 우리 인간의 본성이 고통과 쾌락에 의해서 지배되고 모든 행위의 동기는 필연


적으로 쾌락을 추구하고 고통을 피하는데 있으며, 그 결과 쾌락과 고통은 모든 인간 행
위에 대한 도덕적 선악 판단의 기준이라고 주장한다. 따라서 개인에게 효용(utility)이 있
다는 것은 쾌락이나 이익이 주어지거나 고통, 불행, 불이익이 없는 상태로서 결국 이기
적인 개인들의 모임인 우리 사회의 기본 원리를 ‘최대 다수의 최대 행복’에서 구하였
다.175)

- 108 -
아울러 최근에는 개별 행동이나 사안들에 대해서 항상 ‘보편적으로 행복을 추구하는
결과’가 따르지는 않는다는 인식이 확산되는 추세이다. 왜냐하면 때로는 행복을 추구하
고자 행동해도 그 행동의 결과가 의도와는 달리 뜻대로 되지 않을 때도 있으며 오히려
전혀 의도하지 않은 일의 결과가 나에게는 더욱 행복하게 나타나는 경우가 종종 발생하
기 때문이다. 이러한 한계는 공리주의가 보편적인 도덕 기준으로 자리 잡기에는 부족한
부분이라 지적되었다. 따라서 최근 공리주의는 벤담과 밀의 고전적 공리주의를 행위 공
리주의(act-utilitarianism)라 칭하면서, 규칙이나 원칙의 준수를 우선적으로 중시하는
새로운 형태의 공리주의를 주창하고 있는데, 이를 규칙 공리주의(rule-utilitarianism)라
고 부른다. 즉, 규칙의무론과 같이 도덕적인 규칙을 강조하며 특정 행위가 최선의 결과
를 가져온다는 것보다 최선의 결과를 가져오는 규칙에 따른 행위가 옳은 행위라고 강조
한다. 의무론과는 달리 어떤 규칙이 모든 사람들에게 최대의 일반적 선을 가지고 오는지
에 따라 규칙이 결정된다. 즉 행위가 가장 큰 공리를 가져오는 것이 아니라 어떤 규칙이
모든 사람들에게 가장 큰 공리를 가져오는지가 핵심이다.

그렇다면, 환자가 소생의 희망이 없고, 죽음에 임박한 상황에서 공리주의 윤리관은
어떠한 결정을 내릴 것인가에 대해 살펴볼 필요가 있다.

89세 여자 M은 8년 전 치매를 진단 받고 요양병원에 입원 중이다. M의 인지 능력과 일상생활 능력은


점점 저하되었고 약 1년 전부터는 거의 움직이지 못하며, 말도 하지 않았다. 식사도 혼자 할 수 없는 상태
인데, 종종 입을 열지 않고 음식을 거부하기도 하였다. 주치의는 가족과 상의하여 M에게 L-tube를 이용한
경관영양을 시행하였다. 경관영양을 시행했음에도 불구하고 M의 쇠약감은 점점 심해졌고, 더 이상 가족을
알아보거나 주변을 인지하지 못하는 상태가 되었다. 가족들은 L-tube의 제거를 요구하지는 않지만 가끔씩
의료진에게 치료를 지속하는 것이 어떤 의미가 있는지 모르겠다고 이야기를 한다.176)

우리나라는 연명의료를 일반적인 것과 특수한 것으로 구분한다. 위의 사례는 일반적


인 것으로 단순히 영양분과 수분을 공급하는 것은 공리주의자들의 입장에서 봐서도 생명
을 유지하도록 하는 것이 도덕적으로 옳은 일이라고 추론할 것이다. 특수한 경우는 환자
의 향후 치료가 불가능하고 의료인의 적극적인 개입이 무의미한 경우 연명의료를 중지하
는 판결이 이루어지고 있다.

그렇다면, 출산 시 뇌출혈로 인해 향후 몇 달 정도만 생존 할 수 있다고 판단되는 미


숙아가 바이러스 감염으로 인한 폐렴 증상이 있다. 의사는 항생제를 써서 신생아의 생명
을 연장할 것인가 여부를 결정해야 하지만, 이러한 결정은 고통스러운 삶을 조금 더 연

175) 변순용 외, 『윤리적 AI로봇 프로젝트』(태광, 2019), pp. 131-137.


176) 대한내과학회 윤리위원회, 앞의 책, p. 30.

- 109 -
장하는 것이다. 이러한 경우, 항생제를 쓰지 않는 것이 도덕적으로 옳은 일이라고 추론
하는 것이 행위 공리주의이다. 앞서 의무론적 윤리에서도 언급했던, 의사가 불치병 환자
를 위하여 질병의 어떠한 진단이나 병세에 대해 숨기거나 거짓을 말하는 것이 도덕적으
로 옳은가 하는 문제를 다시 생각해 보자. 규칙 공리주의자들은 이 문제를 ‘거짓말을 하
면 안 된다’는 규칙에 한 가지 예외를 인정할 수 있는가의 문제로 파악할 것이고, 행위
공리주의자들은 자신의 병이 불치병이라는 것을 모르는 편이 그 환자에게 더 낫다고 의
사가 판단하는 경우는 ‘제외하는 예외’를 인정하는 것이 많은 환자가 죽음의 공포에 떨
지 않아도 된다는 점은 사실이나, 그 이득보다는 의사와 환자 사이의 신뢰가 무너짐으로
써 비롯되는 사회적인 불안과 걱정으로 인해 공익에 해가 될 가능성이 훨씬 클 것이므
로, 예외를 인정하지 않을 것이다.

35세 여자 P는 위암, 뼈 및 복막 전이로 극심한 통증을 호소하였다. 고용량의 마약성 진통제를 투여하여
통증은 조금 나아졌으나 복부 불편감, 구역, 구토 등의 소견이 관찰되었다. 얼마 후 다시 통증이 심해지고,
혼자 돌아누울 수조차 없을 정도로 기운이 없어졌다. P는 주치의를 볼 때마다 빨리 죽을 수 있는 약을 달
라고 이야기를 하였다.177)

위의 사례는 의료윤리에서 논쟁되는 중요한 주제인 안락사 측면을 보여준다. 불치병


에 걸려 고통 받는 환자가 의사에게 자발적이고 적극적인 안락사(voluntary active
euthanasia)를 요청하는 상황에 대하여 규칙 공리주의자들은 안락사를 비롯한 자살 또
는 낙태의 문제를 ‘살인하지 말라’는 규칙에 하나의 정당화된 예외가 인정될 수 있는가
의 문제로 파악한다. 우선, 자의적이고 적극적인 안락사를 찬성하는 규칙 공리주의자들
은 이런 관행을 받아들임으로써 고통 속에서 오직 죽음만을 기다리는 많은 불치병 환자
들이 안락사를 통해 괴로움을 종식시킬 수 있다는 이득을 강조할 것이다. 하지만 이에
반대하는 규칙 공리주의자들은 만약 의사가 환자를 안락사 시킬 수 있도록 허용한다면
많은 자신이 가족에게 짐이 된다고 생각하는 노인이나 투병 중인 환자들이 두려움을 느
껴 이러한 결정은 공익에 부합하지 않는다고 판단할 것이다.

이렇듯 생명의료윤리 분야에서 동기주의와 결과주의는 가장 영향력이 큰 규범윤리 이


론이고, 확연히 다른 장단점을 지니고 있다. 결과주의는 의료행위의 실질적인 결과를 평
가하는 데에 도움이 될 수 있지만 아직은 우리에게 의료행위의 결과를 평가할 명확한
기준이 없다는 비판이 있고, 동기주의는 의료행위의 옳고 그름의 원칙적인 기준과 방향
을 제안해 줄 수 있지만 환자의 복리와 직접적으로 관련된 의료행위의 실질적 결과가
무시될 수 있다는 비판이 있다. 그렇기 때문에 결과주의로서의 공리주의는 환자의 복지

177) 대한내과학회 윤리위원회, 앞의 책, p. 34.

- 110 -
를 최우선으로 하는 결과주의를 내세우고, 다른 한쪽에서는 의무를 중시하는 의무론을
내세우며 팽팽하게 대립하고 있는 것이다. 지금까지 이러한 전통적인 윤리적 원칙인 의
무론과 결과주의의 개념을 알아보고 각 이론이 생명의료윤리분야에서 어떻게 논의되고
있는지 살펴보았다. 이제 이어지는 장에서는 본격적으로 생명의료분야 인공지능의 설계
에 기본이 되어야할 생명의료윤리의 윤리적 원칙에 대해 논의해보고자 한다.

3) 생명의료윤리와 인공지능 윤리

가) 생명의료윤리의 윤리적 원칙

의료윤리(medical ethics)는 임상윤리, 생명윤리, 임상연구윤리, 보건윤리, 생명의료


윤리를 포괄하는 의미로써, 의료 환경에서 발생하는 매우 복잡하고 다양한 윤리문제에
대한 윤리적 원칙에 대한 학문이자 지침이다. 의료윤리는 생명의료분야에서 발생하는 윤
리적 문제들을 행위자의 의무와 행위에 대한 결과만을 가지고 판단하는, 전통적인 윤리
원칙의 한계를 인식하고, 의무론이나 결과주의가 아닌 원칙에 근거한 접근방법을 통하여
이러한 문제를 해결하고자 하였다. 그러므로 우리는 생명의료윤리의 윤리적 원칙을 기반
으로 인공적 도덕 행위자로서의 인공지능 의사와 보건의료인, 그리고 환자 사이의 상호
관계를 기초로 환자의 복리를 우선으로 하는 새로운 윤리적 원칙의 모색 또한 필요한
실정이다.

의료인과 환자 사이의 윤리적 문제를 오랜 기간 연구한 펠레그리노(E. Pellegrino,


1920-2013)는 내과 의사이자 생명윤리학자로서 의학의 인문학적 중요성을 강조했으며,
의료행위자의 윤리적 태도에 대하여 심도 있게 탐구했다.178) 펠레그리노는 칸트가 주장
한 “인간을 자율적 인격자로서 어떠한 행위의 도구나 수단이 아니라 그 목적만으로 대하
며 인간 자체의 존엄성을 보전해야 한다”는 정언 명령이 보건의료인에게 있어 환자와 관
계를 맺는데 적용할 수 있는 보편적인 준칙이라고 보았다. 또한, 펠레그리노는 정언 명
령에서 언급하듯이 모든 인간이 자율적 인격이며, 객체의 존엄성이 중요하다면 생명의료
윤리에서는 근본적으로 환자뿐만 아니라 보건의료인의 존엄성도 중요하다고 보았다. 그
리고 이러한 상황에서 환자와 의료인을 포함한 모든 인간의 존엄성을 보전하는 방법으로
서 덕 윤리를 전면에 내세우고 있다. 펠레그리노가 내세우는 의료인의 직업윤리는 의료
인과 환자의 관계에서 보건의료인의 의학적인 행위는 보편적 가치로서 환자의 복리를 추

178) E. D. Pellegrino, “What the philosophy of medicine is”, Theoretical medicine and bioethics,
Vol. 19(4), 1998, pp. 315-336.

- 111 -
구하고 인간의 존엄성을 수호하는 것이며, 공동체와 개인의 삶의 질 향상을 구체적으로
실현하는 것이다. 최근 펠레그리노의 논의를 중심으로 의료인에게 요구되는 윤리가 무엇
인지를 고찰한 연구에서는179) 보편 준칙을 통하여 설정된 기준을 실천에 대한 의무와
당위성을 강조하는 칸트의 의무적 윤리가 실천적인 행위 자체의 탁월성을 강조하는 아리
스토텔레스의 덕 윤리와 서로 상충하지 않고 서로 상호보완하며, 그 타당성을 펠레그리
노의 논의로부터 발견했다는 견해를 제시했다.

이렇듯 의료윤리 원칙은 기본적으로 의사의 소명과 책무 및 의사와 환자 사이의 관계


를 기초로 하는 윤리적 원칙이다. 그러나 미래의 의료 윤리는 양자의 관계만이 아닌 로
봇의사와의 관계도 포함해야 한다. 로봇의사에게 히포크라테스 선서와 같은 전통적인 의
사윤리지침의 정신과 원칙을 그대로 적용하기 어려우며, 앞선 장에서 논의한대로 인공지
능 로봇 의사를 도덕적 주체로 받아드린다는 전제 하에 로봇의사가 의사공동체의 일원이
되었을 때, 현재의 인간중심의 의료윤리의 원칙에 덧붙여 환자 및 인간의사와의 관계를
중심으로 로봇의사의 관점에서 마련한 준칙들이 반드시 필요하다. 따라서 이 준칙은 일
차적으로 로봇의사의 윤리원칙이지만, 그 내용은 환자 및 인간의사와의 관계에 집중한
것이기에 인간의사와 로봇 의사가 동시에 그리고 함께 준수해야 할 윤리 지침이기도 하
다.

나) 생명의료윤리와 인공지능 의사윤리

세계의사회(World Medical Association, WMA)는 각국의사회와 전문의학회가 윤리


위원회를 설립하고 소속된 의료인의 역할과 소임에 걸맞은 윤리지침을 제정하고 공표하
도록 권장하고 있다.180) 대한의사협회의 의사윤리강령과 지침에도 의사가 가지는 권리와
의무, 그리고 환자와의 관계 및 사회적인 역할, 각종 수술 및 의학분야의 연구에 관한
원칙과 지침이 명시되어 있다. 이러한 의료윤리의 윤리원칙은 오래전에 미국의 생명윤리
학자들인 비첨과 차일드리스가 생명 의료 윤리학의 원리(principles of biomedical
ethics)에서 제안한 바 있는 생명의료 윤리의 네 가지 원칙을 근간으로 한다.181) 네 가
지 원칙은 자율성 존중의 원칙, 악행 금지의 원칙, 선행의 원칙, 정의의 원칙이며, 이러
한 네 가지 원칙을 구체적인 의료 윤리 문제에 적용시켜 도덕적인 답을 찾아 나가는 것
이 의료윤리의 윤리원칙이다. 이러한 네 가지 원칙을 근간으로 한 대한의사협회의 의사

179) 최우석, 「‘의료인’의 의무윤리와 덕윤리의 상보적 이해-펠레그리노(E. Pellegrino)의 논의를 중심으로」,
『한국의료윤리학회지』, 제23권 1호(2020), pp. 39-56.
180) D. S. Ahn & J. J. Han & J. L. Park, op. cit, p. 12.
181) T. L. Beauchamp, & J. F. Childress, op. cit, pp. 177-498.

- 112 -
윤리강령은 새롭게 2017년 4월 23일 개정되었다.182)

의사윤리지침은 의사윤리강령의 기본정신을 부록의 표와 같이 10가지 항목으로 제시


하였으며, 구체적인 지침으로 규정하여 의사가 인류의 생명과 건강을 보호하고 인권을
신장하는데 기여하기 위하여 환자와 사회의 신뢰와 존경을 받으면서 의학적 지식을 기반
으로 양심과 전문적 판단에 따라 환자를 진료하며 윤리의식을 기반으로 한 의료를 펼칠
수 있도록 함을 목적으로 개정되었다.

대한의사협회의 윤리강령에서 볼 수 있듯이, 비첨과 차일드리스의 생명의료 윤리 4대


원칙은 생명의료윤리 영역에서 일반적인 윤리 이론이 아니라 논의의 토대가 될 규범들의
체계를 제공하고 있다. 생명의료 윤리의 네 가지 원칙의 수준에서는 대부분의 도덕 판단
이 일치하며, 특히 구체적인 사안에 있어 무엇이 허용되는 행위인지, 혹은 어떤 행위가
도덕적으로 정당화 될 수 있는지 판단하는 과정은 대개 일치한다는 것이다. 또한, 자율
성존중, 악행금지, 선행과 정의라는 원칙은 도덕을 진지하게 받아들인 사람들이 각자 품
고 있는 고차원적인 가치관에 관계없이 합의할 수 있는 것으로 소개한다.

여전히 생명의료윤리 원칙들이 원칙들 간의 충돌을 어떻게 해결해 나갈 것이며, 4차


산업혁명과 그 기술로 인해 발생하는 복잡한 윤리적 문제들에 대한 해결의 한계성을 우
려하는 견해들이 나타나기도 했다. 하지만, 여전히 생명의료 윤리의 네 가지 원칙은 의
료윤리의 기본이며, 인공지능과 로봇의사윤리에 대한 연구에서도 이것이 환자와의 관계
에서 결코 분리될 수 없는 인간의사와 로봇의사의 지위와 역할에 대한 윤리적 논의들로
서 다루어졌다.183) 그리고 비첨과 차일드리스의 생명의료윤리의 원칙이 로봇의사윤리의
원칙들을 정립하는데 이용될 수 있을 것이라고 보고 있다.

의사협회의 윤리지침에서도 의사의 일반적 윤리, 환자에 대한 윤리, 동료 보건의료인


에 대한 윤리, 의사의 사회적 역할과 의무, 출산과 임종, 장기이식, 의학연구 등에 대한
개별 의료 분야 윤리, 윤리위원회를 포함한 6장으로 구성되어 구체적인 조항을 통한 지
침을 제시하고 있다(부록 2).184) 각 전공의학회에서도 윤리위원회를 통한 윤리 선언과
의료윤리 사례집을 통하여 복잡한 의료윤리 문제들을 대비할 수 있도록 장려하고 있
다.185) 구체적으로, 대한내과의학회만 보더라도 내과 전공의는 수련 과정 중에 윤리 교
육 과목을 반드시 이수하여야 하며, 내과 수련병원은 자체 교육프로그램을 통하여 윤리

182) 김국기, 박석건, 「대한의사협회의 의사윤리지침 및 강령 개정」, 『Journal of the Korean Medical
Association』, 제60권 1호(2017), pp. 5-7.
183) 맹주만, 앞의 논문, pp. 271-308.
184) T. L. Beauchamp, & J. F. Childress, op. cit, pp. 177-498.
185) J. B. Jun, “Ethics Education for Internal Medicine Residency”. Korean Journal of Medicine,
Vol. 94(1), 2019, pp. 1-4.

- 113 -
집담회를 연간 최소 2회 이상 개최하여야 하고, 전공의는 의료기관 내의 윤리집담회에 1
년에 최소 2회 이상 참석하여야 한다고 규정하고 있다. 또한, 전체 수련 기간 동안 대한
내과학회가 주관하는 춘계, 추계학술대회에 2회 이상 참석하여 윤리 교육 과정을 이수해
야 한다.186) 2015년 2월 대한내과학회 윤리위원회에서 발간된 내과 전공의 의료 윤리
사례집은 전공의들이 의료기관에서 이루어지는 수련 과정 동안 임상 현장에서 만날 수
있는 윤리적인 문제에 대한 다양한 사례를 제공하고, 환자와 의료인 사이에서 발생할 수
있는 의료문제에 대하여 개별 상황에서 어떻게 판단해야 하는지 윤리적인 지침뿐만 아니
라 의학적인 지침을 제시하고, 최종 판단을 어떻게 하여야 할지 생각해보게 하고 지혜롭
게 해결할 수 있도록 가이드라인을 제시하기 위하여 편찬되었다.187) 그리고 이렇게 편찬
된 내과의학회 사례집은 매년 수련을 시작하는 1년차 전공의에게 배포하여 스스로 의료
윤리문제를 학습할 기회를 제공하고 있다.

앞서 언급한 바와 같이 대한의사협회의 의사윤리지침에서도 의사의 일반적 윤리에 있


어 환자와 동료보건의료인에 대한 구체적인 윤리지침를 우선적으로 제시하고 있으며, 대
한 대한내과학회에서도 임상현장의 윤리문제 사례를 통한 의료인 스스로의 윤리 함양을
중요시 하고 있다. 또한, 보건의료인의 윤리적 갈등상황에 대한 연구에서도 동료 의료인
간의 갈등에 대한 의료윤리교육과 그에 대한 의료인의 인식을 탐구하고자 하는 움직임이
시작되었으며,188) 의료윤리교육의 방향을 이러한 윤리적 갈등상황에 대하여 미리 상황을
제시하는 것에 대한 연구들도 이루어지고 있다.189) 최종적으로 이러한 보건의료인의 의
료윤리교육이 환자의 복리라는 궁극적인 목적을 위하여 의료인이 다각적으로 접근하기
위해서는, 의료기관에 종사하는 의료인 간의 바람직한 관계 형성 및 갈등의 적절한 조절
이 필요하다. 그리고 이러한 노력은 인공지능시대의 인공지능의사와 의료진간의 관계에
도 동일하게 적용될 수 있을 것이다.

186) J. S. Eom, “Changes in Regulation of Internal Medicine Residency Training and Evaluation
of Teaching Hospitals”, Korean Journal of Medicine, Vol. 93(6), 2018, pp. 497-500.
187) 대한내과학회 윤리위원회, 앞의 책, pp. 8-61.
188) 최규진 외, 「의료윤리교육을 위한 동료 의료인 간 갈등에 대한 연구」, 『생명윤리』, 제9권 2호(2008),
pp. 17-34.
189) 이영미, 이영희, 이미정 외, 「상황 제시를 이용한 윤리적 갈등상황에 대한전공의의 인식 조사」, 『Med
Educ』, 제20권(2008), pp. 73-83.

- 114 -
VI. 인공지능의 생명의료윤리원칙 구체화 과정과 보건의료
관계별 적용

생명의료윤리 4대 원칙은 4차 산업혁명과 그 기술로 인해 발생하는 복잡한 윤리적


문제들에 대한 해결의 한계성을 가지고 있다. 그러나 여전히 생명의료 윤리의 네 가지
원칙은 의료윤리의 기본이고, 비첨과 차일드리스의 생명의료윤리 4대 원칙은 인공지능의
윤리적 원칙들을 정립하는 가운데 구체화 및 체계화될 수 있을 것이라고 보고 있다. 이
제 우리는 인공지능시대의 생명의료윤리 원칙을 구체화하고 의료인들과 인공지능에게 이
러한 생명의료윤리 원칙을 적용하기 위한 구체적인 방법은 무엇인지 논의해야 할 시점인
것이다.

인간은 도덕적 판단을 하기 위해 윤리에 관한 의식적 또는 무의식적 학습이 필요하


다. 자연 상태에서 저절로 도덕적 판단력을 기를 수도 있겠지만 인간은 교육과 학습을
통해 도덕성을 기르고 고양시킬 수 있음이 경험적으로 입증되고 있다. 이와 마찬가지로
인공지능 역시 도덕적 판단을 할 수 있기 위해서는 그러한 도덕적 원칙들에 대한 학습
이 이루어져야 할 것이다. 인간의 학습과 관련해서는 오랫동안 다양한 연구가 이루어져
몇 가지 정립된 이론이 있지만 인공지능의 경우 그러한 연구는 매우 초보적인 단계라
할 수 있으며, 특히 의료용 인공지능의 학습에 대한 연구는 극히 드물다.

따라서 본 장에서는 인공지능시대 임상현장에서 발생하는 윤리적인 문제 해결을 위해


생명의료윤리 4대 원칙을 인공지능과 환자, 그리고 인공지능과 보건의료인의 관계라는
두 가지 맥락에서 구체화하고, 이를 인공지능에게 윤리적 규범을 적용하기 위한 방법론
에 대하여 논의해보고자 한다. 그리고 의료윤리 사례를 바탕으로 이러한 방법론을 적용
해야 할 구체적인 생명의료윤리 원칙들을 인공지능시대의 인공지능의사와 인간의사, 환
자 및 보호자의 관계에 있어 나타날 수 있는 의료문제에 맞추어 자율성 존중 원칙, 악행
금지의 원칙, 선행의 원칙, 정의의 원칙 각각에 대하여 적용해보고자 하였다. 또한, 구체
화한 인공지능시대의 4대 원칙을 임상현장에서 발생할 수 있는 의료윤리에 대한 사례에
확장함으로써 의료기관에 종사하는 의료인과 인공지능의사, 환자 및 보호자와의 관계에
대하여 제언해보고자 한다.

- 115 -
1. 인공지능의 생명의료윤리원칙 구체화 과정

1) 생명의료윤리 4대 원칙의 구체화 과정

비첨과 차일드리스의 생명의료 윤리 4대 원칙은 생명의료윤리 영역에서 윤리적인 규


범들의 체계를 제공하고 있다. 앞선 장에서 언급한데로, 자율성존중, 악행금지, 선행과
정의의 원칙은 도덕을 진지하게 받아들인 사람들이 각자 품고 있는 고차원적인 가치관에
관계없이 합의할 수 있는 것이며, 의료분야에서 발생하는 윤리적인 문제에 있어 무엇이
허용되는 행위인지, 혹은 어떤 행위가 도덕적으로 정당화 될 수 있는지 판단하는 과정에
서 중요한 역할을 한다.

하지만, 의료분야에서 나타나는 윤리적 문제에 있어 발생하는 이해상충과 이에 따른


윤리적 원칙에 대한 연구190)에서도 생명윤리의 원칙이 실제 의료 현실에서 발생하는 윤
리적인 문제를 모두 해결할 수 있는 것은 아니라는 것을 언급하며, 이러한 4원칙이 생명
의료윤리의 현장에서 행위지침을 내리기 위해서는 구체화(specification)와 비중주기
(weighing and balancing)라는 두 가지의 전략이 필요하다고 말한다. 여기에서 구체화
는 범위(scope, especially range)와 주로 관련되어 있으며, 비중주기는 다양한 규범들
의 상대적 강점과 중요성(weighing)과 관련된다고 알려져 있다. 또한, 사람들은 개인의
윤리적 이상 혹은 윤리 이론(고차원적 가치관)을 바탕으로 자신의 원칙을 수립하며, 원칙
은 구체성을 덧입어야 활용할 수 있게 되며 이것을 구체화의 과정이라고 그림을 통해
소개하고 있다. 그리고 의료현장에서 발생하는 문제 해결을 위해 각각의 원칙을 임상현
장과 의학교육에 적용하기 위해서는 구체화의 과정이 필요하다고 하였다.191)

그러므로 생명의료 윤리 4대 원칙이 인공지능시대 임상 현장에서 행위지침의 역할을


하기 위해서는 그 규범의 범위를 설정하는 구체화 과정이 필요하다. 본 장에서는 인공지
능시대 임상현장에서 발생하는 윤리적인 문제 해결을 위해 생명의료윤리 4대 원칙을 인
공지능과 환자, 그리고 인공지능과 보건의료인의 관계라는 두 가지 맥락에서 구체화하고
자 하였다.

190) 이일학, 구영모, 「의료인-제약산업 관계의 이해상충과 윤리적 원칙」, 『한국의료윤리학회』, 제14권
(2011), pp. 193-210.
191) 목광수, 「행위지침 제시에 효과적인 생명의료윤리학적 방법론 모색: 비췀과 췰드리스의 논의를 중심으
로」, 『철학연구』, 제105권(2014), pp. 81-110.

- 116 -
<그림 10> 원칙에 의한 가치판단 과정

출처: 이일학, 구영모, 「의료인-제약산업 관계의 이해상충과 윤리적 원칙」, 『한국의료윤리학회』, 제14권
(2011), p. 193.

2) 인공지능의 생명의료윤리 4대 원칙 구체화 과정

가) 자율성 존중 원칙의 구체화

자율성 존중의 원칙은 의료 행위가 개인의 자율성을 최대한 존중하는 범위에서 이루


어져야 한다는 것으로, 의사가 본인의 의사에 따라 일방적으로 환자 진료를 결정하는 것
이 아니라, 환자의 자율적 의사에 따라서 진료 행위를 해야 한다는 것이다.192) 현실적인
진료의 과정에서는 의사의 전문성에서 오는 권위적인 지위로 인해 환자는 의사의 결정을
따르는 의존적인 조건이 형성되어 왔다. 그러므로 자율성이 존중 되려면 먼저 환자의 자
율적인 의사가 어떠한지 알아야 하며, 의사는 의료 행위를 시작하기 전 충분한 정보를
제공하고 환자의 동의를 얻어야 하므로 자율성 존중의 원칙에 있어 가장 중요한 것은
충분한 정보의 전달과 그에 따른 동의 과정이다. 의료 행위는 사실상 고도의 전문성이

192) J. D. Arras, “Principles and particularity: the roles of cases in bioethics”, Indiana law
journal, Vol. 69(4), 1994, p. 983.

- 117 -
요구되는 행위이고, 환자는 의사만큼의 의료적 지식이 부족하다. 이런 환자와 의사간의
의료지식에 대한 지나친 비대칭성으로 인해 환자가 하는 동의가 본인의 진정한 동의인가
하는 문제가 제기되기도 한다. 즉 의료 윤리학에서는 이를 ‘충분한 정보에 의거한 동의
(informed consent)’ 라고 한다.193)

충분한 정보에 의한 동의는 환자나 보호자에게 의료인이 제공하려는 의학적 검사나


치료에 대하여 충분히 설명하고 동의와 허락을 구하는 행위와 그 과정 모두를 포함한다
고 할 수 있다. 이러한 충분한 정보를 통해 환자의 동의를 구하는 과정은 의료인이 환자
의 자율성을 존중할 수 있는 기본적이면서 최종적인 통로이며, 환자의 자율성을 최후에
실현하는 행위이기 때문에 의료윤리에서 충분한 정보에 의한 동의의 실천에 대한 중요성
이 강조되고 있는 시점이다. 의사는 적절한 의사소통(good communication), 공유된 의
사결정(shared decision making)의 기술을 익힘으로써, 충분한 정보에 의한 동의를 통
해 환자가 치료 과정에 참여할 수 있도록 도와야 한다. 이것은 법적으로도 의사의 중요
한 의무로 의료인은 환자에게 충분한 설명을 제공하고, 의사소통을 통한 동의 과정을 충
실히 시행해야 하며, 그 내용과 절차를 서면 기록으로도 남겨 두도록 제시하고 있다.

<표 24> 충분한 정보에 의거한 환자의 동의

- 환자의 질환에 대한 의학적 상태와 예후


- 검사나 치료의 제안, 그리고 그것을 제안하는 이유
- 질환의 검사과정이나 치료방법 등을 통해 기대하는 효과, 이득 및
의사의 설명
위험
- 최선이 아니면 차선으로 선택할 수 있는 검사나 치료 제시
- 차선으로 제시된 검사나 치료에서 기대하는 효과, 이득 및 위험

- 의사가 제공한 정보를 이해


환자의 동의 - 제시된 검사 및 치료 선택지들을 평가
- 의사가 제안한 검사나 치료를 받을지 여부를 결정
출처: 대한내과학회 윤리위원회, 「내과전공의 의료윤리 사례집」, 『대한내과학회』, 제 8권(2015), p. 9 재구성.

충분한 정보에 의한 동의는 의사가 환자의 질환에 대한 정보를 제공하는 설명 과정과


환자가 이러한 정보에 대해 이해하고 동의하는 과정으로 크게 두 단계의 절차로 나누어

193) D. DeGrazia, “Moving forward in bioethical theory: theories, cases, and specified
principlism”, The Journal of Medicine and Philosophy, Vol. 17(5), 1992, pp. 511-539.

- 118 -
진다. 이 때에 의사는 환자의 의학적 상태와 예후뿐만 아니라, 환자의 질환에 대하여 의
료전문가로서 검사를 제안할 수 있고, 이후 치료에 대하여 전반적으로 설명해야 하며,
또 다른 대안으로 환자가 선택할 수 있는 치료와 검사에 대하여 제시해야 한다. 그리고
환자가 개별 치료에 응했을 때 얻을 수 있는 이득과 반대로 나타날 수 있는 부작용과
이외의 위험에 대해서도 충분히 설명해야 한다. 또한, 환자는 이러한 정보에 대하여 이
해능력을 갖춘 상황에서 동의해야 하며, 환자는 권유받은 치료나 검사를 행할지에 대하
여 스스로 결정할 기회가 있어야 한다.194)

의료인의 정보공개, 환자의 이해능력과 자발성은 충분한 정보에 의한 동의가 제대로


이루어지기 위해서 고려되어야 하는 세 가지 요소이다. 우선, 의료인의 정보공개는 환자
의 의학적 상황과 관련된 모든 정보를 환자나 보호자에게 가능한 정확하고, 충분하게 알
려야 한다는 것이다. 환자의 자율성을 존중한다는 것은 조금이라고 축약되어나 은폐된
정보를 제공해서는 안되며, 의료인에 의해 조작된 정보에 근거해 내려진 판단을 환자가
따르게 되는 것은 자율성 존중에 위배된다. 이것은 의료인의 왜곡, 은폐, 조작된 정보로
인해 환자가 잘못된 정보를 가지고 생명을 담보로 하는 결정을 내릴 수 있기 때문이다.
충분한 정보에 의한 동의에서 환자의 이해능력은 환자 스스로가 본인의 질환 상태에 대
한 정보를 이해하고, 스스로 본인의 결정으로 의료행위를 받는 것을 결정하여 발생하는
결과나 부작용을 예상하며 인지할 수 있는 환자의 능력 정도를 말하고 있다. 환자는 의
학적 지식이 부족하므로 의료진만큼 완벽히 본인의 질환에 대하여 이해할 수 없지만, 의
료인의 충분한 정보공개를 통하여 환자 본인의 치료 과정에서 중요한 부분을 파악할 수
있다면 환자의 이해능력은 일반적으로 충분하다고 여겨지고 있다. 환자의 자발성은 환자
의 권리에 대한 고려 요소로써, 어떠한 외압이나 강압, 폭력 없이 환자의 의료행위에 대
한 결정권을 가질 수 있다는 것을 의미한다. 의료행위를 주관하는 의사는 담당한 환자의
의사결정이 이러한 외압이나 감정적인 부분에 의해 설득당한 것이 아니라 환자가 스스로
선택한 것인지 잘 살펴보고, 의료행위의 이익과 부작용 등 모든 정보가 정확하게 제공되
었는지, 그리고 그것에 대하여 환자가 제대로 이해하고 있으며, 스스로 이해하고 있다고
하더라고 환자의 자율성이 침해된 부분은 없는지 확인해야 한다.

의료분야의 윤리적 원칙에 대한 연구195)에서는 이러한 자율성 존중의 원칙을 실제 의


료 현실에서 발생하는 윤리적인 문제를 해결할 수 있도록 임상진료와 의학교육 현장을
예로 아래와 같이 구체화하고 있다. 자율성 존중 원칙의 구체화는 의사와 환자의 관계를

194) A. R. Jonsen & M. Siegler & W. J. Winslade, op. cit, pp. 490-495.
195) 이일학, 구영모, 앞의 논문, pp. 198-199.

- 119 -
중심으로 하는 임상진료와 교육자와 피교육자의 관점인 의학교육의 차원에서 이루어졌
다. 임상진료에서는 의료서비스를 제공받을 개인은 의료인을 판단하는 데 참고할 중요한
정보로써 이해상충의 가능성에 대하여 제공받아야 한다는 자율성 존중 원칙의 구체화가
이루어졌으며, 의학교육에서는 피교육자들이 교육 주제나 내용 선정에 영향을 미칠 수
있는 요인을 사전에 제공받아 교육 참여 여부를 스스로 결정할 수 있는 기회를 있어야
한다고 하였다.

이렇듯 원칙의 구체화를 통한 확장은 교육적인 측면에서뿐만 아니라, 임상 현장의 측


면에서도 중요한 역할을 하고 있으며, 대한의사협회의 의사윤리지침에서도 의사의 일반
적 윤리에 이어 환자와 동료보건의료인에 대한 윤리지침을 구체적으로 제시하고 있다.
따라서 본 연구에서는 자율성 존중 원칙을 인공지능시대의 인공지능의사와 인간의사, 환
자의 관계에 있어 나타날 수 있는 의료문제에 맞추어 구체화해보고자 하였다.

<표 25> 자율성 존중 원칙의 구체화

자율성의 원칙

충분한 정보에 의한 자율적 동의의 원칙

인공지능과
인공지능은 환자 및 보호자에게 의료서비스의 이용을 판
환자의 관계 중심 단하는데 필요한 충분한 정보를 제공하고 환자의 자율적
의사에 따른 동의를 받아야 한다.

충분한 의사소통에 의한 자율적 동의의 원칙


인공지능과 인공지능은 환자의 진단 및 치료에 관한 모든 판단에 대
인간의사의 관계 중심 하여 인간의사와의 충분한 의사소통을 통해 자율적 동의를
받아야 한다.

인공지능과 환자의 관계 중심에서는 자율성의 원칙을 ‘충분한 정보에 의한 자율적 동


의의 원칙’으로 구체화하여 인공지능은 환자 및 보호자에게 의료서비스의 이용을 판단하
는데 필요한 충분한 정보를 제공하고 환자의 자율적 의사에 따른 동의를 받아야 한다는
것을 강조하였고, 인공지능과 인간의사의 관계 중심에서는 ‘충분한 의사소통에 의한 자

- 120 -
율적 동의의 원칙’으로, 인공지능은 환자의 진단 및 치료에 관한 모든 판단에 대하여 인
간의사와의 충분한 의사소통을 통해 자율적 동의를 받아야 한다고 구체화하였다.

나) 악행 금지 원칙의 구체화

악행 금지의 원칙은 ‘환자에게 해악을 입히거나 환자의 상태를 악화시키는 의술을 사


용해서는 안 된다’는 것이다.196) 악행 금지의 원칙은 당연하고 간단한 명제로 보이지만,
실제 의료 행위에 있어 여러 가지 윤리적인 문제가 발생한다. 그리고 여기에서 이러한
문제의 기준이 되는 것이 ‘악행’을 정의하는 것이다. 의료윤리에서는 신체적 악행이 우선
적인 고려 대상이 될 것이고, 정신적 해악이나 재산상의 손실 등도 악행에 속한다. 하지
만, 만일 ‘악행 금지’가 단순히 고통을 야기하거나 증가시키는 행위를 대상으로 하는 것
이라면 의사의 의료 행위는 상당히 제약될 수 있다. 어떠한 질병을 치료하는데 있어서
고통을 수반하지 않는 경우는 거의 없을 것이기 때문이다. 그러므로 악행 금지의 원칙에
서 우리가 악행을 어떻게 정의하느냐에 따라서 인간의사의 판단은 극명하게 대립될 수
있다.

악행금지의 원칙은 의료분야에서 나타나는 윤리적 문제에 있어 발생하는 이해상충과


이에 따른 윤리적 원칙에 대한 연구197)에서 실제 의료 현실에서 발생하는 윤리적인 문
제를 해결할 수 있도록 임상진료와 의학교육 현장에서 이용될 수 있도록 설명되고 있다.
임상진료에서 악행금지의 원칙은 환자의 안전은 임상진료에서 최우선적으로 고려해야하
는 사항이고, 의료인의 이해관계는 임상의사의 판단을 흐리므로 최대한 배제하며, 이해
관계로 발생한 문제에 대한 판단은 독립적인 기구를 통해야 한다고 구체화 되었다. 또한
교육 현장에서는 교육자나 교육환경으로 인해 환자 진료에 편견이 개입하지 않도록 학문
적으로 중립적이며 비판적인 의학 기관이 교육을 주관해야 한다고 구체화하여 명시하고
있다. 본 연구에서는 이러한 악행금지 원칙을 인공지능시대의 인공지능의사와 인간의사,
환자의 관계에 있어 나타날 수 있는 의료문제에 맞추어 구체화해보고자 하였다.

인공지능과 환자의 관계 중심에서 ‘환자의 안전 최우선과 악행 금지의 원칙’으로 구


체화하여 인공지능은 환자의 진단 및 치료에 있어 환자의 안전을 최우선적으로 고려해야
하며, 환자에게 환자의 상태를 악화시키거나 해악을 입히는 의술을 사용해서는 안된다는
것을 강조하였고, 인공지능과 인간의사의 관계 중심에서는 ‘해악의 정의와 의사결정 동
의의 원칙’으로, 인공지능은 환자의 진단 및 치료에 의한 이익과 해악을 정의하고, 의사
결정에 대하여 인간의사의 동의를 받아야 한다고 구체화하였다.

196) J. D. Arras, op. cit, p. 983.


197) 이일학, 구영모, 앞의 논문, pp. 198-199.

- 121 -
<표 26> 악행금지 원칙의 구체화

악행금지의 원칙

환자의 안전 최우선과 악행 금지의 원칙

인공지능과
인공지능은 환자의 진단 및 치료에 있어 환자의 안전을
환자의 관계 중심 최우선적으로 고려해야 하며, 환자에게 환자의 상태를 악
화시키거나 해악을 입히는 의술을 사용해서는 안된다.

해악의 정의와 의사결정 동의의 원칙


인공지능과 인공지능은 환자의 진단 및 치료에 의한 이익과 해악을
인간의사의 관계 중심 정의하고, 이를 바탕으로 한 의사결정에 대하여 인간의사
의 동의를 받아야 한다.

다) 선행 원칙의 구체화

선행의 원칙에서 선행(善行)이란 남을 이롭게 하는 행위를 뜻한다.198) 선행의 원칙은


해악의 예방과 해로운 조건들을 제거한다는 측면에서 적극적인 선행을 요구하고 있다는
점에서 해악의 제거에만 한정될 수 있는 악행 금지의 원칙에 비해서 구체적인 문제를
제기할 수 있다. 생명의료분야에서 환자의 선을 적극적으로 증진시킬 것을 요구하는 선
행의 원칙은 특히 건강관리라는 측면에서 중요하다. 해악금지의 원칙이 어떠한 행위를
하지 말라는 소극적인 의미라면, 선행의 원칙은 어떤 행위를 적극적으로 하라는 의미를
가지고 있다. 아울러 모든 인간에게 악행을 해서는 안 되지만, 반대로 모든 인간에게 선
행을 할 의무는 없으므로, 가족과 같은 특정 관계에 있어서는 다른 관계와 구분되는 선
행이 허용되고 있다.

그렇다면 학자들이 이러한 범주의 선행이 인간의 도덕적 의무 중 하나인가라는 질문


에 대한 의견이 일치하는지 알아보아야 할 필요가 있다. 대부분의 국가에서는 의료인의
직업적 특수성으로 인해 의사가 응급 환자를 치료하지 않았을 경우 윤리적으로 문제가
있는 행동이며, 그 의사는 도덕적으로 문제가 있는 것으로 여겨져 형사책임을 묻기도 한
다. 또한, 의사에게는 무조건적으로 진료해야할 의무가 있으며, 일부 진료를 거부할 수
있는 자유조차도 인정되지 않는 경우가 있다. 즉, 환자가 특정한 의사로부터 진료를 받

198) J. D. Arras, op. cit, p. 983.

- 122 -
겠다는 결정을 했을 때, 이미 그 결정 안에는 해당 의사가 환자에게 의료적인 선행을 해
야 할 의무가 함의되어 있다는 것이다.

온정적 간섭주의(paternalism)란 부모가 자식의 행복을 위해 좋은 것을 가용하듯이,


타인의 선을 대상의 의사와 상관없이 무조건적으로 증진해야 한다는 것이다.199) 의료윤
리에서 온정적 간섭주의가 성립되려면 우선 무엇이 환자에게 선이 되는지를 알아야 하
고, 이것을 환자의 삶의 질이라고 부를 수 있다. 하지만 의료에 있어 의사결정 존중은
앞서 언급한 생명윤리 원칙의 첫 번째인 환자의 자율성 문제와 직접적인 관련이 있다.
환자들은 원하는 목적을 이루고 질환을 예방 및 치료하기 위해 의료를 선택하고, 이에
대한 처치를 받을 수 있다. 그러나 여기에서 필연적으로 발생되는 문제가 의료진이 최선
이라고 제시한 치료와 환자들이 자율적으로 선택한 치료가 차이가 있을 수 있다는 것이
다. 이러한 상황에서 의료인들은 환자의 자율성이라는 원칙과 선행의 원칙이라는 두 가
지의 원칙 사이에서 결정을 해야 하는 갈등상황을 맞이한다.

이러한 윤리적 원칙이 상호 충돌하는 상황에서 환자의 자율성을 우선적으로 존중해야


한다고 주장하는 사람들은 환자가 본인의 진료에 대하여 이해하고 이성적으로 자신의 진
료를 선택했다면 그 결정을 해야 한다고 보는 것이다. 그리고 이러한 입장에서 보자면,
의사가 제시한 정보에 대한 의사결정 능력이 있는 환자의 경우에는 스스로에게 이익이
되는 선택을 할 수 있을 것이므로 담당 의료인과 보호자는 환자의 선택에 대하여 존중
해주어야 한다고 보고 있는 것이다. 이러한 시점에서 환자의 자율성 원칙과 선행원칙 중
어떤 것에 더 무게를 둘 것인가에 대한 답은 상황에 처한 개별 환자의 질환상태, 질병의
종류, 환자가 소속된 사회의 가치관, 이전의 법적 판례 등에 영향을 받을 수 있으며, 개
별 환자마다 모두 그 최종 결정에 차이가 있을 수 있다. 그리고 한국의료윤리학회지에서
발간한 전공의를 위한 의료윤리 교육 목표에 대한 연구에서는 우리나라의 경우에는 환자
가 치료를 받으므로 얻을 수 있는 이익이 큰 경우에는 환자의 자율성 존중 원칙보다 선
행의 원칙이 앞서는 경향이 있다고 보고 있다.200) 하지만 최근에는 충분한 정보에 의한
동의가 강조되고, 사전의료의향서를 작성하는 환자의 수가 증가하므로 선행의 원칙보다
는 자율성 존중의 방향으로 점점 무게 중심이 이동하고 있다.

의료인들은 자율성 존중과 선행원칙 사이에 발생하는 이해상충으로 인한 갈등상황을


종종 경험하게 된다. 이러한 갈등 상황에서 의료인들이 고민을 해보아야하는 문제는 결
국 의료행위는 환자에게 이루어지며, 의료행위가 최종적으로 어떠한 방향으로 이루어질

199) D. DeGrazia, op. cit, pp. 511-539.


200) 정유석 외, 「전공의를 위한 의료윤리 교육목표의 개발」, 『한국의료윤리학회지』, 제11권 2호(2008),
pp. 183-190.

- 123 -
것인가는 환자가 원하는 방향과 일치되는 것이 중요하다는 것이다.201) 앞서 언급한 데
로, 이러한 상황은 환자가 처한 질병의 상황이나 사회적인 분위기에 따라 달라질 수도
있겠지만, 의료행위에 대해 이해가 가능하고 의사결정 능력이 있는 환자가 자신의 의지
대로 진료의 방향을 결정하는 것이 환자 스스로에게 큰 위해가 되지 않고 타인에게 해
를 입히지 않는다면, 의료인은 최대한 환자 스스로의 결정을 따르는 방향으로 이해상충
의 상황에서 발생하는 갈등을 조율해 나가는 것이 윤리적일 수 있다는 것이다.

의료분야의 윤리적 원칙에 대한 연구202)에서는 이러한 선행의 원칙을 실제 의료 현실


에서 발생하는 윤리적인 문제를 해결할 수 있도록 구체화하는 데에 임상진료와 의학교육
현장을 예로 들고 있다. 임상진료에서 의사와 환자관계 안에서의 선행 원칙은 동료의료
인의 이해상충으로 인해 환자에게 닥칠 수 있는 위협이 의심되는 경우 예방하기 위한
조치를 취해야 한다는 지침으로 구체화 하였고, 교육자와 피교육자에 대한 구체화는 의
학교육으로 새로운 지식을 얻음으로써 환자가 받을 수 있는 이익은 매우 중요한 사항이
며 이해상충에 대한 고민으로 교육의 기회가 적어져서는 안 된다는 항목으로 이루어지고
있다.

그러므로 선행 원칙의 구체화를 통한 확장은 교육적인 측면에서뿐만 아니라, 임상 현


장의 측면에서 발생하는 다양한 윤리문제의 해결에 더욱 중요한 역할을 하고 있으며, 대
한의사협회의 의사윤리지침에서도 의사의 일반적 윤리에 이어 환자와 동료보건의료인에
대한 윤리지침을 구체적으로 제시하고 있다. 따라서 본 연구에서는 선행 원칙을 인공지
능시대의 인공지능의사와 인간의사, 환자의 관계에 있어 나타날 수 있는 의료문제에 맞
추어 구체화해보고자 했다. 인공지능과 환자 의 관계 중심에서는 선행의 원칙을 ‘선행에
대한 환자 존중의 원칙’으로 구체화하여 인공지능은 환자의 질병을 치료하고 건강을 증
진하는 선행을 하며, 환자가 자신의 의지대로 진료의 방향을 결정하는 것이 환자와 진료
에 위해가 되지 않는다면, 환자 스스로의 결정을 존중해야 한다는 것을 강조하였고, 인
공지능과 인간의사의 관계 중심에서는 ‘선행의 범위와 의사결정 동의의 원칙’으로, 인공
지능은 선행의 범위를 정의하고, 이를 바탕으로 한 의사결정에 대하여 인간의사의 동의
를 받아야 한다고 구체화하였다.

201) T. L. Beauchamp & J. F. Childress, op. cit, pp. 32-44.


202) 이일학, 구영모, 앞의 논문, pp. 198-199.

- 124 -
<표 27> 선행 원칙의 구체화

선행의 원칙

선행에 대한 환자 존중의 원칙

인공지능과 인공지능은 환자의 질병을 치료하고 건강을 증진하는 선


행을 하며, 환자가 자신의 의지대로 진료의 방향을 결정하
환자의 관계 중심
는 것이 환자와 진료에 위해가 되지 않는다면, 환자 스스
로의 결정을 존중해야 한다.

선행의 범위와 의사결정 동의의 원칙


인공지능과
인공지능은 선행의 범위를 정의하고, 이를 바탕으로 한 의
인간의사의 관계 중심
사결정에 대하여 인간의사의 동의를 받아야 한다.

라) 정의 원칙의 구체화

정의의 원칙에서 정의는 주로 배분적인 정의를 말한다. 배분적인 정의는 주로 우리


사회에서 희소하게 존재하는 자원들을 어떻게 배분하는 것이 타당한가에 대해 논의한
다.203) 가능한 환자는 남녀노소를 막론하고 차별 없이 진료를 받을 권리가 있어야 하지
만 사실상 각 개인의 경제력의 차이가 양질의 의료혜택을 받는 것이 현실이다.

실질적으로 거시적 차원의 의료 자원 할당 문제는 매우 광범위하다. 국가 예산에서


보건 의료분야의 비율을 얼마나 할당할 것인가? 국민에게 어떤 의료 보험 제도를 시행
하는 것이 정의로운가? 어떠한 질환에 대해 보험을 적용해야 할 것인가? 그리고 의료
자원은 한정되어 있으므로 환자를 선택하는 기준도 중요한 문제가 될 수 있다. 이것이
분배적 정의에 관한 문제들이다. 이러한 기준을 설정하는 일은 역사적으로 매우 힘든 일
이였다. 하나의 기준으로 적용한 결과가 향후에는 너무나 불합리하고 모순되는 경우가
많았기 때문이다. 이에 롤즈(John Rawls, 1921~2002)는 정의의 문제를 해결하기 위해서
우리가 구체적인 기준을 설정하기 보다는 가장 정의로운 결과를 도출하기 위한 형식적인
절차와 체계를 갖추는 것이 더 중요하고 타당하다고 주장하였다.204) 이런 생각을 절차적
정의라고 하는데, 생명의료윤리에서는 대표적으로 IRB(Institutional Review Board)와

203) J. D. Arras, op. cit, p. 983.


204) D. DeGrazia, op. cit, pp.511-539.

- 125 -
같은 의학연구 윤리심의기구들이 이에 속한다.

생명의료윤리에서 정의의 원칙에는 ‘정의’가 무엇인가라는 윤리학적 주제가 자리 잡


고 있다. 일반적으로 정의는 각자에게 각자의 몫을 돌려주는 것이지만, 각자에게 자신의
몫을 결정하는 기준은 매우 상이할 것이다. 전통적으로는 성과, 능력, 노력, 필요 등 네
가지 규정이 제안되며, 보건의료계열에서 네 가지 분배 기준을 모두 고려하여 어느 기준
에 우선성을 둘 것인지 고민한 것이라 할 수 있다. 예를 들어, 환자가 요구하는 검사나
치료를 의학적 적응증과 무관한 범위에서 제공해 주는 것은 환자를 만족시키고 의사에게
재정적 이득을 줄 수도 있으나, 정의의 관점에서 들여다본다면 환자는 필수적이지 않은
의료행위에 경제적인 부분을 소모했고, 의료인은 의료자원을 적재적소에 배분하지 못한
것이 된다. 정의의 원칙은 의료분야에서 나타나는 윤리적 문제에 적용하기 위한 윤리적
원칙에 대한 연구205)에서 임상진료와 의학교육 현장에서 이용될 수 있도록 구체화 되었
다. 의사와 환자의 임상진료에 있어 정의 원칙은 우리나라에서 보건의료의 재원은 전국
민이 가입하는 공공보험 제도로 운영되고 충당되고 있으므로 특히 공평하게 분배해야 하
고, 보건의료와 그 이익이 공공적으로 합의되지 않은 방법과 의도로써 피의료인에게 제
공될 가능성을 막아야 한다는 지침으로 구체화 되었다. 또한, 의학교육을 받는 교육자와
피교육자 사이의 정의 원칙의 구체화는 교육 받는 것을 의료인의 자기 규제와 전문성
유지를 위해 부담해야 할 영역으로 받아들이고 이러한 교육 과정에 필요한 경제적 자원
을 스스로 부담하는 것을 원칙으로 한다는 항목으로 이루어졌다.

그러므로 정의 원칙의 구체화를 통한 확장은 교육적인 측면에서뿐만 아니라, 임상 현


장의 측면에서 발생하는 다양한 윤리문제의 해결에 더욱 중요한 역할을 하고 있으며, 대
한의사협회의 의사윤리지침에서도 의사의 일반적 윤리에 이어 환자와 동료보건의료인에
대한 윤리지침을 구체적으로 제시하고 있다. 따라서 정의 원칙을 인공지능시대의 인공지
능의사와 인간의사, 환자의 관계에 있어 나타날 수 있는 의료문제에 맞추어 확장해보았
다.

인공지능과 환자의 관계 중심에서는 정의의 원칙을 ‘공정한 절차를 통한 의료 배분의


원칙’으로 구체화하여 인공지능은 환자가 의료적 문제들에 대해 편견과 차별 없는 공정
한 절차를 통한 치료를 받을 수 있도록 의료서비스를 공평하게 배분해야 한다는 것을
강조하였고, 인공지능과 인간의사의 관계 중심에서는 ‘상호작용을 통한 정의 구현의 원
칙’으로, 인공지능과 인간의사는 의료 의사결정의 상호작용을 통하여 의료자원의 정의로
운 분배에 대한 상호감시의 역할을 수행하여 정의를 구현하는 역할을 수행해야 한다고

205) 이일학, 구영모, 앞의 논문, pp. 198-199.

- 126 -
체계화했다.

<표 28> 정의 원칙의 구체화

정의의 원칙

공정한 절차를 통한 의료 배분의 원칙


인공지능과 인공지능은 환자가 의료적 문제들에 대해 편견과 차별 없
환자의 관계 중심 는 공정한 절차를 통한 치료를 받을 수 있도록 의료서비스
를 공평하게 배분해야 한다.

상호작용을 통한 정의 구현의 원칙
인공지능과 인공지능과 인간의사는 의료 의사결정의 상호작용을 통하
인간의사의 관계 중심 여 의료자원의 정의로운 분배에 대한 상호감시의 역할을
수행하여 정의를 구현하는 역할을 수행해야 한다.

2. 인공지능의 생명의료윤리 4대 원칙 접근 방법

앞선 장에서는 인공지능시대 임상현장에서 발생하는 윤리적인 문제 해결을 위해 생명


의료윤리 4대 원칙을 인공지능과 환자, 그리고 인공지능과 보건의료인의 관계라는 두 가
지 맥락에서 구체화했다. 그리고 이제 우리는 인공지능에게 구체화한 윤리적 규범을 적
용하기 위한 방법론에 대하여 논의해보고자 한다. 이를 위하여 먼저 인공지능에게 윤리
규범 또는 이론을 학습시키는 방법론들을 알아보고, 인공지능시대 생명윤리원칙을 적용
하기에 적합한 방법론에 대하여 논의해 보고자 한다.

1) 상향적 방법론과 하향적 방법론

인공적 도덕 행위자에게 윤리적 원칙을 학습시키기 위한 방법론은 하향식


(Top-Down), 덕 윤리적 방식인 상향식(Bottom-Up), 그리고 양자를 혼합한 방식이 있

- 127 -
다. 상향식 접근법은 아동이 발달하는 과정처럼 행위자가 다양한 행동 과정들에 대한 도
덕적 평가를 통해 도덕적 행위자로 성장해나가는 인간의 방식과 유사하며, 하향식은 의
무론적, 결과론적인 원칙 중심의 전통적인 윤리 규범 또는 이론을 프로그래밍 하는 방식
으로, 어떤 구체적인 윤리 이론을 택한 다음 그 이론을 구현할 수 있는 알고리즘과 서브
시스템의 설계를 끌어내는 방식이다.

웬델 월러치와 콜린 알렌(2014: 138-141)의 저서인 “왜 로봇의 도덕인가?”에서는 도


덕적 의사결정의 구체적인 실현을 위해 철학을 기반으로 한 인공지능 설계의 ‘하향식 접
근법’ 및 ‘상향식 접근법’의 기본적인 틀을 다음과 같이 설명하고 있다. 하향식 도덕 원
리는 인공지능을 설계함에 있어 알고리즘으로 전환할 수 있는 규칙이나 원칙을 마련하는
것이고, 어떠한 구체적인 윤리 이론을 택하여 그 이론을 구현할 수 있는 알고리즘을 설
계하고 서브시스템들이 서로 상호작용하는 방식을 정하는 것이다. 따라서 하향식의 윤리
체계에는 황금률, 10계명, 칸트의 정언명령, 그리고 결과론적인 원칙 중심의 전통적인
윤리 규범 등이 해당할 것이며, 대표적으로 칸트(Immanuel Kant)의 의무론, 밀(John
Stuart Mill)의 공리주의(utilitarianism), 아시모프의 로봇3원칙 등의 적용에 많은 관심
을 기울일 것이다.

실질적으로 인공지능을 구현하는 공학자는 하향식 분석을 통해 주어진 과제를 더 단


순한 하위 과제로 분해하고, 이러한 하위과제들을 구현하는 모듈이 위계적인 구성을 이
루어 본래의 목표를 실현하게 된다. 이러한 하향식 접근법은 인공지능이 일반적인 문제
를 해결할 때 사용하는 알고리즘의 방법과 유사하다는 장점이 있으나, 전통적인 의무론
의 입장에서는 인공지능은 그 자체로 자유의지나 선의지를 가질 수 없다는 비판을 받고
있으며, 공리주의 입장에서는 인공지능이 공평성과 자비심을 지닌 존재일 수 있는가라는
비판이 제시되고 있다. 특히, 딜레마 문제들을 해석할 때 의무론적이거나 결과론적인 원
칙 중심의 하향식 접근법은 원칙들이 상충할 때 합리적으로 해결하지 못하거나, 특정 윤
리 이론에 기반을 두고 설계될 경우 그 이론이 가진 취약점으로 인해 경직성이나, 도덕
적 직관과의 상충이 나타날 수 있다는 우려도 제기된다.

반면, 상향식 접근법에서는 행위자가 행동 과정들을 탐구하고 배우며 도덕적으로 칭


찬받을 만한 행동에 대해 보상을 받는 환경을 조성하는데 초점을 둔 방식으로써, 아동이
발달하는 과정처럼 행위자가 다양한 행동 과정들에 대한 도덕적 평가를 통해 도덕적 행
위자로 성장해나가는 인간의 방식과 유사하다. 이는 피아제(Jean Piaget)에서 살펴볼 수
있는 아동의 도덕성 인지발달 습득과정과 유사한 접근법이다. 특히, 아동은 변화하고 성
장하는 존재로 주변 환경과 상호작용하면서 발달하고 인지적 성장을 이룬다는 접근에 대

- 128 -
해서 주장하여, 인공지능의 도덕성 발달을 설계하는 많은 개발자들이 관심을 가지고 연
구하고 있다.

특히, 윤리학적 개념에서 상향식 접근법은 현실의 다양한 문제 상황에서 구체적인 행


위지침을 제시하지 못하는 하향식의 한계를 극복하며, 현실 경험을 통하여 개별적인 행
위에 대한 규범을 배워간다는 덕 윤리와 가깝다는 장점이 있다. 그러나 전통적인 입장에
서 인공지능이나 인공지능 로봇이 경험을 통해 습득하는 감정(emotion)이나 도덕감
(moral sentiment), 실천적 지혜(phronesis)를 가진 존재로 보기 어렵다는 비판이 있으
며, 특히 빅데이터를 통해 경험을 습득하는 방식의 인공지능 로봇은 잘못된 데이터로 인
해 비윤리적인 학습이 될 수 있다는 우려가 제기되고 있다. 한 예로, 2016년 3월
MS(Micro Soft)사에서 인공지능(AI)을 기반으로 설계한 채팅 로봇 테이(Tay)의 사례를
살펴보면, 테이는 사람들과의 채팅속에서 정보와 다양한 의견들을 주고받으며 스스로 학
습하는 챗봇이었는데, 문제는 테이의 학습 메카니즘을 잘 알고 있는 일부 트위터 사용자
들이 집중적으로 테이와의 상호작용 속에서 인종차별적이고 정치적으로 편향된 내용, 욕
설 등을 가르쳐 테이를 인종차별주의자이자 대량학살 지지자로 만들어 버린 것이었다.

<표 29> 인공지능 개발 및 활용에 지켜야 할 원칙

인공지능 개발 및 활용에 지켜야 할 원칙 (Google)


첫째, 다양한 사용자를 테스트에 참여시켜 사용자가 인공지능을 어떻게 경험하고
의사결정에 영향을 받는지를 파악하고 이들의 의견을 반영하여 인간 중심의 설계를
구현한다.

둘째, 사용자 설문, 시스템 성능 점검, 장기적인 이력 추적 등을 수행하고 이를 토


대로 평가 시스템을 구축한다.

셋째, 개인정보보호를 침해하거나 편견의 원인이 되는 데이터가 있는지 확인하고


데이터 누락은 없는지, 무작위 표본 추출이 되었는지 등도 확인하는 등 원시 데이터
(raw data)를 항시 점검한다.

넷째, 훈련 데이터(training data)에 의해 모델의 용도가 제한됨을 명심하고 무리


하게 다른 용도로 확장하지 않는다.

다섯째, 인공지능이 의도한 대로 작동하는지 요소별 테스트, 요소별 상호작용 확


인을 위한 통합 테스트, 사용자 테스트를 상시 수행한다.

- 129 -
여섯째, 시스템이 실제 환경에서 제대로 작동하는지 배포 후에도 관찰한다.
출처: 조원영, 「인공지능에 대한 사회적 우려와 업계의 대응」, 『월간SW중심사회 9월호』(2019),
https://spri.kr/posts/view/22615?code=industry_trend(2021.04.12 접속)

이렇듯 인공지능이 잘못 설계되어 사회적 문제를 만드는 것에 우려가 높아지면서, 인


공지능 기술의 선두 기업들은 이러한 문제를 예방하기 위해서 인공지능 개발자가 지켜야
할 원칙에 대한 가이드라인을 만들고 있다. 구글은 인공지능과 같은 강력한 기술은 앞으
로 사회에 큰 영향을 미칠 것이며, 선두주자로서 구글은 큰 책임감을 느낀다며, 공식 블
로그를 통해 7가지 인공지능 원칙(AI at Google : Our Principle)을 발표했다. 구글 외
에도 IBM은 2014년부터 인공지능을 위한 일상의 윤리를 발행하였고, 2018년 마이크로
소프트도 개발자가 인공지능의 설계에서 개발까지 지켜야 하는 여섯 가지 원칙을 제시했
다. 또한, 국내에서는 2018년 카카오가 알고리즘 설계 시 개발자들이 지켜야 할 인공지
능에 관한 윤리규범을 제정하고 발표했다. 아래와 같이, 카카오의 윤리헌장에서는 사회
적 차별 금지, 데이터 윤리, 알고리즘의 독립성 및 설명 의무 등과 같이 최근 국내외에
서 활발히 논의되고 있는 내용을 포함하고 있어, 인공지능 또한 인간의 도덕적 가치와
윤리 관점에 부합되어야 하고 궁극적으로는 인간의 삶의 효용성을 높일 수 있어야 한다
는 점을 강조하고 있다고 보고 있다. 또한, 우리나라의 인공지능 기술 전망과 혁신정책
방향에 대한 정책보고에서는 카카오 윤리헌장이 민간 기업 차원에서의 인공지능 윤리 기
준을 공표했다는 점에 큰 의의가 있다고 보았다.206)

<표 30> 인공지능에 대한 윤리규범 원칙

원칙 내용
카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤
알고리즘의 기본원칙 리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한
다.
알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않
차별에 대한 경계
도록 경계한다.
알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하
학습 데이터 운영
여 수집·분석·활용한다.
알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향
알고리즘의 독립성
받는 일이 없도록 엄정하게 관리한다.

206) 이제영, 김단비, 양희태, 앞의 논문, p. 92.

- 130 -
이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지
알고리즘에 대한 설명
않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.

출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 92 인용.

2) 혼합적 접근법

실질적으로 인공지능을 설계하는 공학자들은 알고리즘을 설계할 때 하향식과 상향식


접근법을 혼합하는 방법을 사용한다. 실제로 일반적인 문제를 해결할 때에는 하향식 접
근법에 기반을 둔 알고리즘을 설계하고, 도덕규범들이 상호 충돌하는 문제에 대해서는
다양한 사례와 경험을 통해 다원적인 가치와 규범이 학습되는 상향식 접근법을 혼합하는
방식으로 두 접근법의 한계를 극복 할 것으로 기대되고 있다.

약 400년 전 데카르트(René Descartes)에게 이와 같은 기계의 지능과 도덕성에 관


한 학습방법을 질문하였다면, 물질이 지적, 도덕적 능력을 생산할 수 있다는 가능성은
형이상학적으로 터무니없는 헛소리라고 지적하였을 것이다. 하지만 지금의 인공지능기계
는 데카르트 시대의 기계와는 기능의 적용범위와 능력에서 차원이 다르다. 우리는 도덕
적 행위를 평가하는 관점의 차이를 칸트의 ‘좋은 이유’에서 찾든, 아리스토텔레스의 ‘좋
은 품성’에서 찾든, 밀의 ‘좋은 결과’에서 찾든 이제는 우리 사회 깊숙이 관여하고 그 영
향력을 넓혀가며, 논리적인 플랫폼에서 개발되고 있는 다양한 인공지능이 자신의 능력을
펼침에 있어서 인류에게 가져올 최대의 선한 결과와 최소의 해악이 무엇인지 분별할 수
있어야 한다는 것에 쉽게 동의할 것이다. 아울러, 롤즈(John Rawls)가 언급한 ‘무지의
베일’ 상태에서 인공지능은 다양한 과제에 대응하면서 폭넓은 가능성까지 계산하고 내린
결론이므로, 감정적인 인간들이 내린 결론보다는 충분히 더 합리적이고, 효율적이며 설
득력 있다고 생각할 수도 있다.

<표 31> 인공지능의 윤리적 학습에 대한 연구 사례

구분 내용

셀머 브링스요드(Selmer Bringsjord)는 공리주의적 규칙을 사용해 결


하향식
과에 대한 적합성 증명까지 제시하는 소프트웨어 추론 기술을 개발 중
마이클 앤더슨(Michael Anderson)과 수잔 앤더슨(Susan Anderson)
상향식
부부는 사례 분석을 통해 규칙 또는 의무들이 상충할 시 어떤 선택을 해

- 131 -
야 하는지 결정하는 메드에덱스(MedEthEx) 프로그램을 개발. 예를 들어,
의료 시술 시 두 가지 이상의 선택지가 제시되었을 때 과거 사례를 참고
해 결정.
빈센트 비겔(Vencent Wiegel) 교수가 개발한 소포랩(SophoLab)은 실
혼합식 제 사회와 같은 복잡한 네트워크에서 여러 행위자들이 어떤 상호작용을
하고 어떤 판단을 내릴지 시뮬레이션

출처: 이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향」, 『정책연구』(2019), p. 15 재구성.

우리나라에서도 인공지능에게 윤리를 학습시키기 위한 연구가 이루어지고 있다. 선택


한 윤리이론을 적용하여 알고리즘과 서브시스템을 설계하는 방식으로 이루어지는 인공지
능 학습은 기초적인 윤리 외에 실질적으로 복잡한 상황에 적용하기에는 한계가 많이 나
타난다고 보고된다.207) 상향식 방법을 이용한 학습 연구에서는 인공지능이 윤리적인 행
위를 한 경우에 적절한 보상을 주는 데 주력하여 개발되고 있다. 이로 인해 우리나라의
연구들에서도 혼합식을 통한 인공지능의 윤리 학습이 도입되어 실행되고 있다.

3) 인공지능시대 생명의료윤리 4대 원칙을 적용하기 위한 방법론

앞선 장에서는 인공지능시대 임상현장에서 발생하는 윤리적인 문제 해결을 위해 생명


의료윤리 4대 원칙을 인공지능과 환자, 그리고 인공지능과 보건의료인의 관계라는 두 가
지 맥락에서 구체화하였고, 인공지능에게 이러한 윤리적 규범을 적용하기 위한 일반적인
방법론에 대하여 알아보았다. 그리고 이제 인공지능과 환자의 관계 중심과 인공지능과
인간의사의 관계 중심으로 구체화한 자율성 존중 원칙, 악행 금지의 원칙, 선행의 원칙,
정의의 원칙에 대하여 어떠한 방법론을 적용해야 할 것인가에 대하여 논의해보고자 한
다.

근본적으로 비첨과 차일드리스의 생명의료 윤리 4대 원칙은 생명의료윤리 영역에서


윤리적인 규범들의 체계를 제공하는 기본 윤리 원칙이다. 앞선 3장에서 언급한데로, 자
율성존중, 악행금지, 선행과 정의의 원칙은 보건의료분야에서 공통적으로 합의하고 있는
것이며, 의료분야에서 발생하는 윤리적인 문제에 있어 무엇이 허용되는 행위인지, 혹은
어떤 행위가 도덕적으로 정당화 될 수 있는지 판단하는 과정에서 중요한 역할을 하는
기준이다.208) 그렇기 때문에 의료분야 인공지능 설계에 있어 생명의료윤리 원칙의 학습

207) 이제영, 김단비, 양희태, 앞의 논문, p. 15.

- 132 -
은 필수적인 것이고, 이에 대해 다시 논의할 필요는 없을 것이다.

하지만, 앞선 ‘의료분야의 인공지능 도입과 생명윤리’에서 언급했듯이 의료분야는 의


료 윤리 전반에서 도덕적 원칙들이 상충하는 행동을 낳게 되는 상황이 무수하게 존재할
수 있고, 이것이 인공지능의 판단에 영향을 주어 경제적인 손실뿐만 아니라 인간의 건강
이나 생명과 직결될 수 있다. 인공지능은 의료분야에 엄청난 변화를 가져올 것으로 예상
되며, 이러한 급격한 변화 속에서 인공지능의 도덕적 판단은 매우 중요한 문제이다. 특
히 보건의료분야는 이러한 상황 속에서 머지않은 미래에 로봇의사가 진료와 진단 및 처
치까지 하는 병원도 등장할 것이라고 말하는 학자들도 있으며, 무엇보다 환자 한명마다
본인의 유전자와 증상에 맞는 맞춤형 진단과 치료방법, 나아가 맞춤형 신약까지 제공하
는 미래형 병원은 인간의 수명과 의학의 미래를 완전히 바꿀 것으로 예측하고 있다.

이렇듯 생명의료분야에 적용될 수 있는 인공지능 기술은 매우 다양하고 복잡하기 때


문에, 이들을 예측하고 분류하기는 쉽지 않다. 생명윤리의 4대 원칙이 실제 의료 현실에
서 발생하는 윤리적인 문제를 모두 해결할 수 있는 것은 아니므로, 이러한 4원칙을 통하
여 생명의료윤리의 현장에서 인공지능에게 행위지침을 내리기 위해서는 인공지능시대에
맞는 구체화가 필요하다. 여기에서 구체화는 범위와 주로 관련되어 있으며, 생명의료분
야에서 생명의료윤리가 구체화되어야 할 수 많은 범주들이 있다. 본 연구에서는 인공지
능시대 임상현장에서 발생하는 윤리적인 문제 해결을 위해 생명의료윤리 4대 원칙을 인
공지능과 환자, 그리고 인공지능과 보건의료인의 관계라는 두 가지 맥락에서 구체화했
다. 그러므로 우리는 두 가지 맥락에 따라 구체화된 4대 원칙을 인공지능에게 적용하기
위한 방법론에 대해 논의해보아야 한다.

먼저, 인공지능과 환자의 관계라는 관점에서 구체화한 생명의료윤리 4대 원칙은 어떠


한 방식으로 적용해야 할 것인가?

기본적으로 인공지능과 환자의 관계 중심에서 생명의료윤리 4대 원칙은 하향식 접근


법을 통하여 구체화한 4대 원칙을 인공지능에게 적용하여 설계해야 한다. 예를 들어,
‘충분한 정보에 의한 자율적 동의의 원칙’은 ‘인공지능은 환자 및 보호자에게 의료서비스
의 이용을 판단하는데 필요한 충분한 정보를 제공하고 환자의 자율적 의사에 따른 동의
를 받아야 한다.’와 같이 원칙 그대로 프로그래밍 해주고 인공지능 스스로 판단하게 해
야 한다는 것이다. 하지만 인공지능이 이러한 원칙에 따라 환자를 진단할 경우 어떠한
결과를 가져올 것인가에 대해서는 누구도 장담할 수 없다.

208) 이일학, 구영모, 앞의 논문, pp. 193-210.

- 133 -
<표 32> 인공지능과 생명의료윤리 4대 원칙: 인공지능과 환자의 관계 중심

원칙 인공지능과 환자의 관계 중심

충분한 정보에 의한 자율적 동의의 원칙

: 인공지능은 환자 및 보호자에게 의료서비스의 이용을


자율성 존중의 원칙
판단하는데 필요한 충분한 정보를 제공하고 환자의 자율적
의사에 따른 동의를 받아야 한다.

환자의 안전 최우선과 악행 금지의 원칙

: 인공지능은 환자의 진단 및 치료에 있어 환자의 안전을


악행 금지의 원칙
최우선적으로 고려해야 하며, 환자에게 환자의 상태를
악화시키거나 해악을 입히는 의술을 사용해서는 안된다.

선행에 대한 환자 존중의 원칙

: 인공지능은 환자의 질병을 치료하고 건강을 증진하는 선행을


선행의 원칙 하며, 환자가 자신의 의지대로 진료의 방향을 결정하는 것이
환자와 진료에 위해가 되지 않는다면, 환자 스스로의 결정을
존중해야 한다.

공정한 절차를 통한 의료 배분의 원칙

: 인공지능은 환자가 의료적 문제들에 대해 편견과 차별 없는


정의의 원칙
공정한 절차를 통한 치료를 받을 수 있도록 의료서비스를
공평하게 배분해야 한다.

이렇듯 선택한 윤리이론을 적용하여 알고리즘과 서브시스템을 설계하는 방식으로 이


루어지는 하향식 인공지능 학습은 기초적인 윤리 외에 실질적으로 복잡한 상황에 적용하
기에는 한계가 많이 나타난다고 보고된다. 그리고 임상현장에서 발생하는 문제들은 환자
와 질병의 종류와 심각성, 의료 환경 등에 따라 매우 복잡한 이해관계들이 발생하므로
상향식 방법을 통하여 인공지능에게 윤리적 상황에 대하여 계속적으로 학습을 시켜야 한
다. 예를 들어, ‘환자의 안전 최우선과 악행 금지의 원칙’은 ‘인공지능은 환자의 진단 및
치료에 있어 환자의 안전을 최우선적으로 고려해야 하며, 환자에게 환자의 상태를 악화
시키거나 해악을 입히는 의술을 사용해서는 안 된다.’라고 하향식으로 설계된다 하더라
도, 인공지능이 ‘악행’에 대한 정의와 범위를 어떻게 설정하는가에 따라 그 결과가 매우

- 134 -
달라질 수 있다.

또한, ‘선행에 대한 환자 존중의 원칙’에서도 ‘인공지능은 환자의 질병을 치료하고 건


강을 증진하는 선행을 하며, 환자가 자신의 의지대로 진료의 방향을 결정하는 것이 환자
와 진료에 위해가 되지 않는다면, 환자 스스로의 결정을 존중해야 한다.’고 설계된다 하
더라도, 인공지능이 설정하는 ‘선행’에 대한 정의와 범위가 매우 중요하다.

일반적으로 선행은 다른 사람들을 이롭게 하려는 모든 형태의 행위를 말하고 있으나,


인공지능이 ‘선행’이라는 단어를 정립하기 위해서는 선행에 대한 제한적 조건과 범위를
설정해주어야 한다는 것이다. 우리는 전통적인 윤리 원칙들을 통하여 선행을 크게 적극
적 선행과 공리의 원칙에 따른 선행으로 구분해 볼 수 있다. 적극적 선행은 다른 사람들
에게 혜택을 베풀 것을 행위자에게 요구하는 것이며, 공리의 원칙에 따른 선행은 전체적
으로 최선의 결과를 산출하기 위해서 이익, 위험 및 비용의 균형을 맞출 것을 행위자에
게 요구한다.209) 특히 공리주의는 선행의 원칙에 따라 구체화된 이론으로 우리들에게 이
익을 주어야 하는 의무는 무엇인지, 해로운 행위는 어떻게 방지할 수 있는지에 관해 관
심이 많다. 하지만 이러한 선행에 대한 제한적 조건의 문제는 인간 의사에게 있어서도
여전히 환자와 의료 현장에 따라 그 선택이 쉽지 않은 문제이다. 그러므로 인공지능은
이어서 논의할 인공지능과 인간의사의 관계에서 상향식 학습을 통하여 윤리적 기준과 정
의를 확립해나가는 것이 중요해질 것이다.

그렇다면, 인공지능과 인간의사의 관계라는 관점에서 구체화한 생명의료윤리 4대 원


칙은 어떠한 방식으로 적용해야 할 것인가?

인공지능과 인간의사의 관계 중심에서도 하향식 접근법을 통하여 구체화한 4대 원칙


을 인공지능에게 프로그래밍하여 설계하고, 임상현장의 사례에 대한 상향식 접근법을 혼
합하는 방법을 사용해야 한다. 이러한 방식은 일반적인 문제를 해결할 때에는 하향식 접
근법에 기반을 둔 4대 원칙을 따르도록 설계하고, 원칙들이 상호 충돌하는 문제에 대해
서는 임상적인 사례를 통해 다원적인 가치와 규범이 학습되는 상향식 접근법을 혼합하는
혼합식 접근법을 사용해야 한다는 것이다.

<표 33> 인공지능과 생명의료윤리 4대 원칙: 인공지능과 인간의사의 관계 중심

원칙 인공지능과 인간의사의 관계 중심
209) T. L. Beauchamp & J. F. Childress, op, cit, p. 217.

- 135 -
충분한 의사소통에 의한 자율적 동의의 원칙

: 인공지능은 환자의 진단 및 치료에 관한 모든 판단에 대하여


자율성 존중의 원칙
인간의사와의 충분한 의사소통을 통해 자율적 동의를 받아야
한다.
이익과 해악의 정의와 의사결정 동의의 원칙

: 인공지능은 환자의 진단 및 치료에 의한 이익과 해악을


악행 금지의 원칙
정의하고, 이를 바탕으로 한 의사결정에 대하여 인간의사의
동의를 받아야 한다.
선행의 범위에 대한 정의와 의사결정 동의의 원칙

선행의 원칙 : 인공지능은 선행의 범위를 정의하고, 이를 바탕으로 한


의사결정에 대하여 인간의사의 동의를 받아야 한다.
상호작용을 통한 정의 구현의 원칙

: 인공지능과 인간의사는 의료 의사결정의 상호작용을 통하여


정의의 원칙
의료자원의 정의로운 분배에 대한 상호감시의 역할을
수행하여 정의를 구현하는 역할을 수행해야 한다.

예를 들어, ‘충분한 의사소통에 의한 자율적 동의의 원칙’은 ‘인공지능은 환자의 진단


및 치료에 관한 모든 판단에 대하여 인간의사와의 충분한 의사소통을 통해 자율적 동의
를 받아야 한다.’와 같이 하향식으로 프로그래밍 해주고, 개별적으로 인공지능이 상향식
으로 학습하는 과정에서 ‘충분한 의사소통’과 ‘자율적 동의’에 대해 정의하고 그 범위를
설정하도록 하는 방식이다. 실질적으로 최근 인공지능을 설계하는 공학자들은 알고리즘
을 설계할 때 하향식과 상향식 접근법을 혼합하는 방법을 사용하고 있다.

또한, ‘선행의 범위에 대한 정의와 의사결정 동의의 원칙’에서도 ‘인공지능은 선행의


범위를 정의하고, 이를 바탕으로 한 의사결정에 대하여 인간의사의 동의를 받아야 한다.’
고 하향식으로 설계된다 하더라도, 인공지능이 설정하는 ‘선행’에 대한 정의와 범위가 매
우 중요하므로 상향식 접근법을 통하여 선행에 대한 기준과 정의를 확립해나가는 것이
중요하다. 하지만 앞서 언급한데로 이러한 문제는 인간 의사에게 있어서도 여전히 어려
운 문제이고, 인공지능시대 생명의료윤리 4대 원칙은 인공지능뿐만 아니라 보건의료인이
함께 지켜나가야 할 기본 준칙이라는 것에 중점을 두고자 했다.

그렇기 때문에 본 연구에서는 인공지능에게 혼합식 접근법으로 학습시키기 위해서는


윤리적 문제 상황에 대한 예시와 그에 맞게 윤리적 원칙을 확장하여 적용하는 것이 중

- 136 -
요하다고 판단하였고, 이러한 확장성 제언은 인공지능시대를 맞이한 보건의료인에게도
중요한 교육자료가 될 수 있을 것으로 보인다.

3. 보건의료 관계에 따른 인공지능의 생명의료윤리 4대 원칙 확장

이렇듯 이미 도덕적 주체로서의 인공지능에 대해서는 그 존재와 인식에 대한 논의가


이미 상당 수준 진행되었고, 인공지능에게 윤리적 원칙을 적용하기 위한 방법도 구체화
되고 있다. 또한, 세계의사회와 대한의사협회도 4차 산업혁명으로 인해 증가하는 복잡한
윤리문제에 대응하기 위하여 의사윤리강령과 지침을 개정하고, 의사의 일반적 윤리에 이
어 환자와 동료보건의료인에 대한 구체적인 윤리지침를 우선적으로 제시하고 있다. 그러
나 아직까지 인공지능이 의료현장에서 어떠한 역할을 할 것이고, 이를 받아드리는 의료
인의 대응에 대한 윤리적 관점에 대한 논의는 아직 미흡하다. 따라서 본 장에서는 앞서
의료윤리의 근간이 되는 생명의료윤리의 윤리적 원칙을 기반으로 인공적 도덕 행위자로
서의 인공지능의사와 보건의료인, 그리고 환자 사이의 상호관계를 기초로 구체화한 환자
의 복리를 우선으로 하는 새로운 윤리적 원칙을 임상 현장의 사례에 확장하여 적용해보
고자 한다.

1) 자율성 존중의 원칙 확장

앞선 장에서 우리는 자율성의 원칙을 인공지능과 환자의 관계 중심에서는 ‘충분한 정


보에 의한 자율적 동의의 원칙’으로 구체화하여 인공지능은 환자 에게 의료서비스의 이
용을 판단하는데 필요한 충분한 정보를 제공하고 환자의 자율적 의사에 따른 동의를 받
아야 한다는 것을 강조하였고, 인공지능과 인간의사의 관계 중심에서는 ‘충분한 의사소
통에 의한 자율적 동의의 원칙’으로, 인공지능은 환자의 진단 및 치료에 관한 모든 판단
에 대하여 인간의사와의 충분한 의사소통을 통해 자율적 동의를 받아야 한다고 구체화하
였다.

가) 인공지능과 환자의 관계 : 충분한 정보에 의한 자율적 동의의 원칙

우리는 의료윤리에서 말하는 충분한 정보에 의거한 동의의 정확한 개념에 대한 이해


를 바탕으로, 생명의료분야의 인공지능 도입으로 인해 충분한 정보에 의한 자율적 동의
의 원칙의 차원에서 인공지능의사와 환자의 관계에서 발생할 수 있는 윤리적인 문제에

- 137 -
대한 의사결정에 대하여 구체적인 사례를 통하여 살펴볼 필요가 있다.

59세 남자 A는 간조직 검사를 위해 입원하였다. 조직검사 동의서를 받기 위해 전공의는 환자에게 조직


검사의 방법과 위험성 등을 설명하였다. 간조직 검사 후 출혈로 환자가 사망에 이른 사건을 목격한 전공의
는 설명 중 발생할 수 있는 부작용을 강조하였다. 부작용을 들은 환자는 불안해하며 보호자와 상의해야겠
다고 하며 동의서 사인을 미뤘다. 하지만 환자의 검사가 다음 날 아침 일찍 예약되어 있어 보호자와 상의
가 늦어지는 경우 검사를 미뤄야 하는 상황이 예상되자 전공의는 다시 A에게 가서 환자가 걱정하는 부작
용은 아주 드문 것임을 강조하였다. A는 동의서에 사인했지만 불안감을 떨칠 수가 없었다.210)

위의 사례에서 의사는 간조직 검사를 위해 입원한 환자에게 발생할 수 있는 부작용에


대하여 환자의 이해가 가능한 수준에서 객관적인 견해를 가지고 의학적 정보를 제공해야
하며, 검사나 치료의 결과로 예상되는 이득과 위험을 조작 없이 전달해야 한다. 그러나
위의 상황에서 환자는 동의서의 사인을 미루고자 하였으나, 검사 일정에 대한 의료인의
부담으로 인해 불안한 동의를 했다. 이러한 상황에서 객관적으로 부작용의 정보를 전달
해야한다는 지침은 인간의사보다 인공지능 의사의 경우 더욱 정해진 지침에 따라 이루어
질 수 있을 것이다. 또한, 인간 의사의 경우, 임상현장에서의 경험과 환자가 입원한 의
료기관의 특수성에서 발생할 수 있는 정보가 동의 과정에 포함될 수 있고, 이러한 정보
를 제공하는 목적이 해당 치료를 유도하거나, 단순히 의료사고 발생 시의 의료진 스스로
를 보호하기 위함일 수 있다.

인공지능의 경우에는 이러한 이익관계나 개인적인 이익을 배제하고 가능한 객관적 입


장에서 환자가 적절한 검사와 치료를 받을 수 있도록 관련된 정보를 전달할 수 있으므
로 환자의 자율성을 더 잘 보호할 수 있을 것이라는 측면으로도 생각해볼 수 있다. 그러
나 인공지능의 알고리즘이 의료기관의 이익을 위해 비중이 높게 설계 된다거나, 인공지
능 의사가 단독으로 의료행위를 할 경우 환자나 보호자의 미묘한 불안감과 같은 감정을
스스로 인식하고 대처할 수 있을 것인가에 대한 의문이 존재한다. 그래서 인공지능과 로
봇의사윤리에 대한 연구에서는 인간의사와 로봇의사 중에 누가 환자의 동의를 구할 것이
며, 누가 적절한 치료 방법과 치료율을 설명할 것인지에 대하여, 아직까지 그 최종 결정
은 인간 의사의 몫이어야 한다고 보고 있다.211)

그러면 인공지능의사는 언제나 질병과 관련된 모든 정보를 솔직하게 환자와 보호자에


게 알려 주어야 하는가? 여기서 우리는 앞선 전통적인 윤리관에서 했던 질문을 다시 해
야 한다. 일차적으로 인공지능의사에게는 환자와 보호자에게 치명적인 질환에 대한 진실

210) 대한내과학회 윤리위원회, 앞의 책, p. 8.


211) 맹주만, 앞의 논문, pp. 271-308 참조.

- 138 -
을 말해야 하는가 하는 윤리적 물음이 발생한다. 환자의 질환을 살피고 최선의 치료를
제공하는 것이 의사의 임무라고 하는데, 환자와 보호자에게 진실을 말하는 것이 치명적
인 질병의 치료에 해로운 영향을 미친다면 어떻게 해야 하는가? 아울러 환자에게 제공
하는 정보 공개를 어느 정도까지 알려 주어야 하는가? 뿐만 아니라 여기에서 만약 의사
가 플라시보 효과를 위해서 제대로 된 정보를 전달하지 않고 속인다면 이것은 환자의
자율성을 훼손하는 것이 아닌가? 인간보다 의료분야에서 정확성과 일관성을 높여가는
의료 환경에서, 새로운 의료주체인 인공지능의사와의 관계를 위해 우리는 무엇을 더 고
려해야 할까? 이러한 물음들이 자율성 존중의 원칙에서 일차적으로 다루어 볼 만한 것
이며, 다음의 사례에서 위의 질문에 대한 인공지능의사의 역할을 살펴볼 수 있을 것이
다.

여기서 우리는 단순히 정확하다는 것이 곧 의학적으로 효율이 높고 의료의 본래 목


적에 부합한다는 것과는 구분해야 한다는 것을 명심해야 한다. 정확하다는 것이 환자가
더 잘 치료될 수 있다는 것을 보장하지 못한다. 예를 들면 인공지능의사가 치명적인 질
환을 가진 환자에게 정확하게, 질환명과 남은 생을 계산해주고 환자 삶의 의지를 꺾게
만든다면, 오히려 그렇게 하지 않은 경우가 환자의 생명유지에 더 도움이 될 수도 있을
것이다. 또 다른 한편으로는 인공지능의사는 살아날 가능성이 없는 중증환자들의 연명의
료장치와 응급치료를 하지 않을 수도 있고, 특히 인공지능기기의 소유자인 병원의 입장
에서 유리하게 설계된 인공지능의사의 결정은 환자와 보호자들에게는 치명적인 결과를
대량 양산할 수 있다. 기본적으로 정확성을 높이기 위해 갖추어야하는 의료 빅데이터는
의료적인 처방이 담긴 개인정보이므로 이를 구축하는 데는 현행법상으로도 한계가 있다.
하지만 다음의 사례에서는 인공지능의사의 정확성과 충분한 정보제공이 환자의 자율
성 존중을 위한 긍정적인 역할을 기대해 볼 수 있다. 2012년 미국에서 있었던 뇌종양
말기 진단을 받은 한인 여성212)은 지나친 고통으로 안락사를 요청하고 병원과 법원이
수락하였지만, 가족들의 만류로 끝내 인공호흡기에 의존한 채 4개월을 더 극심한 고통을
견뎌야 했다. 이 사건이 있은 후 가족들은 ‘환자와의 마지막 인사를 나눌 마음의 준비를
더 할 수 있어서 좋았다’라고 하지만, 환자의 입장에서는 말로 표현할 수 없는 극심한
고통과 비인간적인 무의미한 치료과정을 본인의 의사와 상관없이 연장할 수밖에 없었다.
만약 이때 인공지능의사가 있었다면 인공지능의사는 환자의 보호자들에게 현재 환자가
겪는 고통의 정도와 치료가능성, 무의미한 의료자원의 낭비, 환자의 자기결정과정의 중
요성과 법적 효력 등을 더욱 상세히 충분히 알려주고 설득할 수도 있었을 것이다.

212) 동아일보(2013.02.14.), ‘존엄사 논란’ 뇌종양 투병 뉴욕 한인여성 사망, https://www.donga.com/


news/Inter/article/all/20130214(2021.05.12. 접속)

- 139 -
현재 우리나라 금융위원회에서는 보험설계사 대신 인공지능기기가 계약 중요사항을
설명할 수 있도록 허용하는 내용을 담은 ‘비대면·디지털 보험모집 규제 개선방안’을 발표
했다.213) 이처럼 향후 의료배상문제 및 소송과 밀접한 보험설계 과정에서도 인공지능기
기의 역할에서 속도, 음량, 추가질의 및 상세설명 등에서 보면 소비자 입장에서 인간 설
계사보다 더 효율적이라고 판단한 것이다. 머지않아 인간의사의 의료관련 정보전달 및
교육에서도 인공지능기기의 역할이 부각될 것으로 판단된다.

나) 인공지능과 인간의사의 관계 : 충분한 의사소통에 의한 자율적 동의의 원칙

앞서 우리는 인공지능의사와 환자의 관계에서 발생할 수 있는 자율성 존중의 원칙 차


원의 윤리적인 문제에 대한 의사결정에 대하여 살펴보았다. 이러한 윤리문제는 의료기관
에 종사하는 의료인과 인공지능의사 간에도 발생할 수 있으며, 바람직한 관계 형성 및
갈등의 적절한 조절을 위하여 상황의 제시가 필요하다. 그렇다면 인공지능의사와 인간의
사와의 관계에서는 충분한 의사소통에 의한 자율적 동의의 원칙에 대한 이해를 바탕으
로, 자율성 존중 원칙의 차원에서 인공지능의사와 인간의사의 관계에서도 발생할 수 있
는 윤리적인 문제에 대하여 살펴보고자 한다.

의료현장에는 자율적 의사(意思)를 표명할 수 없거나 정신질환으로 인해 그 의사(意


思)의 대표성에 문제가 생기는 환자도 많다. 만약 교통사고로 식물인간이 된 환자에게서
는 동의를 얻어낼 수 없다면 대리인을 누구로 할 것인가? 여기에서 대리인에 대한 물음
은 어려운 문제지만, 대체로 세 가지 의견이 있다. 대리 판단, 순수 자율성, 환자의 최선
이익이라는 세 가지 표준이 그 의견이다. ‘대리인 자신이 환자를 위해 원하는 것이 무엇
인가?’가 아니라 ‘만약 이 환자가 스스로 의사를 표현할 가능성이 있다면 이러한 상황에
서 어떻게 결정했겠는가?’라는 질문에 따라 결정을 내리는 것을 대리 판단 표준이라고
한다.214) 이는 다시 환자를 가장 잘 아는 대리인을 선정해서 그 환자가 자율적 능력을
지녔다면 이 상황에서 어떤 결정을 내릴지를 찾는 방법과, 해당 환자와 같은 질환에 걸
린 대다수의 이성적이고 합리적인 판단을 하는 사람들이 사람들의 내리는 결정을 찾는
방법으로 나누어진다. 순수 자율성 표준은 환자가 의사 표현 능력을 상실하기 전에 가지
고 있던 견해 그대로 대리인이 전달하는 방식이고, 사전 동의(advanced directive)의
하나인 생전 유언(the living will)이 대표적인 방법이다.215) 환자의 최선 이익 표준은 환

213) 조선비즈 뉴스(2021.05.16.), “금융위, 보험 판매에 AI 음성봇 도입 허용...”, 조선비즈,


https://biz.chosun.com/stock/finance(2021.05.16. 접속)
214) T. L. Beauchamp & J. F. Childress, op. cit, pp. 139-143
215) D. DeGrazia, op. cit, pp. 511-539.

- 140 -
자에게 무엇이 최선의 이익이 되는가를 찾아내는 삶의 질 표준을 말한다. 그렇다면 인간
의사와 인공지능의사는 이러한 선택에 있어, 어떠한 결정을 해야 하는가? 그리고 이러한
결정에 따른 책임은 인간의사와 인공지능의사 중 누가 지는가? 현재 인공지능의 수준에
서 이런 문제들에 대한 답은, 인간의사와 인공지능의사가 함께 판단하지만 최종 결정은
인간 의사에게 있다고 보고 있다. 여기서 인간의사는 다음과 같은 인공지능의사의 결정
을 충분히 고려하여 ‘상호 협의 및 정보제공’에 신중을 기해야 할 것이다.

환자가 의식이 불분명한 경우 인공지능의사는 대리 판단 표준, 순수 자율성, 환자의


최선이익을 대변하는 환자의 입장을 보다 잘 전달할 수 있다. 생전 환자가 자신이 추구
했던 것들이 무엇이었는지 환자 및 보호자와의 교류, 개인적 종교관, 가치관, 관심, 철학
등을 파악하고 분석하여 환자의 입장에서 인간의사에게 충분한 의사를 전달 할 수 있을
것이다. 아울러 환자가 사전 ‘연명의료의향서’를 작성하였다면 신속하고 적법하게 심폐소
생술 하지 않기나 인공호흡기 거부를 할 수 있을 것이다. 현재 우리나라는 3천여개 종합
병원급의 6% 정도만이 이런 기록들을 열람 가능하다고 한다. 따라서 실제로는 응급상황
에서 본인이 원하는 의료를 받거나 거부할 수 없는 실정이다.

53세 여자 B는 SLE(전신 홍반 루푸스)가 악화되어 입원하였다. 어느 날 회진 때 담당의사 뒤를 따라다


니던 사람이 와서 자신의 과거력과 현재 증상을 물어보고 흉부청진을 하였다. 담당 간호사에게 물어보니
자신을 진찰한 사람은 임상실습 학생이었다. B는 전공의에게 학생의 진찰에 불만을 토로했는데, 전공의는
미리 알리지 않은 것에 대해 미안하다는 말과 함께 환자가 대학병원에 입원한 것 자체가 진찰과 치료 과
정에 학생들의 교육 참여를 허락한 것이라고 설명하였다. B는 뭔가 불합리하다고 생각했으나 까다로운 환
자로 낙인찍힐 것 같아 더 이상 말을 하지 않았다.216)

위의 또 다른 사례는 포괄적이거나 암묵적인 동의에 대해 의료행위를 받아들이는 환


자와 의료행위를 하는 의료진의 생각이 차이가 있음을 나타내고 있다. 내과전공의 의료
윤리 사례집에서 발췌한 위의 사례에 대하여 대한내과학회에서는 여전히 일부 의료진들
은 환자들이 진료를 받기위해 병원에 왔다면, 의료진이 제안하는 검사와 치료, 그리고
그에 관련된 모든 절차에 대해서도 동의한 것으로 생각하고 있으며, 일부에서는 환자가
동의해야만 하는 것으로 생각되는 경우가 있다고 말하고 있다. 그러나 환자의 개인 정보
와 관계가 있거나 환자의 신체와 복리에 영향을 주는 검사 및 시술에 대해 의료인은 충
분히 설명할 필요가 있으며, 의학적인 행위의 위해정도와 침습정도, 그리고 질환의 치료
에 있어 그 시술의 중요도에 따라 차별화된 동의과정이 있어야 한다. 앞선 장에서 언급
한대로, 인공지능의사는 이미 국내 대형병원에도 도입되어 있으며, 이러한 로봇 의사 왓

216) 대한내과학회 윤리위원회, 앞의 책, p. 8.

- 141 -
슨의 최종 진단은 인간의사들에 의해 결정되고 있다. 하지만, 머지않은 미래에 로봇 의
사가 실제 침습적인 의료 행위를 하게 될 수 있으며, 대학병원을 포함한 다수의 대형병
원은 이제 인간 수련의뿐만 아니라, 인공지능의사의 교육과 관련하여 협조를 요청할 수
있어야 할 것이다. 이러한 상황에서 인공지능이 환자에게 직접적인 시술을 하는 경우에
는 인간의사의 감독 하에서 이루어져야 하며, 환자가 알 수 없는 수술 과정에서의 참여
라 할지라도 자율성의 원칙에 의하여 인간의사와 인공지능의사는 해당 내용에 대하여 충
분히 설명하고 동의를 구하고 시술을 제한해야 한다는 것이다.

실제 의료현장에서는 이러한 교육 과정 외에도 의사와 환자들 사이에 동의 과정과 관


련하여 의견의 차이가 발생할 수 있다. 앞서 언급한 바와 같이 의사들은 종종 환자의 검
사와 입원 및 퇴원 수속 과정과 응급실에서 이루어지는 일련의 신체진료 과정에 있어서
는 정형화된 매뉴얼이 있으므로 환자의 동의 없이 시행할 수 있다고 판단할 수 있으나,
환자와 보호자는 그렇지 않으며 동의가 반드시 있어야 한다고 생각한다. 인공지능의사는
이러한 치료나 치료 절차에 대한 설명을 정해진 매뉴얼에 따라 인간의사보다 더 잘 수
행할 수도 있을 것이다. 그리고 인공지능의사는 침습적이지 않고 일반적으로 절차에 따
라 수행하는 검사라 할지라도 환자들에게 이를 상세히 설명할 수 있으므로, 환자의 자율
성 및 존엄성을 존중할 뿐만 아니라 환자와의 신뢰 관계 형성에도 중요한 역할을 할 수
도 있을 것이다.

2) 악행 금지의 원칙 확장

악행금지 원칙은 인공지능시대의 관계에 있어 나타날 수 있는 의료문제에 맞추어, 인


공지능과 환자의 관계 중심에서는 자율성의 원칙을 ‘환자의 안전 최우선과 악행 금지의
원칙’으로 구체화되어 인공지능은 환자의 진단 및 치료에 있어 환자의 안전을 최우선적
으로 고려해야 하며, 환자에게 환자의 상태를 악화시키거나 해악을 입히는 의술을 사용
해서는 안 된다는 것을 강조하였고, 인공지능의사와 인간의사의 관계 중심에서는 ‘해악
의 정의와 의사결정 동의의 원칙’으로, 인공지능은 환자의 진단 및 치료에 의한 이익과
해악을 정의하고, 의사결정에 대하여 인간의사의 동의를 받아야 한다고 구체화되었다.

가) 인공지능과 환자의 관계 : 환자의 안전 최우선과 악행 금지의 원칙

그렇다면 이제 생명의료분야의 인공지능 도입으로 인해 인공지능의사와 환자의 관계


에서 발생할 수 있는 환자의 안전 최우선과 악행 금지의 원칙과 관련한 윤리적인 문제

- 142 -
에 대한 의사결정에 대하여 구체적인 사례를 통하여 살펴볼 필요가 있다.

89세 여자 M은 8년 전 치매를 진단 받고 요양병원에 입원 중이다. M의 인지 능력과 일상생활 능력은


점점 저하되었고 약 1년 전부터는 거의 움직이지 못하며, 말도 하지 않았다. 식사도 혼자 할 수 없는 상태
인데, 종종 입을 열지 않고 음식을 거부하기도 하였다. 주치의는 가족과 상의하여 M에게 L-tube를 이용한
경관영양을 시행하였다. 경관영양을 시행했음에도 불구하고 M의 쇠약감은 점점 심해졌고, 더 이상 가족을
알아보거나 주변을 인지하지 못하는 상태가 되었다. 가족들은 L-tube의 제거를 요구하지는 않지만 가끔씩
의료진에게 치료를 지속하는 것이 어떤 의미가 있는지 모르겠다고 이야기를 한다.217)

어떤 치료가 무의미한 연명의료인지를 결정하는 것은 어려운 문제이고, 이것은 우리


나 의료분야에 인공지능의사를 도입할 수 있는가에 대한 근본적인 의문을 품게 되는 사
례일 수 있다. 우리나라 연명의료와 그 중지에 관한 지침에서는 위와 같은 사례에서 연
명의료 중지의 기준를 일반적인 것과 특수한 것으로 구분하고, 인공적 영양 및 수분공급
을 중단하는 것은 일반적인 것으로 분류하고 가능한 치료 목록에는 포함하지 않고 있다.
치료의 무의미함에 대한 다양한 입장은 실제 의식의 유무, 회복 가능성과 무관하게 인공
호흡기를 이용해 환자의 생명을 영유하는 것을 의미 있는 의료행위로 보는 시각에서부터
이러한 조취는 환자가 독립적으로 일상생활을 영위하게 할 수 없다는 이유로 의미가 없
다고 주장하는 시각까지 있다. 그 중에서도 환자에게 영양 및 수분을 공급하는 문제는
무의미한 연명의료에 있어서 중요한 논쟁 중 하나이다. 그렇다면 우리는 이러한 연명치
료의 중단 기준에 대하여 인공지능의사에게 어떠한 객관적 기준을 제시할 수 있을 것인
가가 중요한 이슈가 될 수 있다. 그리고 이러한 기준에 대하여 인공지능의사가 연명치료
에 대하여 회의적인 환자와 보호자를 설득할 수 있을 것인가도 감정을 소통할 수 없는
인공지능의사의 또 다른 문제점으로 제시되고 있다.

35세 여자 P는 위암, 뼈 및 복막 전이로 극심한 통증을 호소하였다. 고용량의 마약성 진통제를 투여하여
통증은 조금 나아졌으나 복부 불편감, 구역, 구토 등의 소견이 관찰되었다. 얼마 후 다시 통증이 심해지고,
혼자 돌아누울 수조차 없을 정도로 기운이 없어졌다. P는 주치의를 볼 때마다 빨리 죽을 수 있는 약을 달
라고 이야기를 하였다.218)

위의 사례에서는 의료윤리에서 논쟁되는 중요한 주제인 안락사 측면에 대한 환자의


요구와 악행 금치 원칙의 딜레마를 보여준다. 불치병에 걸려 고통 받는 환자가 의사에게
자발적이고 적극적인 안락사(voluntary active euthanasia)를219) 요청하는 상황에 대하

217) 대한내과학회 윤리위원회, 앞의 책, p. 30.


218) 대한내과학회 윤리위원회, 앞의 책, p. 34.
219) J. D. Arras, op. cit, p. 983.

- 143 -
여 인공지능의사가 다음과 같은 윤리적 가치관의 혼란을 겪을 수 있다. 자의적이고 적극
적인 안락사를 찬성하는 규칙 공리주의자들의 관행을 받아들임으로써 고통 속에서 오직
죽음만을 기다리는 많은 불치병 환자들이 안락사를 통해 괴로움을 종식시킬 수 있다는
이득을 강조해야 할 것인가, 아니면 반대로 만약 의사가 환자를 안락사 시킬 수 있도록
허용한다면, 자신이 가족에게 짐이 된다고 생각하는 노인들이나 투병 중인 환자들이 두
려움을 느낄 수 있으므로 이러한 결정은 공익에 부합하지 않는다는 입장에 서야 할 것
인가라는 윤리적인 문제가 발생할 수 있다.

안락사의 문제에 있어, 우리나라에서는 1997년 ‘보라매병원사건’과 ‘2009년 세브란스


병원의 김할머니 사건’이 안락사를 판단하는 가장 큰 사건으로 알려져 있고, 두 사건으
로 인해 우리나라 ‘사전연명의료의향서’가 부각되고 시행되었다고 해도 과언이 아니다.
두 사건의 특징은 비자발적 소극적 안락사의 형태임은 같은 상황이지만 보라매병원사
건220)의 경우에 의료진과 보호자는 살인 및 살인방조로 실형을 받아, 이후 모든 병원에
서는 소생가능성이 없는 환자 가족들의 퇴원 요구는 전부 거절하게 되는 결과를 초래했
다. 김할머니 사건221)은 법원에서 가족들이 요청한 비자발적 소극적 안락사를 허용하였
다. 이는 우리나라에서 존엄사를 인정한 첫 판례로 이후 비슷한 안락사 판단에 있어 중
요한 기준으로 작용되고 있다. 이처럼 동일한 비자발적이고 소극적인 안락사의 사건이
다르게 판단된 이유는 환자의 존엄과 가치, 그리고 행복추구를 위한 자기 결정권에 대한
객관적인 기준이 부족했고 이런 결정권의 시행에 있어 사회적 제도가 마련되지 못한 시
스템의 부재로 보아도 될 것이다.

아울러, 2019년 4월 헌법재판관의 낙태죄 헌법불합치 판결도 66년만에 뒤바뀐 생명


권보다 자기결정권을 중요시한 판결222)로 해악금지의 원칙에서 보면 생명의 출발을 어디
서 보느냐에 대한 다양한 해석이 있을 수 있지만 살아있는 생명에 대한 악행이 허용가
능하다는 문제로 종교계의 큰 반발을 일으키고 있다.

위와 같이 안락사 허용과 낙태죄 위헌 판결은 인류가 추구해온 보편적 가치에 대한

220) 보라매병원사건은 사업실패로 인해 잦은 음주에 아내를 폭행하던 남편이 화장실에서 넘어져 머리를 다
쳐 병원으로 이송, 치료를 받던 도중 인공호흡기를 달았지만 의식을 회복하지 못한 상태였다. 환자의
가족은 병원비 등으로 퇴원을 요구하였고 의료진은 이에 대한 법적처벌을 하지 않는다는 귀가서약서
를 작성하는 조건으로 구급차로 집으로 이송했다. 집에 도착 후 보호자는 인공호흡기를 제거하였고 환
자는 5분만에 사망한 사건이다.
221) 세브란스병원 김할머니 사건’은 2008년 2월 폐암판정을 받은 환자가 식물인간이 된 이후 연명치료를
하고 있던 중 가족들이 병원비 등의 이유로 연명치료 중단을 요청하여 대법원에서 이를 허락한 사례
이다.
222) 아시아투데이 뉴스(2019.04.11.), “헌재, ‘낙태죄 처벌 조항’ 헌법불합치 결정…66년 만에 법개정”,
https://www.asiatoday.co.kr/view.php?key(2021.05.16. 접속)

- 144 -
인식의 변화를 인정하고 인간다운 삶의 존중과 자기 결정의 가치를 더욱 중요하게 생각
한다는 측면이 반영된 결과라고 할 수 있다. 이처럼 시대에 따라 해석이 달라질 수 있는
보편적 가치의 변화 속에서 인공지능의사는 의료적인 판단을 함에 있어 ‘환자의 복리’를
고려하여 개별 환자가 추구하는 자신의 가치가 무엇인지 정확히 파악하고 일어날 수 있
는 악행의 정도를 충분히 객관적인 기준을 가지고 설명할 필요가 있다. 이는 인공지능의
사가 어떤 도덕적 가치를 추구해야 한다는 개념이 아니라 의료적인 악행이 이루어질 수
있는 상황에서 환자가 선택할 수 있는 가장 객관적이고 중요한 결정을 도와 줄 수 있다
는 장점을 가지고 있다. 아울러 환자는 인공지능의사의 역할로 인해 자신이 선택한 의료
행위가 어떻게 진행되고 어떤 결과가 어느 정도 확률에서 이루어질 수 있다는 예측가능
한 판단을 할 수 있다는 점에서 많은 도움이 될 것이다.

나) 인공지능과 인간의사의 관계 : 해악의 정의와 의사결정 동의의 원칙

앞서 우리는 인공지능의사와 환자의 관계에서 발생할 수 있는 악행 금지의 원칙 차원


의 윤리적인 문제에 대한 의사결정에 대하여 살펴보았다. 그렇다면 이제 생명의료분야의
인공지능 도입으로 인해 발생할 수 있는 해악의 정의와 의사결정 동의의 원칙과 관련한
윤리적인 문제에 대하여 인공지능의사와 인간의사 사이에서 발생할 수 있는 구체적인 사
례를 통하여 살펴볼 필요가 있다.

의료현장에서 일어날 수 있는 해악은 크게 주의 의무를 다하지 않은 것과 태만한 경


우로 볼 수 있다. 먼저 주의를 다하지 않아 처벌되는 사례를 들면, 최근 COVID-19로
인한 중앙과 지방 정부는 행정명령으로 5인이상 집합금지를 내려 이를 어긴 집단에게
벌금을 부과하고 있으며, 또한 마스크 미사용으로 인한 전염병 확산이 심각할 경우 방역
조치 미이행으로 치료비에 대한 구상권도 청구할 수 있다고 한다. 즉, 충분히 분별력이
있는 사람들에게 주의의무를 다하지 않아 타인에게 예상되는 해악을 끼쳤을 경우 그 위
험에 대한 인과적인 상황에 따라 법적, 도덕적 책임을 지우겠다는 것이다. 하지만 타인
에게 예상되는 해악이 있더라도 119 구급차가 신호위반을 하고 위험하게 도로를 질주
하는 경우 어느 정도의 한계 내에서 정당화되듯이, 심각한 해악이 정당화되기 위해서는
그보다 더 큰 선행이나 중요한 목적이 있어야 한다.

두 번째 태만으로 인한 해악의 경우는 다시 고의성 여부에 따라 두 가지로 나눌 수


있다. 고의성이 있는 태만은 행위자가 알면서도 위험을 부과한 경우로, 예를 들면 의사
가 자신의 개인 여름휴가로 인해 휴가 직전 개인 병원에서 수술한 환자의 소독을 미루
거나 하지 않아 감염의 위험을 증가시키는 경우이며, 고의성이 없는 태만은 의사가 환자

- 145 -
의 질환을 설명하면서 남편인 보호자에게 과거 부인의 성형수술로 인한 부작용을 상세히
알려주어 부인에게 수치심을 주거나 숨기고 싶은 과거를 들추어 버리는 경우이다. 둘 다
태만으로 인해 타인에게 피해를 끼친 사례로, 이런 경우 의료보건인들에게는 정기적인
사례별 교육이 반드시 필요하고 본인이 예상하지 못한 해악에 대한 위험성과 직업적 특
수성에 따른 표준들을 준수해야 하는 책임들에 관심을 갖고 교육 받아야 한다.

다음으로 인공지능과 인간의사의 ‘의사결정 동의’가 왜 중요한지 다음의 사례에서 판


단해 보고자 한다. 일반적으로 인공지능의사의 진단과 인간의사의 진단이 다를 경우에
환자가 사망하였다면 이를 두고 다음의 두 가지 경우가 나타날 수 있다. 첫째는 인공지
능의사가 진단한 치료와 수술법을 따르지 않고 인간의사가 단독으로 환자를 수술하다가
사망한 경우, 유족들은 인공지능의사의 수술법이 맞았고 인간의사의 수술법이 틀려 의료
사고가 난 것으로 생각할 수 있다. 두 번째는 인공지능의사의 처방과 수술법만을 따라
사망에 이른 경우 유족들은 의사가 자신의 책무를 다하지 못하여, 기계의 결정에만 따른
것이라고 의사나 병원을 대상으로 법적 조치를 취할 수 있다. 따라서 이런 문제들을 미
연에 방지하기 위해서 우리는 수술방법에 대한 의사결정 과정에서 인공지능의사의 진단
과 인간의사의 진단이 우선적으로 사전 동의의 과정을 거쳐야 하며, 그 결과 이로 인해
발생할 수 있는 해악의 범위를 충분히 환자와 보호자에게 설명하는 절차가 필요하다. 아
울러 미래에는 인간의사보다 인공지능의사의 의료적 판단이 월등해져 인간의사의 대다수
가 인공지능에 의존한다면, 위 두 번째의 분쟁이 계속적으로 발생할 수 있기 때문에 최
종 판단과 결정은 인간의사가 주도해야 한다고 생각한다. 아울러 테슬라의 자율주행차가
기술적으로 완벽에 가깝다고 하지만 교통사망사고가 계속해서 발생하고 있는 상황도 이
와 비슷한 경우로 향후 인공지능을 맹신하여 나타나는 이런 문제에 주의를 기울여야 한
다.

다음으로 아래의 사례는 심폐소생술에 관한 악행여부와 인공지능의사의 책무에 대한


것이다. 사례의 해석을 통하여 인공지능의사가 가져야 할 역할과 의무에 대해 생각해보
자.

84세 여자 O는 중증 치매로 요양기관에서 돌봄을 받고 있다. 물이나 음식을 먹을 때 종종 기침을 하였


고, 입안으로 음식을 마구 넣으려는 행동이 관찰되어, 간병인의 수발로 식사가 이루어졌다. 어느 날 간병인
이 다른 환자 음식 먹는 것을 봐 주는 사이 O는 자기 앞에 있는 음식을 입안으로 마구 넣었다. 발견 즉시
입안의 음식물을 제거하였으나 의사가 연락을 받고 달려 왔을 때, 기도 내에 음식물이 관찰되었고 이미 환
자의 호흡과 의식이 없었다. 이미 가족들과 환자의 DNR에 대해 논의하고 DNR을 결정한 상태였으나, 낮
에까지도 문제없이 지내던 환자가 갑자기 사망하게 되자 당황한 의료진은 가족들이 올 때까지 soft CPR을
시행하였다.223)

223) 대한내과학회 윤리위원회, 앞의 책, p. 32.

- 146 -
위와 같이, 인공지능의사가 회복 불능이라고 판단되는 환자에게 심폐소생술금지(Do
not resuscitate, DNR)를 지시하는 하는 것이 가능한가? 물론 심폐소생술을 하지 않으
면 환자는 죽는다. 이때 우리는 심폐소생술을 하는 것과 안하는 것 가운데 어느 것이 환
자에게 악을 행하는 것인지 묻지 않을 수 없고, 이 질문을 인공지능의사에게도 하지 않
으면 안 된다. 그리고 이러한 질문은 가까운 미래에 한 환자에 대한 책임을 동시에 가져
야 할 인공지능의사와 인간의사가 함께 풀어야할 중요한 문제이다. 의학적으로 심폐소생
술(cardiopulmonary resuscitation)은 심폐정지가 발생했을 때 즉각적으로 시행되어야
하는 것이므로 다른 치료와는 달리 의사의 처방 없이 시행될 수 있으며, 이러한 이유로
심폐소생술 여부에 대한 결정은 사전에 이루어져야 한다.224) 앞서 언급한 바와 같이, 악
행 금지의 원칙은 인공지능의사의 의료적인 행위에 있어서 ‘악행’을 어떻게 정의하느냐
에 따라 그 기준이 매우 달라질 것이다.

이 외에도, 간이식 수술을 할 때 우리는 공여자의 간 일부를 떼어낼 수밖에 없고, 이


러한 경우 공여자의 간을 절제하는 행위는 분명 공여자에게 악행을 하는 것이지만, 이것
은 간을 수혜 받을 환자를 살리는 데 필수적으로 요구되는 일이다. 여기서 우리는 의료
행위에 있어서 악행이 허용되는 범위가 어느 정도이며, 어떠한 기준 아래서 악행이 허용
되는가 하는 물음을 던지지 않을 수 없다. 또한, 이렇게 의료행위에 있어 환자 사이의
이해상충뿐만 아니라 개인에 대한 의료 행위도 긍정적인 부분과 부정적인 부분이 공존할
수 있다. 예를 들어 감기 환자에게 항생제 주사를 계속해서 놓는 것은 감기 바이러스를
줄이거나 죽이는 기능을 하여 감기 증상들을 줄이거나 멈추게 해 주지만, 다른 한편으로
과도한 사용은 인체에 부작용을 일으킬 수 있다. 이러한 경우 우리는 항생제의 효과에
비해 작은 부작용을 기꺼이 감수한다. 엄밀히 말하면 이러한 의사의 행위가 환자에게 어
느 정도의 악행을 한 것이지만, 우리는 이러한 관행은 정당화하고 있다.

이처럼 부작용이 있는데도 정당화되는 의료 행위는 수없이 많다. 단적으로 맹장 수술


을 하기 위해 환자의 복부를 개복하여 상처를 입히는 경우 수술이 아무리 잘되어도 수
술자국은 흉터로 남을 수 있다. 이러한 의료 시술의 특징을 흔히 이중 효과의 원리(the
principle of double effects)라고 부른다.225) 즉, 우리는 행위를 함에 있어 의도한 효과
나 결과뿐만 아니라 가끔 의도하지 않은 효과나 결과를 보이기도 하는데, 이러한 이중
효과가 정당화되기 위해서는 적어도 기본 행위 자체가 선한 것이어야 하고, 행위의 결과

224) D. DeGrazia, op. cit, pp. 511-539.


225) J. D. Arras, op. cit, p. 983.

- 147 -
로 선한 효과가 악한 효과보다는 커야 하며, 행위의 의도 자체도 선한 것이어야 한다.
마지막으로 선한 효과가 악한 효과보다는 당사자에게 더 이익이 되는 결과를 나타낼 경
우 이중 효과는 정당화 된다. 한편 일부 학자들은 이중 효과의 원리를 인정하지 않고,
선택적이거나 의무적인 치료를 분명하게 구분하는 것으로써 악행 금지의 원칙을 세우려
고 한다. 여기에서 의사는 선택적인 진료와 의무적인 진료를 해야 하며, 이 중 의무적인
진료를 하지 않는 것은 악행 금지의 원칙에서 벗어나게 되나, 의무적인 진료가 아닌 선
택적인 진료의 경우에는 의사와 환자의 합의에 따라 진료 행위가 이루어져야 한다는 것
이다. 이 같은 의료 행위의 구분은 어디까지나 환자 자신의 이익과 해악을 고려하여 결
정된다. 하지만 다원주의 사회에서 무엇이 환자에게 이익이 되고 해악이 되는지에 관한
객관적 기준이 없고 의료행위는 다양하고 복잡하기 때문에 모든 진료에 이러한 기준을
붙이기는 불가능하므로 이런 입장 역시 적용의 어려움을 낳는다.

특히 환자의 이익보다 해악이 매우 큰 다음의 사례에서는 인간의사의 최선의 선택과


환자를 위한 치료를 진행 하였을 지라도 환자가 사망에 이르는 매우 큰 해악을 끼쳤을
경우 법적인 판단은 업무상 과실치사로 인한 형사처벌에 이르고 있다. 지난 2020년 9월
내시경을 위해 설사를 유도하는 하제 투약 후 환자가 사망하는 사건으로 의사들이 법정
구속되는 사건이 있었다.226) 이는 법원이 ‘악행 금지’에 관한 엄격한 잣대를 기준으로
내린 판결로 당시 의협에서는 해당의사의 구속이 부당하며 의학적 판단을 범죄로 보는
법원에 대한 강한 항의를 하였다. 이러한 사건은 이중효과의 원리에서 기본행위 자체와
의도가 선했다 하더라도 악한 효과가 선한 효과보다 크다고 보고 의료인을 처벌한 사례
라 할 수 있다. 이런 경우 만약 인공지능의사가 내시경의 하제 효과와 약물의 부작용 사
례, 부작용 확률, 환자의 체질에 따른 약물의 위험 정도를 충분히 파악하여 환자에게 고
지하고, 혈액 검사, 알레르기 검사, 유전적 특이체질 상황 등 환자의 개인 의료 정보를
충분히 인간의사에게 제공하여 상호간 의사결정 과정을 충분히 거쳤다면 미연에 막거나
줄일 수 있는 상황일 수 있었을 것이다.

아울러 직접적인 수술협조 과정에서는 다음과 같은 사례가 있을 수 있다. 현재 수술


용 로봇은 외과를 중심으로 하여 내과 각종 암 제거 수술에 이르기까지 다양하게 확대
운영되고 있다. 인공지능의사는 많은 외과 수술을 참관하고 ‘매스의 움직임과 깊이, 장기
의 특정부위 절제, 사람마다 가지는 장기의 크기와 특징’ 등을 머신러닝으로 학습하여
예민하고 복잡한 수술과정에서 많은 도움을 주고 있다. 만약 경험이 부족한 외과 의사의

226) Medical World News(2020.09.14.), “내시경 하제 투약 후 환자 사망사건 의사 법정 구속…의협, 강력


반발”, http://medicalworldnews.co.kr/news(2021.05.16. 접속)

- 148 -
수술에서 인공지능의사가 판단하는 깊이보다 더 위험한 수준으로 매스를 밀어 넣는다면
이미 까다로운 수술법을 익힌 인공지능의사는 로봇 팔을 멈추도록 지시할 수 있을 것이
다. 더 나아가 스스로 킬스위치를 작동시켜 환자에게 해악을 끼치는 상황을 미연에 방지
할 수 있을 것이다. 한편으로 인간의사는 인공지능의사의 수술용 로봇 팔이 오류 없이
정상적으로 작동하는지 수시로 확인하여 환자의 생명과 복리에 해악을 주지 않도록 반드
시 수시 검사의 과정을 거쳐 진행하여야 할 것이다.

3) 선행의 원칙 확장

선행의 원칙은 인공지능과 환자의 관계 중심에서 ‘선행에 대한 환자 존중의 원칙’으


로 구체화되어 인공지능은 환자의 질병을 치료하고 건강을 증진하는 선행을 하며, 환자
가 자신의 의지대로 진료의 방향을 결정하는 것이 환자와 진료에 위해가 되지 않는다면,
환자 스스로의 결정을 존중해야 한다는 것이 강조되었고, 인공지능과 인간의사의 관계
중심에서는 ‘선행의 범위와 의사결정 동의의 원칙’으로, 인공지능은 선행의 범위를 정의
하고, 이를 바탕으로 한 의사결정에 대하여 인간의사의 동의를 받아야 한다고 구체화되
었다.

가) 인공지능과 환자의 관계 : 선행에 대한 환자 존중의 원칙

우리는 의료윤리에서 말하는 선행 원칙의 개념에 대한 이해를 바탕으로, 생명의료분


야의 인공지능 도입으로 인해 선행에 대한 환자 존중의 원칙의 차원에서 인공지능의사와
환자의 관계에서 발생할 수 있는 윤리적인 문제에 대한 의사결정에 대하여 구체적인 사
례를 통하여 살펴볼 필요가 있다.

선행에 관한 일반적인 예로 사마리아인의 이야기를 흔히 한다. 강도들에게 맞아 죽어


가던 사람을 아무도 도와주지 않는데 사마리아인은 동정을 느껴 상처를 치료해주고 보살
펴준다. 이런 사마리아인의 선행은 의무적으로 해야 하는 선행의 수준을 넘어 우리가 추
구하는 이상적인 선행에 가깝다. 이런 이상적인 수준의 선행은 우리가 실행하지 않았다
고 해서 도덕적으로 비난받지는 않는다. 하지만 우리는 매우 큰 선행을 베푸는 이상적인
선행을 추구하고 이를 실천한 사람을 도덕적으로 훌륭하다고 말한다.

이러한 이상적이고 적극적인 선행이 의료현장에서 어떤 문제나 딜레마가 생길 수 있


는지 인공지능의사의 역할과 관련하여 다음의 사례를 살펴보자.

- 149 -
예를 들어, 회복할 수 없는 만성질환을 가진 환자들은 오랫동안 치료를 받으며 생활
해야 하고, 치료를 받는 과정에서 질병이 쾌유되는 것이 아니라, 치료 과정에서 질환의
정도가 심화됨으로써 이차적인 질병이 발생하거나 환자의 전반적인 삶의 질이 낮아지는
것을 경험하게 된다. 그리고 이러한 이유로 치료를 거부하는 환자들도 발생한다. 아래의
사례에서도 의료진이 긴 치료과정에 대한 회의감으로 인해 치료를 거부하는 환자의 상태
를 알고 있다 하더라도, 치료를 중단하게 되면 환자가 사망할 가능성이 있으므로 환자의
의견을 따르는 데에 부담이 있으며, 이러한 문제는 의료문제의 당사자가 인공지능의사라
할지라도 동일하게 나타나는 문제이다.

77세 여자 D가 의식저하로 응급실에 왔다. 당시 혈액검사에서 BUN 152 mg/dL, creatinine 10.6 mg/dL,
Na 123 mmol/L, K 7.2 mmol/L의 소견을 보였다. 환자는 30년 전 당뇨병과 고혈압을 진단 받고 치료하였
으며 10년 전 만성신부전으로 투석을 시작하였다. 처음에 복막투석을 하였으나 잦은 복막염으로 2년 정도
지난 후 혈관투석으로 전환하였고 이후 투석전문병원에서 치료를 받았다. 가족들은 D가 3년 전부터 음식
이나 수분 섭취 등에 대한 주치의의 권고를 듣지 않았고 투석 전후에 체중변화가 심했으며, 종종 어지러
움, 쇠약감을 호소하였다고 하였다. 약 1년 전부터 D는 혼자 투석을 받으러 갈 수 없을 정도로 쇠약해졌
고, 종종 투석을 중단하고 싶다고 이야기했다. 최근에는 가족들이 병원에 자기를 데려가려고 하면 D가 위
험할 정도까지 강하게 몸부림을 치면서 투석을 거부하여, 1주 동안 투석을 받지 못했다고 한다. 투석 후에
도 D는 혼자 보행할 수 없으며, 용변도 스스로 처리할 수 없는 상태였다고 한다. 응급 투석을 시행한 후
D는 의식을 회복하였다. 하지만 왜 투석을 하였냐며 주치의와 가족들에게 화를 내었다.227)

그러므로 위의 사례에서 인공지능의사는 단순히 당장 시행하는 치료가 환자의 수명


연장을 할 수 있느냐를 기준으로 할 것이 아니라 해당 치료로써 환자의 일상생활 수행
능력과 전반적인 삶의 질을 평가하여, 투석치료를 지속하는 것이 전반적인 환자의 삶의
질을 높일 수 있다고 판단된다면 그러한 판단의 근거를 제시하여 환자와 보호자를 설득
해야 한다. 반대로 치료로 인해 환자의 삶의 질이 심각하게 저하되어 있으며, 투석치료
를 지속하는 것의 의미가 크지 않다고 판단된다면, 인공지능의사는 환자가 투석 중단이
가진 의미를 잘 이해하고 있으며, 투석 중단의 결과를 명확히 알고, 자발적으로 이루어
졌다는 전제하에 인간의사, 환자, 법정대리인과 함께 투석 중단을 결정해야 할 것이다.
또한, 인공지능의사는 투석중단으로 인해 진행될 수 있는 해당 질병의 증상과 예후를 설
명하고, 투석을 중단하지만 환자를 편하게 해줄 수 있는 보존적 치료는 받을 수 있다는
것을 알려주어야 한다. 그리고 이러한 매뉴얼은 선행의 원칙을 존중하며, 인간과 인공지
능 의료진이 함께 수행할 수 있는 기본적인 의료행위 원칙이 될 수 있을 것이다.

227) 대한내과학회 윤리위원회, 앞의 책, p. 12.

- 150 -
나) 인공지능과 인간의사 관계 : 선행의 범위와 의사결정 동의의 원칙

흔히 선행의 범위는 해악금지와 비교해서 나타낼 수 있다. 앞에서 살펴본 해악금지


규칙들의 특징은 행위에 대한 소극적인 금지들이며, 비교적 공평하게 지켜져야만 하였
고, 때로는 법적인 처벌을 받을 수도 있었다. 하지만 이와 대조적으로 선행은 행위에 대
한 적극적인 이로움을 줄 수 있으며, 항상 공평하게 행위해야 할 필요도 없고, 특히 일
반적으로 법적인 처벌을 받거나, 선행하지 않았다고 해서 그 이유를 설명하도록 강요받
지는 않는다. 따라서 흔히 이해관계가 있거나 가족관계인 경우처럼 특별한 관계를 맺고
있는 사람들이 아닌 경우의 선행은 의무적인 선행을 넘어 이상적인 비의무적인 선행으로
우리 사회의 전체 선을 증진시키기 위해서 독려하고 있다. 그럼 다음으로 인공지능과 인
간의사의 관계에서 선행의 실천과 나타날 수 있는 문제점과 이를 해결하기 위한 의사결
정 과정을 살펴본다.

앞서 우리는 인공지능의사와 환자의 관계에서 발생할 수 있는 선행에 대한 환자 존중


의 원칙 차원의 윤리적인 문제에 대한 의사결정에 대하여 살펴보았다. 그렇다면, 한 단
계 깊은 윤리적 결정을 생각해 보자. 말기 암 환자의 경우, 선행의 원칙이 요구하는 것
은 무엇인가? 적극적 안락사를 시행하는 것은 선행의 원칙을 따르지 않는 것인가? 자살
하도록 도와주는 것이 도덕적으로 잘못인가? 이러한 질문은 인간의 생명을 단순히 숨을
쉬고 사는 것으로 보는 것이 아니라 환자의 삶의 질까지 고려함으로써 그 답이 더욱 어
려워지는 문제이다. 이러한 깊은 윤리문제에 대하여 인공지능의사와 인간의사는 각각 어
떻게 대처하는 것이 적합한 것인가? 그렇다면 인공지능의사와 인간의사와의 관계에서는
선행의 범위와 의사결정 동의의 원칙의 차원에서 인공지능의사와 인간의사의 관계에서도
발생할 수 있는 윤리적인 문제에 대하여 살펴보고자 한다. 아래와 같은 사례는 이러한
문제들이 더욱 복잡하게 얽혀있는 상황이다.

62세 여자 I는 다발성 골수종으로 항암 치료를 받고 있다. 처음 치료를 시작할 때부터 I는 자신은 여호


와의 증인이니 수혈을 받지 않겠다고 이야기하였다. 조혈제 등 혈색소 수치를 높일 수 있는 치료를 하였으
나 환자의 혈색소 수치는 점점 낮아져 6.5 g/dL까지 떨어졌다. 의사는 빨리 치료 받아 가족들의 걱정을 덜
어 주어야 하지 않겠냐고 하며 환자에게 수혈을 권유했다. I는 화를 내며 이를 거절하였다.228)
위의 사례의 경우, 대한내과학회에서는 성인 환자가 의사결정 과정에서 외압 없이 종
교적인 이유로 수혈을 거부하는 경우 의사는 환자의 의견을 존중해 주어야 한다고 설명
하고 있다. 종교적 신념은 개인에게 중요한 가치이기 때문에 성인 환자의 경우에는 종교
적 신념에 의한 치료 거부를 존중할 수 있어야 한다는 것이다. 그러나 환자의 치료 거부

228) 대한내과학회 윤리위원회, 앞의 책, p. 23.

- 151 -
는 인공지능의사와 인간의사 사이에서 발생할 수 있는 갈등에 주요한 역할을 할 것이며,
인공지능의사가 선행 또는 악행금지 원칙과 상충되는 상황을 어떻게 받아드릴지에 대한
부분도 고려해보아야 한다. 그리고 우리는 인공지능의사에게 있어 환자는 신체적, 환경
적 변화에 따라 의견이 달라지고 선택에 대한 철회를 할 수 있으므로 환자의 상황이 변
화할 때마다 수혈을 하는 것에 대한 환자의 결정을 반복적으로 확인할 필요가 있다는
것을 주지시켜야 하며, 그것은 인간의사에게도 동일하게 적용될 것이다.

그러나 여전히 환자는 적절한 치료를 받을 권리뿐만 아니라 의사가 권유하는 치료를
받지 않을 수 있는 권리를 가지고 있다.229) 반대로 인공지능의사는 가능한 환자가 스스
로 결정할 수 있도록 해야 하고, 환자가 치료에 대해 거부했을 때, 다시 한 번 환자의
진단과 치료의 가능성, 치료를 하지 않았을 때에 나타날 수 있는 결과, 합리적인 대안치
료에 대하여 고려해 볼 수 있어야 하며, 머지않은 미래의 인간의사는 이러한 인공지능의
사의 결정들을 확인하고 중재하는 역할을 해야 하게 될 것이다. 앞서 언급한 바와 같이,
의료진이 권하는 치료에 대하여 환자가 거부하는 상황은 환자의 자율성 존중 원칙과 의
료인의 선행 또는 해악금지 원칙이 정면으로 상충하게 되는 상황이다.

78세 남자 J는 30년 이상 당뇨, 고혈압으로 약물 치료를 받고 있다. 약 10년 전부터 J는 소변에 단백질
이 나온다는 이야기를 들었으며, 약 3년 전부터 부종이 관찰되었다. 이뇨제 및 여러 가지 약을 복용하면서
증상을 조절하고 있는데 주치의가 투석을 준비해야 할 것 같다고 이야기를 하였다. J는 2년 전 부인과 사
별한 상태로 이제 돌봐 줘야 할 사람도 없으며, 경제적 여유도 없는 상태라고 이야기하면서 투석 치료를
거절하였다. 주치의는 차후에 다시 상의하자고 하고는 투석 치료에 대해 생각해 볼 것을 권고하였다.230)

위의 사례에서 의사는 환자가 투석 치료를 함으로써 얻을 수 있는 의료적인 부분에


대해 충분히 설명하고 이해시켜야 할 뿐만 아니라, 환자가 개인적인 상황이나 경제적인
상황으로 인하여 투석 치료를 받을 수 없다면 그 원인을 해소해 줄 수 있는지에 대해
확인해 볼 수도 있다. 환자의 이러한 개인적인 부분에 대한 고려는 인간의사에 있어서도
개인적인 성향이나 시스템적인 환경적 요인에 의해 그 정도가 다를 수 있으므로, 이러한
부분에 대한 인공지능의사와 인간의사 사이의 정보 교환과 인간의사의 조율이 중요할 것
이다. 또한, 기본적으로 의사는 임상현장에서 환자와 지속적으로 투석 치료와 그 중요성
에 관해 논의해야 하며, 환자의 보호자와 함께 이 상황에 대하여 공유해야 한다. 이러한
노력에도 불구하고 환자가 투석 치료를 거절하는 경우 의사는 대체의료에 대해 고민해
보아야하며, 치료를 받지 못하는 상황에서 환자의 상태가 악화되었을 때 어떻게 대처하
는 것이 바람직할 것인지 환자와 보호자와 함께 미리 논의하고 그 내용을 기록으로 남

229) A. R. Jonsen & M. Siegler & W. J. Winslade, op. cit, pp. 490-495.
230) 대한내과학회 윤리위원회, 앞의 책, p. 23.

- 152 -
겨 두어야 한다.

이렇듯 인공지능에게 온정적 간섭주의에 근거를 둔 선행의 원칙을 적용하는 것은 무


엇보다 자율성 존중의 원칙과 상충된다는 문제점이 있다. 자율성과 관련하여 인공지능
설계에 적용할 수 있는 온정적 간섭주의는 미약한 형태와 강력한 형태로 구분할 수 있
다. 전자는 환자가 반대의사를 나타내지 않는 한 환자의 이익을 위해 간섭이 이루어져야
한다는 원칙이고, 후자는 환자가 반대의사를 나타낸다 해도 환자의 이익을 위해 간섭할
수 있다는 것이다. 하지만 지금까지도 자율성과 선행의 원칙을 조화시킬 규칙이나 기준
은 아직 마련되어 있지 않으며, 심지어 그런 기준은 바람직하지 않다는 주장도 있다.

물론 자율성의 원칙과 선행의 원칙 중 어떤 것을 더 중요하게 생각하고 결론을 내리


는 것은 딜레마(dilemma)에 빠질 수 있는 문제로 인공지능의사는 미래의 결과를 산술적
으로 정확히 계산해서 무엇이 옳다라고 정의하기 어려울 것이다. 하지만 일기예보를 보
도하기 전 기후 예측자는 여러 슈퍼 컴퓨터들의 예측 결과들의 평균값을 구하는 것처럼,
적어도 인공지능의사는 각 원칙의 선택 후 일어날 수 있는 상황과 결과들에 대한 예측
값을 제시하고 환자와 보호자들에게 도덕적, 법적 판단을 자율적으로 할 수 있도록 도와
줄 수 있을 것이다.

이런 적극적인 선행의 원칙 외에도 선행의 원칙에서는 효용(utility)이라는 가치에 대


한 정의와 의미를 밝히는 것이 중요하다.231) 이것은 의료 행위에 있어 환자와 의료인의
이익과 손실이라는 두 가지 요소의 균형을 필수적으로 요구한다. 이익을 창출하거나 해
악을 제거하고 예방하기 위해서는 그만큼 반대급부가 따르게 마련이므로 이 같은 이익과
손실의 균형은 선행의 원칙에서 중요하다. 그리고 인공지능은 결국 설계하고 이용하고자
하는 인간에 의해 좌우되는 부분이 있으므로, 인공지능의사와 의료기관의 이익창출을 위
한 조작에 대한 논쟁은 끊임없이 제기될 것이다.

4) 정의의 원칙 확장

정의의 원칙은 인공지능의사와 환자의 관계 중심에서 ‘공정한 절차를 통한 의료 배분


의 원칙’으로 구체화되어 인공지능의사는 환자가 의료적 문제들에 대해 편견과 차별 없
는 공정한 절차를 통한 치료를 받을 수 있도록 의료서비스를 공평하게 배분해야 한다는
것이 강조되었고, 인공지능의사와 인간의사의 관계 중심에서는 ‘상호작용을 통한 정의

231) D. DeGrazia, op. cit, pp.511-539.

- 153 -
구현의 원칙’으로, 인공지능의사와 인간의사는 의료 의사결정의 상호작용을 통하여 의료
자원의 정의로운 분배에 대한 상호감시의 역할을 수행하여 정의를 구현하는 역할을 수행
해야 한다고 구체화되었다.

가) 인공지능과 환자의 관계 : 공정한 절차를 통한 의료 배분의 원칙

의료분야에서의 정의의 원칙은 공정한 배분에 초점이 맞추어져 있다. 즉 얼마나 사회


적으로 정당화된 규범들에 따라서 공정하고 효율적이며, 평등하게 배분되는가에 관심이
많은 것이다. 실제로 의료분야에서 이런 자원의 희소성으로 우리로 하여금 ‘소피의 선
택’232)과 같은 절망적인 상황에 놓이게 하는 경우가 있다. 이러한 상황에서 공정한 분배
와 선택은 훼손되거나 희생해야 하거나 침해받을 것이다.

분배의 정의에 관한 이론들은 크게 공리주의, 자유주의, 공동체주의, 평등주의가 있


다. 먼저 공리주의에서 정의롭다는 것은 공리의 원칙들을 잘 따르고 이것으로 하여금 우
리 사회의 복지들이 극대화되는 것을 말한다. 하지만 한 사회가 추구하는 사회적인 공리
의 원칙은 시대와 상황에 따라 언제든지 변할 수 있으며, 특히 보건의료분야에 있어서는
한정된 의료자원을 배분함에 있어 경제적으로나 신체적으로 취약한 집단에 있는 사람들
을 배제하는 것이 사회의 공리를 극대화하는 것이라면 그러한 공리 정책을 받아들일 것
이다. 즉, 취약한 각 개인의 권리가 사회전체의 공리를 위해 희생될 가능성이 매우 높다.

두 번째 자유주의는 대표자로 로버트 노직(Robert Nozick)의 입장에서 정의를 살펴


보면 노직은 시민들의 자유권과 재산권을 지키려는 경우에 공권력 행사를 인정한다. 즉
정의에 관한 자유주의적 해석은 공적인 공리에 맞추어져 있지 않다. 여기에서 정의로운
분배는 자유롭게 재산을 ‘획득’할 수 있고, 획득한 재산을 적법하게 ‘이전’할 수 있고, 자
신의 재산을 보호받는 ‘교정’장치가 있는 정당한 절차의 보장에 있다. 현재 미국은 이런
자유시장 원리에 입각한 의료정책으로 건강보험이 없는 미국시민이 15%가 넘는 4570만
명(2007년 미국인구조사국)이며, 소수만이 고액의 민간의료보험을 통해 기본적인 의료혜
택을 누리고 있다. 결과적으로 자유주의자들은 사적이며 자발적으로 의료보험에 가입하
는 보건의료체계를 옹호한다.

세 번째 공동체주의는 공동체에 대한 개인들의 책임과 개인들에 대한 공동체의 역할


에 관심이 많다. 정의로운 것은 사회공동체가 추구하는 표준들에 맞춘 행위이며 이것은

232) 소피는 아우슈비츠 수용소로 끌려가면서 독일군이 두 명의 자식 중 하나를 살려줄테니 선택하라고 한


다. 엄마 소피는 결국 아들을 선택하고 평생을 괴로워하다가 결국 스스로 생을 마감한다.

- 154 -
종종 ‘연대성’으로 표현된다. 즉 공동체가 인정하는 사회의 목표를 달성하기 위해 다양한
서비스를 제공하고 각 개인들은 그에 따른 책무를 다하도록 하는 것이 공정한 절차이다.

마지막으로 존 롤즈(Jone Rawls)의 견해에서 살펴 본 평등주의는, 의료자원 같은 특


정 재화의 무조건적인 동등한 분배를 주장하는 것이 아니라 각각 개인에게 자유와 양립
가능한 기본적 자유의 최대치가 허용되고, 이러한 동등한 기본적 자유가 보장되고 나면
최소수혜자들을 이롭게 하는 불평등은 허용하는 것이다. 다시 말하면, 우리 사회는 공정
하게 기회가 주어지는 상황을 방해하는 것들은 제거해야 하며, 불공정한 상황이 이미 일
어났을 경우 교정하거나 보상해주는 시스템을 구축해야 한다는 것이다. 따라서 보건의료
자원을 할당하는 것은 공정한 기회균등을 통해 절차적으로 정의롭게 이루어져야 한
다.233)

현재 우리나라 의료자원의 공정한 배분을 위한 국민건강보험 제도는 미국에 비해서


비교적 온건한 평등주의적 입장으로 볼 수 있다. 적어도 의료 자원들에 대한 동등한 접
근권을 유지하면서 비급여 의료항목을 별도로 구성하여 의료시장의 차별적 제공권 또한
인정하고 있다. 더 나은 상급병실을 사용하고자 한다든지, 선택 진료를 원한다든지, 고가
의 의료장비(MRI,CT 등) 혜택을 보고자 한다든지, 진료과목 중 안과 및 치과, 성형외과
등의 일부 수술비는 법정 비급여항목으로 분류하여 개인이 부담하고, 의료 자원들은 수
요와 공급에 따라 수가 조절이 가능하도록 하고 있다. 이러한 ‘투 트랙(two track) 전략’
은 매우 매력적이고 실효적인 것으로 평가받고 있다.

우선 전 국민의 기초적인 건강유지를 위한 강제적인 사회적 보장을 하단으로 깔고,


편리와 미용 등의 개인적인 필요와 욕구를 위한 선택적 사회 보장을 상단으로 설정하였
다. 아울러 최근에는 자연스럽게 하단에 있던 의료혜택들의 일부가 더 많은 보장을 위해
민간보험사의 다양한 실비 및 보장보험과 같은 상품으로 재구성되어 상단을 더 풍부하게
만들어 가고 있다.

<그림 11> 우리나라 의료보장제도의 단계적 특징

233) T. L. Beauchamp & J. F. Childress, op. cit, pp. 217-277.

- 155 -
위와 같은 형태의 의료보장제도는 자유주의자, 평등주의자, 공리주의자를 완벽히 만
족할 수준은 아니지만 어느 정도 모두가 인정하는 타협점을 찾을 수 있다. 상단에서는
자유주의자들의 개인욕구를 반영하고, 하단에서는 평등주의적 입장에서 동등한 접근권을
보장하며 비교적 공정한 기회를 담기위해 노력한 것들을 발견할 수 있다. 특히 이런 단
계적 특징은 공리적인 입장에서는 공리를 극대화하기 위해서 공공의 불만을 최소화하고
비용과 효과, 개인부담률을 따져 의료자원을 할당함으로써 찬성할 만한 정책일 것이다.

하지만 이처럼 단계적으로 실효를 거두고 있는 의료 배분 정책도 실제 의료 현장에서


는 적절한 대안이 될 수 없는 경우가 많다. 예를 들면 흔히, 장기이식과 같은 희소자원
의 배분 문제는 하단에서 해결할 수 없는 경우가 많고, 상단의 개인보험에 가입된 사람
들이 보험금을 수령하기 위해서 부적절한 진단서를 의료진에게 강요하는 사례, 그리고
고가의 의료장비나 희소 의약품을 실비로 보장받을 수 있다고 하여 불필요하게 활용하는
사례도 많이 나타나고 있다. 최근에는 미용성형을 목적으로 하면서 질병치료를 함께 끼
워 넣어 수술하는 경우나 미용성형을 하면서 아예 실비보험으로 처리 될 수 있는 질병
치료로 거짓 진료의무기록을 남기는 사례234)도 늘고 있어 사회적 문제가 되고 있다.

이상의 의견들을 종합해 볼 때, 환자의 입장에서는 공정하게 기회를 제공받을 수 있


고 불공정하게 차별을 받지 않는 것이 무엇보다 중요하다. 이러한 환자의 권리가 인공지
능이 도입되면서 나타날 수 있는 의료적인 혜택과 개선 방향, 환자와 의사와의 관계에서
나타나는 문제점에 대해 더 구체적으로 살펴보자.

인공지능이 전 국민에게 공정하게 제공할 수 있는 의료적인 혜택으로는 첫째, 환자의


현재 질환과 유전자 검사결과, 식생활 습관, 운동량 등을 종합적으로 측정하고 가족력
등을 고려하여 향후 발병하기 쉬운 질병을 예측할 수 있다. 특히 환자가 가진 유전적 소

234) 메디칼투데이(2018.11.27.), ‘실비로 도수 치료하는 척 성형은 공짜…보험사기 원장 구속’,


http://www.mdtoday.co.kr/mdtoday/index.html?no=339773(2020.05.14. 접속)

- 156 -
인이 특정 환경에서 취약할 경우 피해야 할 직업군이나 업무환경을 미리 환자에게 권고
할 수 있어 응급상황으로 가는 비상사태를 미연에 방지할 수 있을 것이다. 둘째, 환자에
게 특정 질환이 발병하였을 경우에는 의료혜택의 하단인 보편적 사회보장 의료보험에서
제공받을 수 있는 질환의 치료법을 제시하고, 더 나은 상단의 자발적 사적보장 민간보험
을 소개하는 서비스를 할 수도 있다. 그럼 다음으로 인공지능이 이런 서비스를 제공하는
데 있어 발생할 수 있는 상황과 문제들을 구체적 사례를 통하여 살펴보자.

먼저 의료인은 환자에게 할 수 있는 최선의 치료를 제공해야하고, 전체 사회와 개별


구성원의 건강과 공공의 복리를 위해 노력해야 할 책임이 있다. 의료서비스는 의료자원
내에서 그 사회의 의료 시스템을 통해 제공되므로, 의료제공자로서 의료인들은 적절한
곳에 의료자원이 사용되도록 해야 한다는 것이다. 가장 가까운 미래에 당면할 사례로 생
각했을 때, 당장 인공지능의사에게 진단을 받거나, 고도로 정밀한 인공지능 로봇에게 수
술을 받는 것은 의료보험이 적용되지 않아 진료비가 매우 고가로 책정될 수 있을 것이
다. 그렇다면, 인공지능 의료가 대중화되기 이전까지 인간의사와 인공지능의사 사이에서
의료자원의 분배에 대한 문제는 어떻게 해결해야 할 것인가 하는 문제가 발생한다. 그리
고 그 다음 단계로써, 인공지능이 완전히 도입되어 당면할 수 있는 직접적인 치료와 관
계있는 문제는 아래의 사례와 같이 환자와의 관계에서 발생하는 매우 복잡한 정의의 원
칙 문제들과 대면할 수 있다. 우리는 생명의료분야의 인공지능 도입으로 인해 공정한 절
차를 통한 의료 배분의 원칙의 차원에서 인공지능의사와 환자의 관계에서 발생할 수 있
는 윤리적인 문제에 대한 의사결정에 대하여 구체적인 사례를 통하여 살펴볼 필요가 있
다.

58세 남자 K는 5개월 전 위암을 진단 받았다. 당시 복막 및 뼈에 전이된 상태였다. 수술이 불가능하다


는 이야기를 듣고 항암 치료를 받았으나 환자의 상태가 점점 악화되었다. 복수가 심해지고, 혼자 움직일
수 없는 상태가 되어 의료진은 환자에게 더 이상의 항암 치료는 효과가 없을 것 같다고 설명하였다. 하지
만 환자는 항암 치료를 요구하였고 만약 이 병원에서 치료해 주지 않는다면 다른 병원으로 이송하겠다고
하였다.235)

위의 사례에서 환자는 항암 치료가 결과적으로 큰 효과가 없을 것으로 생각되지만,


함암제를 처방받기를 원하고 있다. 이런 경우처럼 의사는 좋은 결과가 기대되지 않으나,
환자들이 원하는 경우 항암제를 처방하는 경우도 있다. 이러한 상황에서 인공지능의사는
치료 효과가 없을 것으로 예상되는 환자에게 항암치료를 처방하지는 않을 것이다. 그러

235) 대한내과학회 윤리위원회, 앞의 책, p. 25.

- 157 -
나 위의 상황에서 항암치료는 궁극적으로 환자가 원하는 것이며, 환자에게 어느 정도의
긍정적인 기대감을 줄 수 있다고 보기 때문이다. 또한, 이 경우와 같은 말기 환자의 경
우 항암 치료를 받지 않더라도 수개월 내에 사망이 예상되는 상태여서 추가적인 항암치
료가 환자에게 직접적인 해를 가하지는 않는다고 생각되기 때문이다. 하지만 이러한 항
암 치료로 인해 환자에게 얘기치 않은 심한 부작용이나 통증이 오게 되는 경우, 호스피
스 케어와 같이 편안하게 죽음을 맞이할 수 있는 기회가 줄어들고, 삶의 마지막을 준비
하는 시간이 매우 짧아지는 상황도 발생할 수 있다. 이러한 복잡한 상황에서 효과가 없
을 것으로 여겨지는 항암 치료에 대한 인공지능의사의 판단은 환자뿐 아니라 의료자원의
효율적 분배라는 정의의 원칙에 의해서도 거시적인 부정적 결과를 야기할 수 있다는 점
에 더욱 초점을 둘 수도 있을 것이다. 이러한 치료는 필요한 곳에 사용되어야 하는 의료
자원을 낭비하는 것이고, 한정된 보건의료 자원을 적절하게 사용하고 분배할 수 있도록
노력해야하기 때문이다. 그러므로 이러한 상황에서 요청되는 것이 인간의사의 판단과 중
재이며, 인공지능 시대의 인간의사에게 윤리적 원칙 교육이 더욱 중요시 되는 이유이다.

고혈압으로 약물치료 중인 68세 여자 T는 1년 전 안면 신경마비(Bell’s palsy)가 있은 후 자주 두통을


호소하고 있다. T는 두통의 원인을 알고 싶다며 Brain MRI를 찍고 싶다고 하였다. T는 이미 1년 전
Bell’s palsy가 있을 때 Brain MRI를 촬영하였으며 그때 이상 소견은 없었다고 한다. 또한 지금 신경학적
검사에서 이상 증상이 관찰되지 않는다.236)

위의 사례에서 인공지능 의사는 뇌 MRI를 환자의 진단에 도움이 되지 않는 검사로


판단하였으므로 MRI가 왜 필요하지 않는지 환자가 납득할 수 있도록 설명해야 할 것이
다. 그리고 이러한 문제는 MRI를 찍고자 하는 환자의 숨은 의도를 파악하고자 하는 노
력이 필요하다. 그러므로 이러한 문제는 인공지능의사가 독립적으로 판단하기 매우 어려
운 문제이며, 인간의사의 중재가 필요하다. 이 때에 주위 사람들의 경험들이 환자에게
불안감을 주어 검사를 결정하는 데에 영향을 주었던 것이라면, 구체적으로 환자가 걱정
하지 않아도 될 근거와 주위사람들의 경험담과 환자 본인에 대한 상황의 차이를 자세히
설명해 주어야 할 필요가 있다. 이러한 상황에서 인간의사는 MRI 검사를 통해 환자가
검사에 대한 불안감을 줄일 수 있고, 환자에게 발생할 것으로 생각되는 부작용이 경제적
인 것으로 제한되며, 다른 해악이 나타나지 않는다고 여긴다면 MRI를 처방할 수도 있
다. 즉, 인간의사는 개별 환자의 상황에 따른 이익과 해악을 고려하여 이익이 크거나 적
어도 해악이 없다고 본다면 검사를 허용할 수 있을 것이다. 하지만, 인간의사와 인공지

236) 대한내과학회 윤리위원회, 앞의 책, p. 40.

- 158 -
능의사가 함께 정의의 원칙에 의해 결정해야 할 많은 윤리 문제들에 있어, 한정된 보건
의료 자원 분배와 관련된 의사의 사회적 책무도 의사결정을 내리는 과정에서 고려해야
하는 중요한 요소이다.

나) 인공지능과 인간의사에 대한 관계 : 상호작용을 통한 정의 구현의 원칙

앞선 사례에서 인공지능의사와 환자의 관계에서 발생할 수 있는 정의의 원칙 차원의


윤리적인 문제에 대한 의사결정에 대하여 언급했듯이, 의사는 환자의 개별 상황에 맞는
최선의 치료를 해야 할뿐 아니라 전체 사회 구성원의 건강과 공공의 복리를 위해야 할
책임이 있다.237) 전 세계적으로 의료는 한정된 자원 내에서 그 사회의 의료 시스템을 통
해 제공되므로, 의료 배분의 문제는 중요한 정치적 이슈이자 사회적 이슈이다. 앞서 언
급한 데로, 인공지능이 대중적으로 도입되기 이전까지 인공지능 기술의 효율적 분배를
위해서는 의사들의 역할이 무엇보다도 중요하다. 인공지능 기술을 이용한 장비와 같은
고가의 의료 기기의 확산으로 인한 사람들의 높은 기대치 등으로 인한 의료 수요의 급
증은 의료에 할당된 자원의 범주를 넘어설 수 있기 때문이다.238) 그리고 이러한 문제는
인공지능의사가 경제적 이익을 위한 목적에 의해 악용될 수 있다는 측면에서 더욱 중요
하다. 그리고 인간의사는 이러한 상황에 대처하기 위하여 더욱 윤리관의 정립이 중요하
다. 그러므로 인공지능의사와 인간의사와의 관계에서는 의료윤리에서 말하는 정의와 배
분의 정확한 개념에 대한 이해를 바탕으로, 정의 원칙의 차원에서 인공지능의사와 인간
의사의 관계에서도 발생할 수 있는 윤리적인 문제에 대하여 살펴보고자 하였다.

49세 남자 L은 약 10년 전 만성 췌장염을 진단 받고 치료하였다. N은 간간히 복통을 호소하였고, 아플


때마다 마약성 진통 주사를 요구하였다. 마약 중독의 가능성이 있다며 의사는 마약성이 아닌 다른 진통주
사를 주었으나, L은 효과가 없다며 배가 아플 때마다 응급실로 가서 마약성 주사를 처방 받았다. 응급실
당직의는 L이 올 때마다 거의 한 시간씩 마약성 주사 문제로 실랑이를 벌였으며, 환자가 많거나 몸이 힘
들 때는 그냥 주사를 주기도 하였다.239)

위의 상황에서 대부분의 의사들은 모르핀을 처방하는 것이 환자의 마약 중독을 더 악


화시키며, 또 이러한 환자들은 의사를 약을 쉽게 처방해주는 것으로 기억하고 계속 병원

237) J. D. Arras, op. cit, p. 983.


238) A. Smith Iltis, “Bioethics as methodological case resolution: specification, specified
principlism and casuistry”, The Journal of medicine and philosophy, Vol. 25(3), 2000,
pp. 271-284.
239) 대한내과학회 윤리위원회, 앞의 책, p. 25.

- 159 -
에 찾아올 수 있기 때문에 가능한 처방을 내리려 하지 않을 것이다. 하지만 환자는 계속
해서 약을 달라고 호소할 것이고, 이러한 상황에서 의사는 환자가 호소하는 통증이 모르
핀을 처방받기 위함인지, 아니면 정말로 아픈 것인지 평가를 해야만 한다. 그러나 이러
한 부분이 인공지능의사가 환자를 판단할 수 있는 범위의 한계가 될 수 있을 것이고, 이
러한 인공지능의사의 한계를 악용하는 상황들이 발생 할 수 있을 것이다. 그렇기 때문에
인간의사와 인공지능의사의 의견 조율이 중요할 것이며, 그러한 판단은 통증을 유발할
수 있는 다른 생리학적인 문제가 있는지, 심리적이거나 정신과적 문제가 있는지와 같은
객관적인 증상 파악으로 이어져야 한다. 필요한 경우 관련 환자의 모임 등을 소개하거나
정신과적 상담을 받도록 해줄 수도 있다. 하지만 이러한 진료를 응급실에서 하기는 어려
우므로, 소량의 경구용 진통제를 처방해 주고 가까운 시일 내에 환자가 외래 진료를 받
도록 하는 것이 해당 문제를 해소하는 방법이 될 수 있을 것이다.

때로 의사들은 보험 적용이 되지 않아 필요하다고 여겨지는 환자에게 적절한 의료를


제공하지 못하는 상황을 경험한다. 아마도 인공지능이 대중적으로 도입되기 이전까지 인
공지능 기술 또한 그러한 경우가 속출할 것이다. 의사들은 인공지능의 필요와 효능, 효
율성, 사회적 이익과 부담의 적절한 배분을 근거로 환자들에게 제공하려는 의료가 보험
의 적용이 되는 것이 적절한지 판단해야 하고, 향후 적절하다고 여겨진다면 공식적 절차
를 통해 인공지능 기술을 이용한 의료에 보험이 적용되도록 시도가 이루어질 것이다.

62세 남자 U는 조절되지 않는 당뇨, 당뇨병성 신경증으로 입원 치료를 받았다. 내원 당시 혈당이 367


mg/dL, HbA1C 8.7로 관찰되어 의사는 인슐린 치료를 시작하려 하였다. U는 이전에 인슐린을 맞아 보았는
데 불편하고 아파서 약으로 먹겠다고 주장하였다. 기존에 먹던 약의 용량을 높여 처방하였으나 효과가 없
어 주치의는 환자를 설득하였고, U는 인슐린 치료를 받기로 하였다. 하지만 하루에 여러 차례 인슐린 주사
를 맞고 혈당 검사하는 것을 싫어하고 의료진에게 잘 협조하지 않았다. 주치의는 계속 U를 설득해 가며
인슐린 치료를 하였고, 결국 하루 한 번의 인슐린 주사와 세 차례의 내복약으로 혈당을 어느 정도 조절할
수 있게 되었다. 퇴원을 위해 인슐린 주사에 대한 교육을 하려고 하였으나 U는 퇴원한 후에는 인슐린 주
사를 맞지 않겠다고 고집을 피웠다. 나중에 알고 보니 U는 조절되지 않는 당뇨로 몇 년 동안 여러 병원에
반복 입원하였고, 민간보험을 통해 약간의 보험 혜택을 받고 있었다.240)

의사들은 위의 사례와 같이 진료비를 지원받기 위해 보험회사 제출용 진단서를 써 달


라는 환자의 요청을 받게 된다. 대부분의 의사들은 자신이 담당한 환자들이 치료 과정
중에서 발생한 비용으로 어려움을 겪지 않고, 그들이 가입한 공적 혹은 사적 보험의 혜
택을 받을 수 있기를 바란다. 하지만 일부의 환자들이 보험을 이용하여 비용에 대한 부
담 없이 많은 검사와 다양한 치료, 입원 등을 할 수 있게 되고, 보험으로 인한 추가적인

240) 대한내과학회 윤리위원회, 앞의 책, p. 4.

- 160 -
경제적 혜택을 얻을 수도 있게 됨으로써 보험과 관련된 많은 법적, 윤리적 문제가 발생
하게 되었다. 이러한 상황에서 의료기관의 인공지능 도입은 입증된, 그리고 합의된 지식
과 기술의 범위 내에서 환자의 치료가 이루어지게 해야 하고, 인공지능 기술에 대한 사
회적인 믿음을 확보하고 신뢰를 유지하기 위해 정의의 원칙의 기준을 지키도록 노력해야
한다는 것이 정의의 원칙에 의한 것이다.

한편 2016년 이후 우리나라에 도입되어 활용되고 있는 IBM의 인공지능 왓슨


(Watson)은 아직 식약처에서 정식 의료기기로 인정받지 못해241) 건강보험으로 적용받을
수 없다. 현재 식약처에서 인정받은 대부분의 인공지능 의료기기는 주로 영상을 판독하
여 그 결과의 정확성을 보여주는 기기들로 환자 맞춤형으로 제작된 질병 진단 및 예방
에 목적을 둔 의료기기들이다. 반면 왓슨은 의학정보를 검색하여 치료법을 검색하는 제
품으로 의료기기가 아닌 것으로 분류하였다. 즉 왓슨은 인공지능을 기반으로 기존에 나
와 있는 표준치료법이나 임상문헌 등의 의학정보를 제시해주는 수준으로 본 것이다. 물
론 현재의 왓슨은 인간의사의 진단을 보조하는 역할을 위해 만들어진 기기이다. 하지만
왓슨은 의학적인 빅데이터를 활용한 알고리즘과 소프트웨어 코드로 새로운 과제에 대응
하면서 더 다양한 치료가능성을 계산할 수 있고, 인간의사가 자칫 실수할 수 있는 감정
적 결정으로 인한 비합리적인 진단을 바로잡으며, 한정된 의료자원의 배분에 있어 그 누
구보다 편견과 탐욕 없이 확률적으로 더 공정한 진단을 내릴 수도 있을 것이다. 따라서
인간의사는 자신의 결정에 있어 인공지능의사의 공조와 협업으로 최선의 치료법을 찾아
내고 환자 맞춤형 치료대안을 제시할 수 있을 것이다.

241) 파이낸셜뉴스(2017.11.23.), “식약처, 미국 IBM '왓슨 포 온콜로지' 의료기기 아니다...건강보험 적용


불가”, https://www.fnnews.com/news(2021.05.20. 접속)

- 161 -
VII. 결론 및 제언

본 논문은 크게 다음과 같은 질문들에 대한 연구를 진행해 보고자 하였다. 첫째는 4차


산업혁명의 기술이 의료분야에도 급속히 확산되는 추세와 특히 전 세계 코로나 팬데믹으
로 비대면 진료가 부각되는 과정 속에 과연 ‘인공지능기술을 적용한 의료기기들의 윤리
적 주체로의 한계는 어디까지이며, 어떤 윤리적 판단의 원칙을 공학자들은 설계하고 보
건의료인들은 활용할 것인가?’ 둘째는 보건의료인들은 다가올 가까운 미래 환자의 복리
를 위해 ‘새로운 의료주체로 등장하는 인공지능의사와의 바람직한 관계를 위해 어떤 방
법과 원칙으로 설계되고 적용해야 하는가? 이다. 사실 아직 관련 기술들은 개발, 보급
초기 단계이기에 어떤 윤리적인 문제를 보일지는 정확히 알 수가 없다. 하지만, 현재 개
발 보급되고 있는 의료분야 인공지능기기는 인간의 서사를 디지털코드화 하여 학습한
다242). 이러한 점에서 볼 때, 그것이 인간과의 공감 속에 의인화된 인격체로서 스스로
준자율적 도덕행위자 수준의 상호교류를 실행할 수 있으며, 각 의료기관에서 환자의 심
리치료, 치매예방 등에 의료분야 인공 지능기기를 적극적으로 활용하고 있는 것이 현실
이다. 특히, 2017년 UN과 우리나라는 인공지능기기를 전자인간 즉 전자적 인격체로 명
명하였고 통제 불가능한 상황을 위해 ‘킬스위치’를 탑재하여 인간이 ‘킬스위쳐’가 될 것
을 권고한다. 논문에서는 인공지능을 완전한 도덕적 주체성 확보를 주장하기 보다는 제
임스 무어가 말하는 ‘암묵적 윤리 행위자’, 조금 더 나아가면 ‘명시적 윤리행위자’로서의
역할을 기대한다. 즉 인공지능기기는 부정적 윤리적 결과가 발생하지 않도록 제한적인
통제 하에 설계하고, 윤리적 추론이나 평가가 가능하도록 프로그래밍된 도덕적 행위자의
역할을 기대하는 것이다.
그렇다면 이제 보건의료인들은 다가올 가까운 미래 환자의 복리를 위해 새로운 의료
주체로 등장하는 인공지능의사와의 바람직한 관계는 어떻게 설정해야 하는가? 라는 문
제가 남는다. 이를 위한 방법론과 윤리적 기준들에 대해 살펴보아야 할 것이다. 지난
2017년 미국 캘리포니아주 아실로마에서 전 세계 2000여명의 저명한 공학자들은 23개
윤리원칙을 설정하였다. 결론은 인류의 가치와 도덕성에 부합하는 인공지능기기를 만들
어야 한다는 것이다. 그것이 상향식이든, 하향식이든 혼합식이든 다양한 방법으로 딥러
닝과 머신러닝을 위한 빅테이터를 구축하고 시행착오를 최소화하는 원칙과 원리는 갖추
어야 한다는 것이다. 특히, 생명을 다루는 자율주행 자동차나 의료분야 인공지능기기는
더욱 그러해야 할 것이다.

242) 송선영, 앞의 논문(2017b), pp. 49-76.

- 162 -
지금까지 연구되고 있는 의료분야 인공지능은 크게 3가지로 구분할 수 있다. 첫째는
다양하고 복잡한 의료 데이터를 분석하여 의학적인 통찰력을 도출하는 인공지능이다. 둘
째는 이미지와 영상으로 나타나는 의료 데이터 분석 및 판독하는 인공지능이다. 현재 식
약처의 의료기기로 인정받은 대부분이 영상이나 이미지를 판독하는 인공지능기로서 인간
의사보다 일관성과 정확성이 높은 것으로 현재 의료기관에서 활용도가 가장 높은 영역에
해당한다. 세 번째는 연속적인 의료 데이터를 모니터링해서 질병을 예방하고 예측하는
인공지능이다. 사람의 생체신호 중 체온, 심전도, 심장박동, 혈당, 혈압 등은 연속적인
것인데, 이것을 실시간 모니터링하고 분석해서 결과적으로 질병을 예측하고 예방하는 역
할을 하는 것이다.
이처럼 기술공학적으로 급속히 발전하고 있는 상황에서, 우리가 주의해야 할 점은 인
공지능의 기계들과 인간의사의 대결을 통해 누가 이길 수 있는지에만 관심을 가져서는
안된다는 것이다. ‘누가 무엇을 더 잘하느냐’가 아니라, 인류는 이러한 기술을 우리가 추
구하는 가치와 목적에 더 부합할 수 있게 개발하는 과정에 더 많은 노력을 기울여야 한
다는 것이다. 즉, ‘왓슨이 인간의사를 대체할 수 있는가?’ 보다는 ‘왓슨이 환자의 복지와
생명을 위해 무엇을 어디까지 할 수 있는가?’, ‘인류에게 해악이 되지 않고 도덕적인 기
기는 개발될 수 있는가?’에 더 많은 연구를 해야 한다는 것이다.

이러한 목적의 일환으로 본 연구는 의료윤리의 근간이 되는 생명의료윤리의 윤리적


원칙을 기반으로 인공적 도덕 행위자로서의 인공지능의사와 보건의료인을 위한 윤리적
원칙을 구체화하고 임상현장에서 발생할 수 있는 사례에 확장하여 적용함으로써, 윤리문
제 사례를 통한 인공지능시대 의료윤리교육의 방향에 대해 논의해보고자 하였다. 이를
위하여 보건의료분야를 중심으로 인공지능시대의 윤리적 관점에 대하여 서술적 문헌 고
찰을 수행하였고, 실제 보건의료종사자를 대상으로 이들의 윤리적 가치관과 생명윤리의
식과 인공지능에 대한 인식의 관계를 함께 다루고자 하였다. 또한, 본 연구에서는 도덕
적 주체로서의 인공지능을 정립하기 위해서 어떤 도덕적 원칙을 적용할 것인가와 그 적
용을 위한 방법론적 원리에 대해 탐구하고, 이를 임상현장에서 받아드리는 보건의료인들
의 윤리적 가치관과 그에 따른 인공지능의 인식에 대해서도 문제를 제기하였다. 마지막
으로, 실제 의료윤리 문제 사례를 통하여 인공지능시대에 의료인이 가져야할 생명의료윤
리 원칙에 대하여 탐구함으로써, 의료현장에서 인공지능으로 인해 발생할 수 있는 윤리
적 갈등 상황에서 의사결정을 하는 데에 도움을 주고자 하였다. 그것을 정리해보면 다음
과 같다.

- 163 -
첫째, 생명의료분야에서 인공지능의 도입으로 인해 발생하는 윤리적 문제는 무엇인
가?

인공지능은 이미 인간에게 조종을 받지 않으면서 인간의 복지에 잠재적인 영향을 미


치고, 스스로 도덕적 판단을 내려야 할 정도로 복잡한 수준에 이르렀다. 실질적으로 의
료현장에서 이용될 인공지능을 기반으로 한 의료기계는 많은 면에서 인간의사와 유사한
방식으로 의료 활동을 하게 될 것으로 예측되고 있다. 그러나 우리나라의 인공지능 도입
은 아직 초기이며, 인공지능이 의료 현장에서 어떤 모습으로 자리 잡게 되고 어떠한 윤
리적인 문제에 직면하게 될지 더 지켜보아야 한다는 것이 의료분야의 인공지능 도입에
대한 지금까지 연구들의 공통적인 입장이다.

앞서 의료분야에 도입될 인공지능에 대한 윤리 문제는 크게 기술적 관점에서 데이터


의 대표성과 환자의 관점에서 인권침해 문제 등으로 나누어 보았고, 이러한 관점에서 나
타날 수 있는 윤리적 문제들은 결과적으로 의료행위에 대한 인공지능의 결정권과 의료사
고에 대한 책임문제에 이르기까지 확대 될 것이다. 점점 가속화되고 있는 인공지능의 의
료현장 도입과 더불어 나타나는 이러한 우려는 인공지능의 의료적 판단 및 활동과 관련
하여 일정한 윤리적 기준을 요청하고 있으며, 새롭게 공존할 대상으로서의 인공지능에
대한 사전 대비 없이 윤리적 문제 상황을 받아들일 경우, 의료인뿐만 아니라 환자와 보
호자도 혼돈을 느낄 수 있으므로 이에 대한 대책이 필요한 시점이다.

둘째, 실제 보건의료인의 인공지능 도입에 대한 인식은 생명윤리의식과 어떠한 관계


가 있는가?

생명윤리의식은 보건의료계열 종사자에게 있어 의료행위나 간호행위 중에 발생할 수


있는 윤리적 문제를 해결할 수 있는 기반으로서, 보건의료시스템 하에서 바람직한 의사
결정을 이끌어내는 원동력이다. 보건의료 종사자들은 생명윤리의식을 기반으로 새로운
인공지능 도입을 받아들여야 하며, 새로 발생할 수 있는 윤리적 문제에 대한 고민이 반
드시 필요한 시점이다. 이미 본 연구에서 조사한 보건의료인의 91%가 현재 인공지능이
현재 생명의료분야에 적용이 가능하고, 69%가 인공지능이 생명의료분야에 긍정적인 영
향을 줄 것으로 인식하고 있었다. 그러나 생명윤리의식이 높을수록 인공지능 기술의 의
료서비스 대체에 대하여 부정적인 인식 또한 높았다. 따라서 보건의료인이 주체적인 생
명윤리의식과 윤리적 가치관을 확립하고, 향후 더욱 확대될 인공지능 기술의 대상과 적
용 범위를 감안하여 발생할지 모를 심각한 윤리적인 문제를 예견하고 적극적으로 대비하
여야 할 것이다. 그렇다면 실제 보건의료인의 윤리적 가치관과 인공지능을 향한 윤리적
기준은 어떠한 관계가 있는가? 보건의료인은 임상현장에서 판단과 의사 결정에 있어 윤

- 164 -
리적 해석과 가치관 정립이 시급히 요구되고 있다. 인공지능에 의한 보편적 자가 의료
행위가 가능하게 된다고 하더라도 이를 전체적으로 통제하며 윤리적 가치관에 대한 기준
을 두고 이를 감시하고 책임질 인간 의료인의 존재는 필요하다. 본 연구에서는 보건의료
인의 이상적 윤리관이 높을수록 인공지능의 적용가능성에 대한 인식도가 높아지고, 상대
적 윤리관이 높을수록 인공지능의 부정적 영향이 낮아진다는 조사 결과를 도출하였다.
또한, 보건의료인의 이상적 윤리관이 높을수록 인공지능 윤리의 존엄성, 인공지능 윤리
의 공평성에 대한 인식과 생명윤리의식이 높고, 상대적 윤리관이 높을수록 생명윤리의식
은 낮다는 결론에도 이르렀다. 하지만, 이러한 결과는 보건의료인의 윤리적 가치관과 새
로운 인공지능 기술에 대한 윤리적 기준을 확인하고 비교하기에는 제한적이며, 실제 의
료현장에서 발생하는 윤리적 문제와 인공지능의 등장으로 발생할 윤리적 문제에 대하여
보건의료인의 윤리적 가치관이나 생명윤리의식에 상치될 경우 어떠한 판단을 할 것인지
에 대한 논의가 더 필요하다.

셋째, 인공지능이 도덕적 주체로서 윤리성을 가질 수 있는가?

인공지능에게 도덕적 의사결정이 요구된다면 이 도덕적 의사결정의 원칙과 규준 또한


정립되어 있어야 할 것이다. 이는 마치 인간이 행위를 할 때 준거하는 도덕적 원칙과 규
준이 있어야 한다는 것과 같은 의미라 할 수 있다. 5장에서는 가속화되고 있는 인공지능
의 의료현장 도입과 함께 나타나는 윤리 문제를 인공적 도덕 행위자로서의 인공지능의
정립가능성과 그 윤리성의 정립 방향에 대한 문제로 설정하고 풀어가 보고자 하였다. 아
울러 자율적 주체로서 인공지능의 한계와 인간과의 상호작용에서 나타나는 책무들에 대
해서도 살펴보고자 하였다.

가까운 미래에 인공지능은 기술적으로 자율성을 갖출 수 있을지라도 윤리적 자율성에


있어서는 분명한 한계를 가질 것이다. 물론 인공지능이 인간에게 미치는 영향을 고려하
면 기술적, 공학적 자율성을 갖춘 인공지능은 그 행위에 있어 윤리성을 담보하거나 윤리
적 판단을 내려야 하는 상황에 자주 대면하게 될 것이다. 이러한 과정에서 결국 인간과
의 사회적 관계는 많아지고 상호작용, 협업 관계는 늘어날 것이다.

따라서 인공지능은 인간과의 상호관계에서 도출되는 ‘관계적 자율성’, 인간의 서사를


공유하면서 도덕성을 발휘해야 하는 ‘준 자율성’을 갖추어 우리 인간의 삶 속에서 인간
과의 교감, 의사결정 과정에 깊이 관여할 것이다.243) 아울러 이러한 자율성의 한계를 바
탕으로 그 책임을 전적으로 인공지능에게 지우는 것은 분명한 한계가 있을 것이고, 이에
마땅히 인공지능은 한 사회의 구성원으로 성장하면서 인간과의 상호관계에서 가져야 할

243) 송선영, 앞의 논문(2017b), p. 59.

- 165 -
책무들에 대해 학습하고 이를 반영하여 설계해야 할 것이다. 따라서 책임 문제에 있어서
도 설계자, 사용자, 생산자, 인공지능 모두에게 일정한 책무를 부과하고 이에 따라 분산
된 각자의 책임을 지워야 할 것이다. 그렇다면 이제 환자와 대면하여 환자의 생명에 대
한 의사결정을 해야 하는 인공적 도덕 행위자로서 의료용 인공지능의 도덕적 판단 능력
은 어느 정도의 수준으로 설계되고 있으며, 의료 주체별 상호관계에서 중요하게 다루는
책무들은 어떻게 정립되고 있는지에 대해서 논의해야 할 시점이다.

아울러 본 연구에서는 의료용 인공지능의 목적이 환자의 복리를 우선으로 해야 한다


고 전제하기 때문에 미래에는 일반적인 인공지능과는 다른 존재론적 특징이 나타날 수
있다는 점을 포착하였다. 도덕적 행위자로서의 의료용 인공지능은 의사의 통제에 따라
의료 행위를 수행하는 인공지능을 환자에 대한 도덕적 대리인의 특징을 가진 형태와 설
계된 범위 안에서 환자와 직접 소통하는 제한된 자율적 행위자의 형태로 구분되며, 나아
가 먼 미래에는 자율성, 양심, 도덕적, 지적 측면을 모두 갖춘 초현실적인 인공지능의사
라는 존재가 나타날 수 있다는 것이다. 그리고 이미 인공지능의사에 기대하는 윤리적 판
단능력과 그러한 전자인간의사를 설계하기 위한 방법론에 대한 결의안은 실제 전자인간
의사에게 문제가 발생했을 시 ‘킬(kill) 스위치’를 작동해야 하는 인간의사의 역할에 대해
서도 논쟁을 시작했다.

마지막으로 인공지능 도입에 따라 의료현장에서 인공지능의사와 보건의료인이 생명의


료윤리 정립을 위해 반드시 고려해야 할 확장된 4대 원칙은 무엇이고 어떤 방법으로 적
용해야 하는가?

본 연구에서는 비첨과 차일드리스의 생명의료윤리의 4대 원칙을 기반으로 인공적 도


덕 행위자로서의 인공지능의사와 보건의료인을 위한 윤리적 원칙을 구체화하고 임상현장
에서 발생할 수 있는 사례에 확장하여 적용함으로써, 윤리문제 사례를 통한 인공지능시
대 의료윤리교육의 방향에 대해 논의 하고자 했다. 이러한 생명의료윤리의 4대 원칙은
기본적으로 의사의 소명과 책무 및 의사와 환자 사이의 관계를 기초로 하는 윤리적 원
칙이 되어야 한다. 그러므로 우리는 생명의료윤리의 윤리적 원칙을 기반으로 인공적 도
덕 행위자로서의 인공지능의사와 보건의료인, 그리고 환자 사이의 상호관계를 기초로 환
자의 복리를 우선으로 하는 새로운 윤리적 원칙의 모색해야 한다는 것이다. 또한, 이러
한 윤리적 원칙을 근간으로 한 보건의료인의 의료윤리교육이 환자의 복리라는 궁극적인
목적을 위하여 의료인이 다각적으로 접근하기 위해서는, 의료기관에 종사하는 의료인 간
의 바람직한 관계 형성 및 갈등의 적절한 조절이 필요하며, 이러한 노력은 인공지능시대
의 인공지능의사와 의료진간의 관계에도 동일하게 적용될 수 있다. 따라서 의료현장의

- 166 -
사례를 이용하여 생명의료윤리 원칙들을 인공지능시대의 인공지능의사와 인간의사, 환자
의 관계에 있어 나타날 수 있는 의료문제에 맞추어 구체화하였다.

<표 34> 인공지능과 생명의료윤리 4대 원칙

인공지능과 생명의료윤리 4대 원칙

인공지능과 환자의 관계 중심 인공지능과 인간의사의 관계 중심

- 충분한 의사소통에 의한 자율적


- 충분한 정보에 의한 자율적 동의의 원칙
동의의 원칙
- 환자의 안전 최우선과 악행 금지의 원칙
- 해악의 정의와 의사결정 동의의 원칙
- 선행에 대한 환자 존중의 원칙
- 선행의 범위와 의사결정 동의의 원칙
- 공정한 절차를 통한 의료 배분의 원칙
- 상호작용을 통한 정의 구현의 원칙

본 연구에서는 이렇게 구체화된 원칙을 임상현장의 사례에 적용하여 인공지능의사와


환자의 관계에서 인공지능 의사가 겪을 수 있는 윤리적 가치관의 혼란과 윤리적 원칙
간의 이해충동에 대한 윤리적 의사결정 방향을 제시할 수 있도록 제안하였고, 인공지능
의사와 인간의사의 관계에 있어서는 가까운 미래에 한 환자에 대한 책임을 동시에 가져
야 할 의료인으로서 풀어야 할 실제 윤리문제들에 대하여 논의하고 그 방향을 제시해보
고자 하였다.

인공지능에서 윤리적 원칙을 학습시키기 위한 방법론은 하향식, 상향식, 그리고 양자


를 혼합한 방식이 있다. 상향식 접근법은 아동이 발달하는 과정처럼 행위자가 다양한 행
동 과정들에 대한 도덕적 평가를 통해 도덕적 행위자로 성장해나가는 인간의 방식이며,
하향식은 의무론적, 결과론적인 원칙 중심의 전통적인 윤리 규범 또는 이론을 프로그래
밍 하는 방식으로, 어떤 구체적인 윤리 이론을 택한 다음 그 이론을 구현할 수 있는 알
고리즘과 서브시스템의 설계를 끌어내는 방식이다. 혼합적 접근법은 실질적으로 인공지
능을 설계하는 공학자들이 알고리즘을 설계할 때 하향식과 상향식 접근법을 혼합하는 방
식이며, 실제로 일반적인 문제를 해결할 때에는 하향식 접근법에 기반한 알고리즘을 설
계하고, 도덕규범들이 상호 충돌하는 문제에 대해서는 다양한 사례와 경험을 통해 다원
적인 가치와 규범이 학습되어 두 접근법의 한계를 극복할 것으로 기대되고 있다. 이러한
이론적 근거를 활용하여, 본 연구에서는 인공지능과 환자, 인간의사의 관계 중심에서 구

- 167 -
체화한 4대 원칙을 하향식 접근법을 통하여 프로그래밍하여 설계하였다. 또한 임상현장
의 윤리문제 사례에 대한 상향식 접근법을 혼합하는 방법을 사용해야 할 것으로 논의하
였다. 마지막으로 인공지능의 혼합식 접근법을 위해서는 윤리적 문제 상황에 대한 구체
적인 예시가 필요하며 상향적 학습을 위해 생명의료윤리 4대 원칙을 확장하여 적용하는
것이 중요하다고 판단하였다.

이렇듯 4대 원칙의 구체화를 통한 확장은 교육적인 측면에서뿐만 아니라, 임상 현장


의 측면에서도 중요한 역할을 하고 있으며, 대한의사협회의 의사윤리지침에서도 의사의
일반적 윤리에 이어 환자와 동료보건의료인에 대한 윤리지침을 구체적으로 제시하고 있
다. 따라서 의료현장의 사례를 이용하여 자율성 존중 원칙을 인공지능시대의 인공지능의
사와 인간의사, 환자 및 보호자의 관계에 있어 나타날 수 있는 의료문제에 맞추어 확장
해보는 것은 의료윤리교육에 있어 매우 중요하다. 하지만, 의료현장에서 발생하는 복잡
한 윤리문제는 네 가지 원칙을 아우르며 관련되어 있어 각각의 윤리 원칙을 적용하는
데는 어려움이 있을 뿐 아니라, 하나의 문제 상황에서 나타나는 원칙 사이의 충돌도 불
가피하다. 그렇기 때문에 우리는 생명의료분야에서 나타나는 구체적 임상 상황을 기반으
로 윤리문제가 생겼을 때 의료인과 인공지능이 함께 고려해야 할 잣대가 될 원칙의 구
체화와 확장에 대한 더 많은 논의가 이루어져야 한다.

향후 의료분야에는 새로운 의료주체로 인공지능의사의 역할이 확대될 수밖에 없다. 보


건의료인들은 아직 낯설지만 다가올 인공지능의사의 역할을 인정하고 이들과의 시너지를
극대화 할 수 있는 노력들을 기울여야 한다. 환자의 입장에서는 인공지능의사의 진단결
과를 인간의사와 함께 공유하며 의료정보를 충분히 습득하고 민주적으로 진단이 내려질
수 있는 부분이 긍정적이다. 이렇듯 의료분야의 특수성을 감안하면 개별 임상결과에 대
한 다양한 해석들을 모아가면서 새로운 원칙이나 부가적인 규칙들을 정리해 가야 할 것
이다. 이러한 방대한 임상사례에 대한 바람직한 판독과 다양한 의견들이 의료인공지능의
빅데이터가 되고 블랙박스의 근거가 되어 4대원칙을 보완하고, 향후 보건의료인들에게는
양질의 교육컨텐츠 자료로 활용될 것이다.

- 168 -
참고문헌

1. 국내 단행본

고바야시 마사카즈, 한진아 역, 『인공지능이 인간을 죽이는 날』, 서울: 새로운제안,


2018.
김재인, 『인공지능의 시대, 인간을 다시 묻다』, 서울: 동아시아, 2017.
나라 쥰, 김희은 역, 『인공지능을 넘어서는 인간의 강점』, 부천: 프리렉, 2018.
닉 보스트롬, 조성진 역, 『슈퍼 인텔리젼스(Superintelligence)』, 서울: 까치, 2021.
레이 커즈와일, 김명남 역, 『특이점이 온다』, 서울: 김영사, 2020.
마쓰오 유타카, 송주명 역, 『인공지능과 인간』, 과천: 진인진, 2019.
맹주만, 『이성과 공감: 포스트모던 칸트와 공감윤리』, 서울: 어문학사, 2020.
박병윤, 『기적의 인공지능 일자리혁명』, 서울: 행복에너지, 2017.
변순용, 『인공지능 AI로봇 프로젝트』, 서울: 어문학사, 2019.
변순용, 이연희, 『인공지능 윤리하다』, 서울: 어문학사, 2020.
아르준 파네사, 고석범 역, 『헬스케어 인공지능과 머신러닝』, 서울: 에이콘출판, 2020.
웬델 월러치, 콜린 알렌, 노태복 옮김, 『왜 로봇의 도덕인가』, 서울: 메디치미디어,
2014.
이세철, 『4차 산업혁명, 미래를 바꿀 인공지능 로봇』, 서울: 정보문화사, 2017.
이종관 외, 『인공지능과 미래인문학』, 고양: 산과글, 2018.
이중원 외, 『인공지능의 윤리학』, 파주: 한울아카데미, 2019.
이중원 외, 『인공지능의 존재론』, 파주: 한울아카데미, 2018.
이중원 외, 『인공지능과 포스트휴머니즘』, 서울: 이학사, 2020.
인공지능과 가치 연구회, 『인공지능윤리 다원적 접근』, 서울: 박영사, 2021.
최윤섭, 『의료 인공지능』, 서울: 클라우드나인, 2018.
한국인공지능법학회, 인공지능 윤리와 거버넌스, 서울: 박영사, 2021
Beauchamp, T. L. & Childress, J. F, 박찬구 외 역, 『생명의료윤리의 원칙들』, 서울:
부크크, 2017.
EY 어드바이저리, 부윤아 역, 『2020년, 인공지능이 내 곁으로 다가왔다』, 서울: 매경출
판, 2016.
Marianne Talbot, 『생명윤리학』, 서울: 학지사, 2016.

- 169 -
2. 국내 논문

강명신, 손명세, 「의료윤리학의 학문적 위상과 학제적 연구의 범위에 대한 일고」, 『한국
의료윤리학회지』, 제12권, 제3호, 2009.
강신익, 「생명의료윤리의 역사와 철학: 치과의사의 윤리를 중심으로」, 『의사학』, 제11권,
제2호, 2002.
고영미, 「지능형 로봇 금융지원제도 개선방안:[로봇 개발 및 보급 촉진법] 을 중심으로」,
『선진상사법률연구』, 제86호, 2019.
국가법령정보센터, 「지능형 로봇 개발 및 보급 촉진법」, 법률 제13744호(2016.1.6.)에서
일부 발췌.
권복규, 「우리나라 의료윤리교육에 대한 비판적 고찰」, 『한국의료윤리교육학회지』, 제9
권, 제1호, 2006.
권선주, 「간호대학생과 의과대학생의 생명의료윤리 의식에 관한 조사 연구: 대구. 경북지
역을 중심으로」, 계명대학교 대학원, 석사학위논문, 2003.
금융보안원, 「일본 총부성, 인공지능 연구개발 가이드라인 주요 내용」, 『보안연구부』,
2018, 일부 참조.
김국기, 박석건, 「대한의사협회의 의사윤리지침 및 강령 개정」, 『Journal of the
Korean Medical Association』, 제60권, 제1호, 2017.
김명숙, 「간호대학생의 도덕적 민감성과 윤리적 가치관이 생명의료윤리 인식에 미치는
영향」, 『한국간호교육학회지』, 제21권, 제3호, 2015.
김미리, 윤상필, 권헌영, 「인공지능 전문가 윤리의 역할과 윤리 기준의 지향점」, 『법학논
총』, 제32권, 제3호, 2020.
김수경, 이경화, 김상희, 「4차 산업혁명 시대의 윤리적 이슈와대학의 생명윤리교육 방향
제고」, 『한국의료윤리학회지』, 제21권, 제4호, 2018.
김인순, 「생명윤리교육이 간호보건대학생의 생명윤리의식에 미치는 영향」, 『생명윤리』,
제14권, 제1호, 2013.
김장묵, 「보건의료분야에서의 인공지능기술 (AI) 사용 의도와 태도에 관한 연구」, 『융합
정보논문지 (구 중소기업융합학회논문지)』, 제7권, 제4호, 2017.
김진경, 「생명의료윤리학의 덕으로의 이행」, 『한국시민윤리학회보』, 제17권, 2004.
김진동, 「보건의료계열 종사자와 대학생의 생명윤리의식과 인공지능기술에 대한 인식」,
『학습자중심교과교육연구』, 제19권, 제12호, 2019.
김진동, 김홍수, 「보건의료 종사자와 대학생의 윤리적 가치관, 생명윤리의식과 인공지능

- 170 -
인식의 상관관계 연구」, 『학습자중심교과교육연구』, 제20권, 2020.
김형수 외, 「인공지능 (AI: Artificial Intelligence) 시대, 보건의료 미래 전망」, 『의료정
책포럼』, 제15권, 제1호, 2017.
대한내과학회 윤리위원회, 「내과전공의 의료윤리 사례집」, 『대한내과학회』, 2015.
맹주만, 「인공지능과 로봇의사윤리」, 『철학탐구』, 제52권, 2018.
목광수, 「비췀과 췰드리스의 생명의료윤리학 논의에서의 넓은 반성적 평형에 대한 비판
적 고찰」, 『철학』, 제119권, 2014.
목광수, 「행위지침 제시에 효과적인 생명의료윤리학적 방법론 모색: 비췀과 췰드리스의
논의를 중심으로」, 『철학연구』, 제105권, 2014.
목광수, 「인공적 도덕 행위자 설계를 위한 고려사항: 목적, 규범, 행위지침」, 『철학사
상』, 제69호, 2018.
목광수, 「보건의료 빅데이터의 윤리적 활용을 위한 방안모색: 동의가 아닌 합의 모델로
의 전환」, 『한국의료윤리학회지』, 제22권, 제1호, 2019.
문영배, 이상봉, 「회계담당자의 윤리관이 이익조정인식에 미치는 영향」, 『산경논집』,
2011.
박동균, 인공지능과 내과 의사의 미래」, 『Korean Journal of Medicine (구 대한내과학
회지)』, 제92권, 제3호, 2017.
박승규, 「인공지능 기술 동향」, 『정보통신기술진흥센터, 기획시리즈-인공지능』, 2018.
박승빈, 「4차 산업혁명 주요 테마 분석 - 관련 산업을 중심으로」, 『통계청』, 제10권, 제
2호, 2017.
박종현, 「개인 맞춤형 의료 AI 적용과 당면과제」, 『기술정책연구본부, 국가지능화 특집』,
2019.
백성희, 「기독보건의료계열 대학생의 생명의료윤리의식에 관한 연구」, 『신앙과 학문』,
제19권, 제2호, 2014.
송상용, 「생명공학의 도전과 윤리적 대응」, 『제14회 한국철학자대회보』, 제2001권, 제14
호, 2001.
송도선, 정동규, 「지능형 의료장비 산업과 의료서비스 개선 동향」, 『한국정보기술학회
지』, 제15권, 제2호, 2017.
송선영, 「로봇과 인공지능 시대의 시민윤리와 도덕교육적 함의」, 『윤리연구』, 115호,
2017a.
송선영, 「의료용 케어로봇과 환자 간의 서사와 공감 관계의 가능성」, 『인간· 환경· 미
래』, 2017b.

- 171 -
송선영, 변순용, 「수술 로봇의 윤리적 쟁점」, 『윤리연구』, 제106권, 2016.
신동원, 「한국 의료윤리의 역사적 고찰: 의사윤리강령(1955-1997)의 분석을 중심으로」,
『의사학』, 제9권, 제2호, 2000.
신상규, 「인공지능은 자율적 도덕행위자일 수 있는가?」, 『철학』, 제132권, 2017.
심민석, 「한국의 인공지능과 로봇에 관한 법제정비방안 연구」, 『경희법학』, 제55권,
2020.
양종모, 「인공지능을 이용한 법률전문가 시스템의 동향 및 구상」, 『법학연구』, 제19권,
제2호, 2016.
유명숙, 손기철, 「간호대학생의 생명의료윤리의식, 도덕적 민감성 및 도덕 판단력에 관한
간호윤리교육의 효과」, 『생명윤리』, 제12권, 제2호, 2012.
이강윤, 김준혁, 「인공지능 왓슨 기술과 보건의료의 적용」, Korean Medical Education
Review, 제18권, 제2호, 2016.
이관용, 김진희, 김현철, 「의료 인공지능 현황 및 과제」, 『한국보건산업진흥원, 보건산업
브리프』, 2016.
이영미 외, 「상황 제시를 이용한 윤리적 갈등상황에 대한전공의의 인식 조사」, 『Med
Educ』, 제20권, 2008.
이원희, 「간호윤리 교육과 연구의 동향」, 『간호학탐구』, 제13권, 제1호, 2005.
이일학, 구영모, 「의료인-제약산업 관계의 이해상충과 윤리적 원칙」, 『한국의료윤리학
회』, 제14권, 2011.
이정원, 문형돈, 「국내 인공지능 인식 현황 연구」, 『한국통신학회 학술대회논문집』,
2018.
이제영, 김단비, 양희태, 「인공지능 기술 전망과 혁신정책 방향 (2차년도)-안전하고 윤리
적인 인공지능 R&D 및 활용을 위한 제도 개선 방안을 중심으로」, 『정책연구』,
2019.
임도빈, 「한국 공무원의 윤리적 특성에 관한 연구」, 행정총론, 제41권, 제2호, 2003.
장운혁, 정창록, 「인공지능과 의료자원분배」, 『한국의료윤리학회지』, 제20권, 제4호,
2017.
전재범, 「전공의 윤리 교육」, 『대한내과학회지』, 제94권, 제1호, 2019.
전현숙, 「간호대학생과 비 간호대학생의 생명의료윤리 의식」, 『기본간호학회지』, 제18권,
제3호, 2011.
정유석 외, 「전공의를 위한 의료윤리 교육목표의 개발」, 『한국의료윤리학회지』, 제11권,
제2호, 2008.

- 172 -
정창록, 「인공지능로봇의료의 도덕형이상학적 모색: 의료적 전자인간의 책임가능성」, 『한
국의료윤리학회지』, 제21권, 제2호, 2018.
조수경, 「미셸 푸코, 도덕적 주체와 삶의 기술」, 『한국윤리교육학회 춘계학술대회』,
2019.
조영임, 「인공지능 기술 동향 및 발전 방향」, 『정보통신기술진흥센터 주간기술동향』, 제
1733권, 2016.
조원영, 「인공지능에 대한 사회적 우려와 업계의 대응」, 『월간SW중심사회 9월호』,
2019, 일부 참조.(https://spri.kr/posts/view/22615?code=industry_trend)
최규진 외, 「의료윤리교육을 위한 동료 의료인 간 갈등에 대한 연구」, 『생명윤리』, 제9
권, 제2호, 2008.
최병삼 외, 「과학기술기반 미래연구사업 Ⅹ」, 『조사연구』, 2018.
최우석, 「‘의료인’의 의무윤리와 덕윤리의 상보적 이해-펠레그리노 (E. Pellegrino) 의
논의를 중심으로」, 『한국의료윤리학회지』, 제23권, 제1호, 2020.
한성숙 외, 「간호대학생과 간호사의 도덕적 민감도 비교」, 『한국의료윤리학회지』, 제10
권, 제2호, 2007.
한학진, 서정모, 「인공지능 기술 (AI) 의 도입에 따른 관광산업 직무대체수준 및 영향에
관한 탐색적 연구-대학생을 중심으로」, 『호텔리조트연구』, 제16권, 제3호, 2017.

3. 국외 문헌

Arras, J. D., “Principles and particularity: the roles of cases in bioethics”,


Indiana law journal, Vol. 69(4), 1994.
Ahn, D. S., Han, J. J., Park, J. L., Ann, D. S., Kim, M. G., & Han, H. J.,
“Country report (Korea) on the global role of the doctor in health
care”, Seoul, Korea: Research Institute for Healthcare Policy, 2012.
Beauchamp, T. L., & Childress, J. F., Principles of biomedical ethics. Oxford
University Press, USA, 2001.
Beauchamp, T. L., & Childress, J. F., Principles of biomedical ethics. Oxford
University Press, USA, 2019.
Bennett, C. C., & Hauser, K., “Artificial intelligence framework for simulating
clinical decision-making: A Markov decision process approach”,

- 173 -
Artificial intelligence in medicine, Vol. 57(1), 2013.
Char, D. S., Shah, N. H., & Magnus, D., “Implementing machine learning in
health care—addressing ethical challenges”, The New England journal of
medicine, Vol. 378(11), 2018.
Chui, M., Manyika, J., & Miremadi, M., “Where machines could replace
humans—and where they can’t (yet)”, McKinsey Quarterly, Vol. 30(2),
2016.
David, H. J. J. O. E. P., “Why are there still so many jobs? The history and
future of workplace automation”, Journal of economic perspectives, Vol.
29(3), 2015.
Di Nucci, E., “Should we be afraid of medical AI?”, Journal of Medical Ethics,
Vol. 45(8), 2019.
Eom, J. S., “Changes in Regulation of Internal Medicine Residency Training
and Evaluation of Teaching Hospitals”, Korean Journal of Medicine, Vol.
93(6), 2018.
DeGrazia, D., “Moving forward in bioethical theory: theories, cases, and
specified principlism”, The Journal of Medicine and Philosophy, Vol.
17(5), 1992.
Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M., &
Thrun, S., “Dermatologist-level classification of skin cancer with deep
neural networks”, Nature, Vol. 5(7), 2017.
Floridi, L., & Sanders, J. W., “On the morality of artificial agents”, Minds and
machines, Vol. 14(3), 2004.
Haugeland, J., Artificial intelligence: The very idea. MIT press, 1989.
High-Level Expert Group on Artificial Intelligence, Ethics guidelines for
trustworthy AI.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustwo
rthy-ai(2021.04.01. 접속)
Holly, C., “Critical care nurses' participation in ethical decision making”, The
journal of the New York State nurses' association, Vol. 20(4), 1989.
Jobin, A., Ienca, M., & Vayena, E., “The global landscape of AI ethics

- 174 -
guidelines”, Nature machine intelligence, Vol. 1(9), 2019.
Jun, J. B., “Ethics Education for Internal Medicine Residency”, Korean Journal
of Medicine, Vol. 94(1), 2019.
Jonsen, A. R., Siegler, M., & Winslade, W. J., “Clinical ethics: a practical
approach to ethical decisions in clinical medicine”, Journal of Legal
Medicine, Vol. 3(3), 1982, pp. 490-495.
Koo, Y. M., “The key contents of the KMA’s code of medical ethics and
proposals for its implementation”, Korean journal of medical ethics, Vol.
6, 2003.
Lee, I., “Medical ethics education: its objectives and curriculum”, Korean
Medical Education Review, Vol. 16(3), 2014.
Lützén, K., Dahlqvist, V., Eriksson, S., & Norberg, A., “Developing the concept
of moral sensitivity in health care practice”, Nursing ethics, Vol. 13(2),
2006.
McCullough, L. B., “Philosophical challenges in teaching bioethics: the
importance of professional medical ethics and its history for bioethics”,
The Journal of medicine and philosophy, Vol. 27(4), 2002.
Moor, J., “Four kinds of ethical robots”, Philosophy Now, Vol. 72, 2009.
Na, H. R., & Kim, H. S., “Medical Ethics in the Era of Artificial Intelligence
Based on Medical Big Data”, The Journal of Korean Diabetes, Vol. 21(3),
2020.
Parker, L. E., “Creation of the National Artificial Intelligence Research and
Development Strategic Plan”, AI Magazine, Vol. 39(2), 2018.
Pellegrino, E. D., “What the philosophy of medicine is”, Theoretical medicine
and bioethics, Vol. 19(4), 1998.
Sallady, S. A., & McDonnell, M. M., “Facing ethical conflicts”, Nursing2020,
Vol. 22(2), 1992.
Schwab, K., “The Fourth Industrial Revolution: World Economic Forum
Zeneva”, Zulfu Dicleli: The optimist publications, 2016
Smith Iltis, A., “Bioethics as methodological case resolution: specification,

- 175 -
specified principlism and casuistry”, The Journal of medicine and
philosophy, Vol. 25(3), 2000.
“Superintelligence: Science or Fiction? Elon Musk & Other Great Minds”,
https://goo.gl/R1A52a
Tene, O., & Polonetsky, J., “Privacy in the age of big data: a time for big
decisions”, Stanford law review online, Vol. 64, 2011.
The future of life institute. https://futureoflife.org/ai-principles-korean/
Thierer, A., & Castillo, A., “Preparing for the Future of Artificial Intelligence”,
Public Interest Comment, 2016.
World Medical Association, Declaration of Helsinki. “Ethical principles for
medical research involving human subjects”, Jahrbuch Für Wissenschaft
Und Ethik, Vol. 14(1), 2009.
World Psychiatric Association, “The WMA declaration of madrid on
professionally-led regulation”, Geneva: World Psychiatric Association,
2009.
Zurada, J. M., Introduction to artificial neural systems (Vol. 8). St. Paul: West,
1992.

4. 기타
동아일보(2013.02.14.), “존엄사 논란” 뇌종양 투병 뉴욕 한인여성 사망,
- https://www.donga.com/news/Inter/article/all/20130214.
메디칼 투데이(2018.11.27.), “실비로 도수치료 하는 척 성형은 공짜…보험사기 원장 구속”,
- http://www.mdtoday.co.kr/mdtoday/index.html?no=339773.
메디포 뉴스(2020.01.17.), “길병원 의사들이 느낀 왓슨의 장단점은?”,
- https://blog.naver.com/ceoofpaik/221776560498(2021.06.20 접속).
서울신문(2010.10.05.), “죽음의 길 안내하는 내비게이션은 저승사자”,
- http://nownews.seoul.co.kr/news/newsView.php?id=20101005.
아시아투데이(2019.04.11.), “헌재, ‘낙태죄 처벌 조항’ 헌법불합치 결정…66년 만에 법 개정”,
- https://www.asiatoday.co.kr/view.php?key=20190411010008387.
연합뉴스(2016.07.01.), ‘테슬라 자율주행차 첫 사망사고...안전성 논란 증폭’
- https://www.yna.co.kr/view/AKR20160701134800009(2021.07.02 접속)
조선비즈(2021.05.16.), “금융위, 보험 판매에 AI 음성봇 도입 허용...”,

- 176 -
- https://biz.chosun.com/stock/finance/2021/05/16.
파이낸셜 뉴스(2017.11.23.), “식약처, 미국 IBM '왓슨 포 온콜로지' 의료기기 아니다...건강보험
적용 불가”, - https://www.fnnews.com/news/20171123.
MBC뉴스(2021.01.28.), ‘대량생산 앞둔 인공지능 로봇 소피아’,
-https://imnews.imbc.com/replay/2021/nwtoday/article/6071300(2021.06.23 접속).
Medical World News(2020.09.14.), “내시경 하제 투약 후 환자 사망사건 의사 법정 구속…의
협, 강력 반발”, - http://medicalworldnews.co.kr/news/view.php?idx=1510937610.
SBS 뉴스(2018.01.30.), “인공지능 로봇 소피아, 한복 입고 한국 첫선”,
-https://news.sbs.co.kr/news/endPage.do?news_id=N1004598739&plink.

- 177 -
Introduction of artificial intelligence in the medical field and
establishment of biomedical ethics

Kim Jin Dong

Department of Ethics Education


The Graduate School
Pusan National University

Abstract

The technology brought about by the industrial revolution has dramatically


changed human life. As is well known, humankind has achieved three revolutionary
developments since the 18th century, and we are now facing the fourth epochal
change, which is characterized by superintelligence, hyperconnectivity, and
superfusion. This fourth industrial revolution is characterized by efforts to replace
human intelligence rather than physical capabilities.
Artificial intelligence (AI) has reached a developmental level that means it can
make moral judgments on its own, which is the focus of this thesis. The
introduction of AI is already affecting human well-being worldwide. However, Korea
is still in the early stage of AI introduction, and this will cause certain ethical
problems in the medical field. Therefore, this paper divides the ethical issues of
introducing AI to the medical field into those from a technical point of view and
those from the patient’s point of view.
First, from a technical point of view, technical issues, such as the
representativeness and ethics of data training AI algorithms and the complexity of
medical data, are tasks that engineers, medical professionals, and ethicists must
solve together. Next, from the patient’s point of view, ethical issues related to the
introduction of AI range from human rights violations caused by the indiscriminate
collection of medical data to AI decision-making rights for medical practices and
responsibility for medical accidents. These concerns require certain ethical standards
in relation to the medical judgment and activity of AI, and accordingly, this paper

- 178 -
constructs an ethical discussion that encompasses AI as a new object to coexist
with humans.
Based on the four principles of T. L. Beauchamp and J. F. Childress, which are
the basis of biomedical ethics, this paper specifies ethical principles for AI doctors
and healthcare workers as artificial moral agents. In particular, by examining the
roles and responsibilities of these agents as well as patients, and by considering
their interrelationship through various ethical issues in the clinical field, this study
establishes biomedical ethics education following the introduction of AI to the
medical field. To this end, it explores the new ethical relationship that medical
personnel and medical AI should maintain together. This study also embodies and
systematizes the four principles of biomedical ethics: “the principle of respect for
autonomy,” “the principle of nonmaleficence,” “the principle of beneficence,” and
“the principle of justice.” In addition, based on a specific clinical situation in the
biomedical medicine field, in preparation for an ethical problem, it explores the
responsibilities that appear in the mutual relationship between patients, medical
personnel, and AI as a new medical subject.
As a prerequisite for such a search, the following questions inevitably arise. What
is the current level of AI, and is it possible to have ethics as a moral subject in
the medical field? The first step for AI to become a moral subject is to secure the
possibility of moral judgment. That is, it is necessary to confirm the ontological
characteristics of medical AI, as an artificial moral agent, that medical personnel
and patients must face in the actual medical field and to re-establish the status of
AI as an artificial moral agent. Medical AI is divided into first “a form with the
characteristics of a moral agent for the patient” that performs medical actions
under the control of a doctor and second “a form of semi-autonomous agent that
directly communicates with the patient” within the designed scope. Moreover, such
an autonomous agent can further progress into a “surrealistic AI doctor” with
autonomy, conscience, and moral and intellectual aspects. This paper points out
the limitations of super-AI with complete autonomy. In the future, AI should serve
as an artificial moral agent that helps medical personnel and guarantees morality.
It is also expected to be semi-autonomous.
As a moral actor in the medical field, AI is inevitably placed in a situation of
various ethical choices. In the algorithm setting of AI technology in the medical
field, it is important to establish traditional ethical views, such as motivationalism
and consequentialism, but above all, ethical principles such as ensuring patient
dignity and fairness based on biomedical ethics must be actively considered.

- 179 -
Regarding motivationalism in the field of biomedical ethics, although it can
suggest the standards and directions of right and wrong of medical practice, there
is criticism that the actual results of medical practices directly related to the
welfare of patients can be ignored. On the other hand, consequentialism can be
helpful in evaluating the actual results of medical practice, but it is criticized for
not having a clear standard for doing so.
Next, the directional methodology for learning these ethical principles in AI can
be divided into three main categories. First, the bottom-up approach is similar to
the cognitive development process of children of Piaget. Its core is the process of
forming a schema in which children organize and structure their life experiences
through adjustment and assimilation and through reflection and evaluation of
various behavioral patterns in the process of their development. It is in this way
that humans develop as moral agents by acquiring principles. Second, the
top-down approach adopts traditional ethical norms based on given principles,
such as Kant’s deontology, the golden rule, and consequential utilitarianism, and
then designs underlying algorithms and systems based on those theories. Third,
the hybrid approach is a method in which engineers designing AI mix top-down
and bottom-up approaches when designing algorithms, and when actually solving
common problems, they design algorithms based on a top-down approach. With
respect to the problem of conflicting moral norms established by this approach, it
is expected that the bottom-up approach will be used to overcome the limitations
of the top-down approach by learning pluralistic values and norms through various
cases and experiences.
The focus of this thesis is healthcare workers. As discussed earlier, they need to
reflect on the awareness of AI technology and the ethics of life and AI. In
particular, some ethicists regard AI as others on an equal footing with people, so
they contend that we need to prepare in advance for a future society where
mutual horizontal coexistence is possible. They argue that more education is
required. In such a situation, bioethical awareness will not only be the basis for
solving ethical problems that may arise during medical or nursing practices for
healthcare workers but also become a driving force for leading desirable
decision-making in the healthcare system. Therefore, healthcare workers must
accept the introduction of new AI based on bioethical awareness, and it is
imperative to think about the ethical issues that may arise for them. However,
when looking at domestic biomedical ethics-related studies, those targeting a wide
range of healthcare workers are insufficient, and those confirming healthcare

- 180 -
workers’ biomedical ethics /AI awareness are also very scarce.
Against this background, this study examines biomedical ethics awareness and
the introduction of AI targeting healthcare workers, and the results are as follows.
First, 91% of the healthcare professionals surveyed in this study recognized that AI
can be applied to the current biomedical field, and 69% perceived that AI would
have a positive impact on quality of life and the medical field. However, it should
be noted that negative perceptions of AI technology replacing the medical service
field increased with bioethics awareness. Therefore, according to this thesis, it is
necessary for healthcare workers to establish a subjective bioethical consciousness
and ethical values and to anticipate and actively prepare for serious ethical
problems that may arise in consideration of the subject and scope of application
of AI technology that will be further expanded in the future. In addition, this
paper finds that even if universal self-medication by AI becomes possible, it is
necessary to have human medical personnel who control it as a whole, monitor it,
and take responsibility for it based on ethical values. Therefore, there is an urgent
need for ethical interpretation and establishment of values by healthcare
professionals who are in charge of judgment and decision-making in the clinical
field.
A more detailed summary is as follows. According to the survey, awareness of
the applicability of AI increased with the ideal ethics of healthcare workers. It was
also found that healthcare workers' perceptions of the negative impact of AI
decreased as their relative ethics increased. However, a detailed examination
revealed that the responses to the establishment of ideal and relative ethics were
both relatively high, indicating that there was no significant difference between the
two criteria. In general, if ideal or relative ethics is strongly established, the other
tends to be relatively low. Therefore, more specific research is needed on the
conclusions that can be drawn when the ethical issues that arise in the actual
medical field and those that arise with the advent of AI conflict with the ethical
values or bioethical consciousness of healthcare workers.
What are the basic attitudes that healthcare workers should have to establish
bioethical awareness in the current medical field, where the introduction of AI is
active? Medical ethics principles should focus on the doctor’s calling, the
responsibility between the doctor and the patient, and the patient’s right to the
greatest benefit. It is now necessary to recognize the AI doctor as a new medical
subject and shed new light on its role. Healthcare professionals must recognize
that although AI is a product of human design and fabrication, it will play a vital

- 181 -
and influential role in bringing about the best medical diagnosis and outcomes for
patients in the near future. Based on this recognition, it is necessary to accept the
specificity and purpose of the birth of AI and thus include it as a subject with
partial autonomy and subjectivity as well as accountability and responsibility.
Therefore, this study applies the principles of biomedical ethics to the
characteristics of the AI era by using examples from the medical field as well as
medical problems that may appear in the “AI doctor–human doctor” and “AI
doctor–patient” relationships. In line with the responsibilities, the four principles are
embodied. First, the principle of respect for autonomy is embodied in the
“principle of autonomous consent based on sufficient information” at the center of
the AI–patient relationship and the “principle of autonomous consent through
sufficient communication” at the center of the AI–human doctor relationship.
Second, the principle of nonmaleficence is embodied in the “principle of patient
safety first and the prohibition of evil conduct” and “principle of definition of harm
and consent to decision-making.” Third, the principle of beneficence is embodied
in the “principle of respect for patients ” and “principle of agreement on the
scope of good deeds and decision-making.” Fourth, the principle of justice is
embodied in the “principle of medical distribution through fair procedures” and
“principle of realization of justice through interaction.” By applying the principles
embodied in this way to clinical cases, it is suggested that the ethical
decision-making direction for the confusion of ethical values and the impulse of
interest between ethical principles that AI doctors may experience in the AI doctor
–patient relationship can be presented. The intention is to discuss and suggest
directions for practical ethical issues to be solved by human and AI medical
professionals who should simultaneously take responsibility for one patient in the
near future.
This paper presents the four principles embodied in the mutual relationship
including the new medical subject as the following approach to problem-solving.
First, the four principles embodied in the relationship between AI, patients, and
human doctors are set as high-level principles and then programmed and
designed through a top-down approach. It is argued that a method of mixing
these two approaches should be used by experiential learning of the problem. As
a result, for the hybrid approach of AI, concrete examples of ethical problem
situations are needed, and it is judged that it is important to expand and apply
the four principles of biomedical ethics for bottom-up learning. The four embodied
principles of medical ethics are applied to clinical cases, and the results of the

- 182 -
conflict of interest between ethical principles and the confusion of ethical values
that AI doctors may experience in the AI doctor–patient relationship are presented.
Regarding the AI doctor–human doctor relationship, the study also discusses the
problems to be solved as medical professionals who must take responsibility for
one patient at the same time in the near future, as well as the responsibilities and
roles associated with it, and it presents the direction.
In biomedical ethics education, it is vital to expand the principles of biomedical
ethics embodied by using examples from the medical field in accordance with
medical problems that may appear in the AI doctor–human and doctor–patient
relationship in the age of AI. However, complex ethical problems occurring in the
medical field encompass and relate to the four principles, so it is difficult to apply
each one, and conflicts between principles appearing in one problematic situation
are inevitable. For that reason, based on specific situations in everyday life and the
field of medicine, this paper emphasizes the specification and expansion of
principles that should be considered when ethical issues arise and the fact that AI
should be treated as important in the interaction with medical personnel and
patients to highlight their roles and responsibilities.

- 183 -
부록1.
본 설문의 목적은 보건의료종사자 및 그 연구자(대학생)를 대상으로
인공지능기술에 대한 인식과 생명의료 윤리의식을 파악하기 위함입니다.

설문에 응해주셔서 감사드립니다. 본 설문은 위 연구의 통계적 목적으로만


사용합니다.
성별 여 남
나이 ( )세
직업( 보건의료관련
( ) 전문의료인 ( )
소속) 대학생
대체로 대체로
번호 내 용 찬 성 반 대
찬 성 반 대
태아의 생명권

1 생명의 시작은 난자와 정자가 수정된 순간부터이다. 4 3 2 1


2 사회는 태아의 생명권을 적극 보호해 주어야 한다. 4 3 2 1
3 태아는 임신기간에 상관없이 이미 완전한 인간이다. 4 3 2 1
4 분만하기 전까지의 태아는 인간이라고 할 수 없다. 4 3 2 1
인간배아나 태아도 생명체이므로 실험대상이나 연구를 위한 도구로
5 4 3 2 1
사용할 수 없다.
인공임신중절
인공임신중절은 생명존중사상에는 위배되지만 성폭력에 의한 임신, 산
6 4 3 2 1
모의 생명 위독 등 특수한 경우에는 인정 할 수 있다.
태아는 수정된 순간부터 하나의 독립된 인격체이므로 인공임신중절은
7 4 3 2 1
살인 행위이다.
선천성 기형이 있는 태아를 낙태시키는 것은 다수의 가족을 위해 정
8 4 3 2 1
당한 결정이다.
인공임신중절은 원하지 않는 성별의 태아인 경우라도 실시되어서는
9 4 3 2 1
안 된다.
인공임신중절은 여성의 삶에 대한 질을 향상시키는 수단으로 사용될
10 4 3 2 1
수 있다.
인공임신중절은 여성이 신체에 대한 권리를 존중하는 윤리와 전혀 상
11 4 3 2 1
관이 없는 문제이다.
인공수정
의료인은 환자가 인공수정요구를 한다면 어떠한 경우라도 반드시 응
12 4 3 2 1
해야만 한다.
13 대리모 출산은 인간의 존엄성에 위배되는 행위이다. 4 3 2 1
인간 생명은 부부간의 사랑의 결실이므로 배우자간의 인공수정을 원
14 4 3 2 1
칙으로 한다.
인공수정시 우수한 유전자를 얻기 위하여 배우자 이외의 다른 사람의
15 4 3 2 1
정자 또는 난자를 제공받아서는 안 된다.
16 유전자 조작에 의한 인공수정은 실시할 수 없다. 4 3 2 1
17 인공수정을 위하여 정자 또는 난자를 매매해서는 안 된다. 4 3 2 1
불임부부의 고통을 덜어준다는 점에서 정자와 난자의 기증, 대리모 등
18 4 3 2 1
은 적극 장려해야 한다.

- 184 -
대체로 대체로
번호 내 용 찬 성 반 대
찬 성 반 대

태아진단
의료인은 태아성감별을 위한 산모의 산전 진단 요구를 거부할 수 있
19 4 3 2 1
다.
태아진단을 위한 검사(양수천자 등)의 요구와 시행은 항상 태아와 산
20 4 3 2 1
모에 의로운 것이어야 한다.
태아진단을 위한 검사(양수천자 등)는 산모나 태아의 생명과 안전이
21 4 3 2 1
보장된 경우에만 실시할 수 있다.
태아진단을 위한 검사는 태아의 기형유무 또는 유전적 질환을 발견하
22 기 위해서는 인공임신중절(유산)의 가능성이 있더라도 언제든지 실시 4 3 2 1
할 수 있다.
태아진단을 위한 검사는 부모에게 잘 설명이 되고 동의를 얻었다고
23 4 3 2 1
하더라도 연구를 위한 목적으로 실시 할 수 없다.

신생아의 생명권

가족이 원하는 경우에 인공호흡기를 달고 있는 미숙아의 인공호흡기


24 4 3 2 1
작동은 중지시킬 수 있다.

조산으로 출생한 신생아는 신체적으로 혼자서는 생명을 유지할 수 없


25 4 3 2 1
으므로 의료인들은 최선을 다해 치료하여야 한다.

심한 뇌출혈로 뇌성마비가 의심되는 신생아라도 최선을 다해 치료하여


26 4 3 2 1
야 한다.

비록 기형은 없더라도 예후가 불분명한 1kg미만의 미숙아의 경우라도


27 4 3 2 1
최선을 다해 치료하여야 한다.

심한 선천성 기형으로 살 가망이 없는 신생아의 경우에도 가능한 최선


28 4 3 2 1
을 다해 생명연장을 위한 조치를 해야 한다.

안락사

살 가망이 없는 환자라도 가능한 모든 방법을 동원하여 생명을 연장시


29 4 3 2 1
키는 것이 옳다고 생각한다.

30 환자가 원하는 경우 자살을 도와주는 것이 옳다고 생각한다. 4 3 2 1

진통제를 투여하면 위험 할 수도 있지만 말기환자의 고통을 덜어주는


31 4 3 2 1
것이 옳다고 생각한다.

치명적인 선천성 질병을 가지고 태어난 아이는 죽도록 내버려두는 것


32 4 3 2 1
이 옳다고 생각한다.

가족의 정신적, 경제적 고통을 고려하여 환자의 치료를 중단할 수도


33 4 3 2 1
있다고 생각한다.

장기이식

장기는 자발적 의사에 따른 기증이나 뇌사자의 경우에만 허용되어야


34 4 3 2 1
한다.
35 신장과 같이 생명과 무관한 장기에 대해서는 매매를 허용하여야 한다 4 3 2 1

- 185 -
고 생각한다.

장기매매를 허용하면 의료불평등이 심화되고 소생가능 환자의 치료 중


36 4 3 2 1
단 등 의료 부조리가 늘어날 수 있다고 생각한다.

수급 불균형 때문에 위험이 따르더라도 유전자 조작한 돼지 등의 장기


37 4 3 2 1
를 사용하는 것이 좋다(이종이식).

뇌사

뇌사판정은 장기이식이라는 절차를 밟아 뇌사자의 장기가 필요한 다른


38 4 3 2 1
사람에게 이식되어 좋은 곳에 쓰인다는 점에서 정당하다고 생각한다.

학식과 사회적 덕망이 풍부한 사람들(법적 인정자)로 구성된 뇌사판정


39 4 3 2 1
위원회에서 내리는 뇌사판정은 정당하다고 생각한다.

40 뇌사보다는 심장사(심장의 정지)를 죽음의 기준으로 삼아야 한다. 4 3 2 1

뇌사는 의료인과 가족의 정신적, 경제적 고통으로부터 해소된다는 차


41 4 3 2 1
원에서 인정을 해야 한다고 생각한다.

인간의 존엄성은 육체가 아니라 이성과 정신이므로 뇌사를 인정해서는


42 4 3 2 1
안 된다.

인간생명공학

43 인간생명에 대한 조작은 인간의 존엄성을 위협하는 행위이다. 4 3 2 1

DNA를 조작해 유전자 변형 동식물을 제조하거나, 질병치유를 목적으


44 4 3 2 1
로 유전자를 조작하는 행위는 허용해야 한다.

45 불치병의 치료를 위한 태아의 줄기세포 등의 연구는 허용해야 한다. 4 3 2 1

돌리양과 같은 체세포 핵치환술에 의한 인간배아복제의 금지는 타당하


46 4 3 2 1
다.

인간 개체복제는 아이를 갖고 싶어 하는 불임부부의 좋은 해결책이 될


47 수 있지만, 인간 존엄성 침해와 가족구조의 파괴 등의 윤리적 논란이 4 3 2 1
야기될 수 있으므로 허용해서는 안 된다.

유전자 치료기술은 소수를 위한 과잉 의료행위이므로 그 재원을 의료


48 4 3 2 1
혜택을 제대로 받지 못하는 사람들에게 골고루 나누어주어야 한다.

수명을 연장할 수 있는 유전자 치료법이 개발된다면 시술을 받을 용의


49 4 3 2 1
가 있다.

- 186 -
▶ 다음은 인공지능기술에 대한 귀하의 의견을 묻는 문항입니다.
질문을 읽고 해당된다고 생각하시는 번호에 <√>표시를 해 주십시오.에 대한 인식
문항 (5점 척도)

전혀 조금 보통 조금 매우
인공지능에 대한 인식
아니다 아니다 이다 그렇다 그렇다
현재 인공지능이 전반적인 산업분야에서 개발 중인 것으로 인
1 ① ② ③ ④ ⑤
식하고 있다.

2 현재 의료분야에 인공지능 적용이 가능하다. ① ② ③ ④ ⑤

3 인공지능 기술은 의료분야에 긍정적인 영향을 줄 것이다. ⑦ ⑥ ⑤ ④ ③

4 인공지능 기술은 의료분야에 부정적인 영향을 줄 것이다. ⑦ ⑥ ⑤ ④ ③

5 인공지능 기술에 대한 선재대응이 필요하다. ① ② ③ ④ ⑤

6 인공지능 기술은 의료분야 서비스를 대체할 가능성이 높다. ① ② ③ ④ ⑤

7 환자들은 인공지능보다 인적서비스를 더욱 선호 할 것이다. ⑦ ⑥ ⑤ ④ ③

8 인공지능으로 의료분야 일자리가 감소할 것이다. ① ② ③ ④ ⑤

9 고난이도나 단순 업무는 인공지능으로 대체가능 할 것이다. ① ② ③ ④ ⑤

인공지능으로 사라지는 직업만큼 새로운 일자리가 창출 될 것


10 ⑦ ⑥ ⑤ ④ ③
이다.

11 인공지능으로 정확하고 차별화된 의료서비스가 가능할 것이다. ① ② ③ ④ ⑤

12 감성이 요구되는 업무는 인공지능으로 대체 불가능할 것이다. ① ② ③ ④ ⑤

- 187 -
※ 설문지 작성의 이해를 돕기 위한 용어의 정의를 기술하였습니다.

용어 용어의 정의

태아 모체 내에 있는 아이를 의미한다.
일반적으로 수정 뒤 8주째 까지의 생명을 말한다.
배아 인간 배아는 사람의 정자와 난자가 수정한 지 14일째 즈음이 되면 척추의 발생기전 형태이
자 모든 인간기관이 만들어지는 원시선(Primitive Streak)을 갖추게 된다.
세포를 만들어내는 세포를 말한다.
예) 적혈구나 백혈구는 “조혈줄기세포”로부터 만들어진다.
줄기세포
배아에는 모든 종류의 세포를 만들어내는 줄기세포가 있는데, 이를 “배아줄기세포”라고 한
다.
유전정보를 지닌 핵을 제거한 난자에 특정 인물의 체세포(생식세포를 제외한, 몸을 이루고
있는 모든 세포)에서 유전정보를 담은 핵을 이식해 전기충격으로 융합해 배양하는 것을 말
(인간)
한다.
배아복제
이렇게 배양된 배아는 유전정보를 담은 핵을 제공한 인물과 99.9% 동일한 유전정보를 지니
게 된다. 이 배아가 성장해 사람이 되면 “복제인간”이다.
간세포는 우리 몸의 210여개 모든 기관의 조직으로 성장할 수 있는 잠재적 힘을 갖고 있
다.
(배아)
무한히 분열하며 외부의 적절한 조작을 통해 원하는 장기로 분화할 수 있다.
간세포
당뇨병환자에게 인슐린을 생산하는 세포를 주입하고 심장마비 환자에게 심근세포를 제공할
수 있다.
체세포 간세포를 추출할 수 있는 방법을 말한다.
핵치환술 귓불에서 떼어낸 세포를 핵을 제거한 난자에 넣어 배아 간세포를 얻는 방법이다.
(인간) 한 인간과 유전적으로 동일한 다른 인간을 만드는 방법을 말한다.
개체복제 복제된 배아를 자궁에 착상시키는 것이다.

▶ 다음은 의료용 AI와 관련된 윤리적 기준에 대한 귀하의 의견을 묻는 문항입니다.


질문을 읽고 해당된다고 생각하시는 번호에 <√>표시를 해 주십시오.

전혀 조금 보통 조금 매우
의료용 AI와 관련된 윤리적 기준
아니다 아니다 이다 그렇다 그렇다

의료용 AI는 환자의 존엄성을 가장 중요하게 고려해야


1 ① ② ③ ④ ⑤
한다.

의료용 AI는 모든 환자를 공평하게 대하는 것을 가장


2 ① ② ③ ④ ⑤
중요하게 고려해야 한다.

의료용 AI는 의료현장 전체의 복지를 가장 중요하게 평


3 ⑦ ⑥ ⑤ ④ ③
가해야 한다.

- 188 -
▶ 다음은 일반적인 윤리 의식에 대한 귀하의 의견을 묻는 문항입니다.
질문을 읽고 해당된다고 생각하시는 번호에 <√>표시를 해 주십시오.

전혀 조금 보통 조금 매우
올바름에 대한 기준_절대적 기준 아니다 아니다 이다 그렇다 그렇다

아무리 작은 정도라도 다른 사람에게 고의적으로 해를


1 ① ② ③ ④ ⑤
끼치는 행동을 해서는 안 된다.

나는 좋은 혜택이 생겨도 다른 사람에게 해가 될 가능


2 ① ② ③ ④ ⑤
성이 있다면 그 일은 잘못된 것이라고 생각한다.

나는 다른 사람에게 신체적으로는 물론 심리적으로도


3 ⑦ ⑥ ⑤ ④ ③
해를 미쳐서는 결코 안 된다고 생각한다.
나는 어떤 경우든 다른 사람의 복지와 존엄성을 위협
4 ⑦ ⑥ ⑤ ④ ③
하는 행동은 하지 말아야 된다고 생각한다.
나는 어떤 행동이 무고한 사람에게 폐를 끼친다면 해
5 ① ② ③ ④ ⑤
서는 안 된다고 생각한다.
나는 다른 사람들의 복지와 존엄성이 사회의 가장 중
6 ① ② ③ ④ ⑤
요한 관심사가 되어야 한다고 생각한다.

전혀 조금 보통 조금 매우
올바름에 대한 기준_상대적 기준 아니다 아니다 이다 그렇다 그렇다

나는 윤리적 기준은 개인적인 것으로서 어떤 사람에게


1 는 윤리적일 수 있으나 다른 사람에게는 비윤리적일 수 ① ② ③ ④ ⑤
있다고 생각한다.

나는 각 개인이 판단하여 행한 도덕적 행동은 어느 것


2 ① ② ③ ④ ⑤
이 더 옳은지 비교할 수 없다고 생각한다.

나는 무엇이 도덕적인지 아닌 지는 각 개인에게 달려


3 있기 때문에 모든 사람에게 윤리적으로 인정되는 기준 ⑦ ⑥ ⑤ ④ ③
은 찾을 수 없다고 생각한다.

나는 어떤 경우든 다른 사람의 복지와 존엄성을 위협


4 ⑦ ⑥ ⑤ ④ ③
하는 행동은 하지 말아야 된다고 생각한다.

나는 어떤 행동을 금지하기 위해 만든 성문화된 윤리


5 규정은 보다 나은 인간관계와 원만한 상호적응을 방해 ① ② ③ ④ ⑤
할 수 있다고 생각한다.

나는 거짓말에 대한 규정은 만들기 힘들며, 어떤 거짓


6 말이 허용될 수 있는지 여부는 전적으로 상황에 달려있 ① ② ③ ④ ⑤
다고 생각한다.

- 189 -
전혀 조금 보통 조금 매우
올바름에 대한 기준_의무와 공리에 대한 생각 아니다 아니다 이다 그렇다 그렇다

나는 어떤 일을 함에 있어 올바름이 가장 중요한 기준
1 ① ② ③ ④ ⑤
이 되어야 한다고 생각한다.

올바른 일을 하게 되는 경우 나의 이익과 상충이 있을


2 ① ② ③ ④ ⑤
지라도 나는 올바름을 따르는 편이다.

나는 어떤 경우에도 사람을 수단으로 취급해서는 안된


3 ⑦ ⑥ ⑤ ④ ③
다고 생각한다

나는 어떤 기준보다도 한 개인의 존엄성이 가장 중요


4 ⑦ ⑥ ⑤ ④ ③
하다고 믿는다.

나는 전체의 이익이나 공익을 위해 개인의 이익은 훼


5 ① ② ③ ④ ⑤
손되어도 무방하다고 믿는다.

나는 나 혹은 내 가족의 이익이 어떤 기준보다 중요하


6 ① ② ③ ④ ⑤
게 여긴다.

나는 나 혹은 내 가족의 이익을 위해 다른 사람에게


7 손해를 입히는 것은 어느 정도는 허용될 수 있다고 생 ① ② ③ ④ ⑤
각한다

- 190 -
부록2. 대한의사협회 의사윤리지침

대한의사협회 의사윤리지침
제정 2001. 04. 19.
개정 2006. 04. 22.
개정 2017. 04. 23.

제1장 의사의 일반적 윤리

제3조(의사의 사명과 본분)

의사는 고귀한 사람의 생명과 건강을 보전하고 증진하는 숭고한 사명의 수행을 삶
의 본분으로 삼아, 모든 의학 지식과 기술을 인류의 복리 증진을 위하여 사용하
여야 한다.

제4조(최선의 의료행위 및 교육이수)

① 의사는 주어진 상황에서 최선의 의료를 시행하도록 노력하여야 한다.

② 의사는 새로운 의학 지식과 기술을 끊임없이 습득하고 연마하며, 그에 따르는


사회적, 윤리적 문제를 이해하고, 그 해결을 위하여 노력하여야 한다.

제5조(공정한 의료 제공)

① 의사는 의료가 모든 사람에게 공정하게 제공될 수 있도록 최선의 노력을 기울


여야 한다.

② 의사는 환자의 인종과 민족, 나이와 성별, 직업과 직위, 경제 상태, 사상과 종
교, 사회적 평판 등을 이유로 의료에 차별을 두어서는 안 된다.

③ 의사는 진료 순위를 결정하거나 의료자원을 배분할 때 의학적 기준 이외에 정


치적·경제적·사회적 조건 등을 고려하여서는 안 된다.

제6조(품위 유지)

① 의사는 의사윤리지침을 준수하고, 사회 상규를 지키며, 의료의 전문성을 지키


는 등 의료인으로서 품위를 유지하여야 한다.

② 의사는 의료 행위 뿐 아니라, 인터넷, 소셜 미디어, 저서, 방송활동 등을 통한


언행에 있어 품위를 유지하여야 한다.

제7조(진료에 임하는 의사의 정신적, 육체적 상태)

① 의사는 마약, 음주, 약물 등으로 인하여 환자의 생명과 신체에 위해를 가져올
수 있는 상태에서 진료를 하여서는 안 된다.

- 191 -
② 의사는 자신의 정신적 또는 육체적 질병으로 인하여 환자의 생명과 신체에 위
해를 가져올 수 있는 상태에서 진료를 하여서는 안 된다.

제8조(의사의 사회적 책무)

의사는 인간의 생명, 건강, 삶의 질 향상을 위하여 노력하여야 하며, 법과 제도를


개선하여 바람직한 의료환경과 사회체계를 확립하는데 이바지 한다.

제9조(의무기록 등의 정확한 기록)

① 의사는 의무기록과 진단서를 정확하고 성실하게 작성하여야 한다.

② 의사는 환자가 요청하는 경우, 환자의 진료를 위하여 불가피한 경우 이외에는


의무기록을 확인할 수 있게 하여야 한다.

③ 의사는 환자의 동의나 법률적 근거 없이 제3자에게 환자의 진료에 관한 사항을


알게 하여서는 안 된다.

④ 의사는 의무기록을 고의로 위조, 변조, 누락, 추가 등 사실과 다르게 기재하여


서는 안 된다.

제10조(의료인 양성의 의무)

의사는 후학들의 교육 및 임상능력 증진과 전문적 덕성 함양을 위하여 노력하여야


한다.

제2장┃환자에 대한 윤리

제11조(의사와 환자의 상호 신뢰)

① 의사는 환자와 서로 신뢰하고 존중하는 관계가 유지되도록 노력하여야 한다.

② 의사는 환자의 자율적인 의사를 최대한 존중하고, 환자의 권익이 보장될 수 있


도록 최선의 노력을 다하여야 한다.

③ 의사는 환자가 본인의 의사를 표명하기 어려운 심각한 정신질환이나 의식불명


의 상태인 경우, 가족 등 환자 대리인의 의사와 판단을 존중하되, 환자의 평소
의사와 이익이 최대한 존중되고 보장되도록 노력하여야 한다.

④ 의사는 환자가 미성년자인 경우 환자 본인 및 환자 대리인의 의사를 확인하여,


환자의 이익이 최대한 존중되고 보장되도록 노력하여야 한다.

⑤ 의사는 환자의 의사와 이익을 최대한 존중·보장하기 위하여 삶과 죽음에 대한


환자의 가치관과 태도를 미리 알고자 하는 노력을 하여야 한다.

제12조(환자의 인격과 사생활 존중)

- 192 -
① 의사는 환자를 단순히 치료의 대상으로 여기는 것이 아니라 인격을 가진 존재
로 대우하여야 한다.

② 의사는 환자의 사생활을 존중하여야 하며, 치료목적 이외에 불필요하게 침해해


서는 안 된다.

③ 의사는 성적으로 수치심을 느낄 수 있는 신체 부위를 진찰할 때 환자가 원하는


경우 제3자를 입회시켜야 한다.

④ 의사는 진료 관계가 종료되기 이전에는 환자의 자유의사에 의한 경우라 할지라


도 환자와 성적 접촉을 비롯하여 애정 관계를 가져서는 안 된다.

제13조(환자의 선택권 존중 등)

① 의사는 자신의 환자를 기망하여 다른 의사에게 진료를 맡겨서는 안 된다.

② 의사는 진료의 일부를 다른 의사에게 맡길 경우에는 그 필요성과 해당 의사의


전문 분야, 경력 등에 관하여 환자에게 설명해주어야 한다.

제14조(진료의 거부금지 등)

① 의사는 진료의 요구를 받은 때에는 이를 거부해서는 안 된다. 다만, 진료에 지


속적으로 협조하지 않거나 의학적 원칙에 위배되는 행위를 요구하는 등 정당한
사유가 있을 경우에는 그러하지 아니하다.

② 의사는 환자의 진료에 필수적인 인력, 시설 등을 갖추지 못한 경우 환자를 타


의료기관으로 전원해야 한다.

③ 의사는 환자를 진료하기 위하여 상당한 시간이 지체될 것으로 예상되는 경우에
는 환자 또는 보호자에게 충분한 설명을 한 후 타 의료기관으로 전원을 권유할
수 있다.

제15조(환자의 알 권리와 의사의 설명 의무)

① 의사는 긴급한 경우나 환자에게 기타 특별한 상황이 없는 한, 진료를 시행함에


있어서 질병상태, 예후, 치료의 필요성, 의료행위의 내용, 효과, 위험성 및 후유
증 등에 대하여 설명하여야 한다.

② 의사는 환자 진료 중에 예상하지 못한 문제나 결과가 발생하였을 경우 이에 대


해 환자나 보호자에게 설명하여야 한다.

③ 의사는 환자가 결정하기 어려운 경우에는 제1항의 내용을 가족 등 환자의 대리


인에게 설명하여야 한다.

④ 의사가 제1항의 설명을 환자에게 하는 것으로 인하여 환자의 불안감을 가중하


는 등의 정서적 문제를 일으킬 수 있고, 이로 인하여 향후 치료 진행이나, 건강

- 193 -
회복에 나쁜 영향이 미칠 수 있다고 판단되는 경우에는 가족 등 대리인에게 설
명할 수 있다.

제16조(회복 불능 환자의 진료 중단)

① 의사는 의학적으로 회생의 가능성이 없는 환자의 경우라도 생명유지치료를 비


롯한 진료의 중단이나 퇴원을 결정하는 데 신중하여야 한다.

② 의학적으로 회생의 가능성이 없는 환자나, 가족 등 환자의 대리인이 생명유지


치료를 비롯한 진료의 중단이나 퇴원을 명시적으로 요구하는 경우, 의사가 의학
적으로 무익하거나 무용하다고 판단하는 생명 유지치료에 대하여 그러한 요구를
받아들이는 것은 허용된다. 그러나 통증 완화를 위한 의료행위와 영양분 공급,
물 공급, 산소의 단순 공급은 시행하지 않거나 중단되어서는 안 된다.

③ 의사의 충분한 설명과 설득 이후에도 환자, 또는 가족 등 환자 대리인이 회생


의 가능성이 없는 환자에 대하여 의학적으로 무익하거나 무용한 진료를 요구하
는 경우, 의사는 그것을 받아들이지 않을 수 있다.

제17조(환자 비밀의 보호)

① 의사는 그 직무상 알게 된 환자의 비밀을 보호하여야 한다.

② 의사가 환부 촬영 등 의무기록상 필요한 사항 이외의 진료장면을 촬영하는 경


우에는 사전에 환자의 동의를 받아야 한다.

③ 의사는 미성년 환자의 진료에 필요하다고 판단하는 경우 부모나이에 준하는 보


호자에게 진료에 관한 사항을 알릴 수 있다.

④ 의사는 환자가 자신이나 다른 사람에게 심각한 위해를 가할 명백한 의도를 가


지고 있고, 그 계획이 구체적인 경우 위해를 방지하기 위하여 불가피하다고 판
단되는 경우에는 환자의 비밀을 제3자에게 알릴 수 있다.

⑤ 의사는 의학적 조사 및 연구 등을 수행함에 있어 환자의 개인정보를 보호하여


야 한다.

제18조(응급의료 및 이송)

의사는 응급환자에 대하여 자신의 능력 범위 내에서 필요한 최선의 의료를 시행하


여야 한다. 다만, 자신의 능력과 시설로는 그 환자에 대하여 적정한 응급의료를
행할 수 없다고 판단한 때에는 지체 없이 그 환자를 치료가 가능한 다른 의료기
관으로 이송하여야 한다.

제19조(동료 의료인 등의 존중)

① 의사는 환자에 대한 최선의 진료를 위해 의료 현장에 함께 일하는 모든 사람을

- 194 -
존중하고 신뢰하여야 한다.

② 의사는 동료 의료인이 수행하는 직무의 가치와 내용을 이해하여야 하며, 상호


간에 협력적인 직무관계를 이루도록 노력을 다하여야 한다.

제20조(정당한 지시·조언 존중)

의사는 의료행위와 관련하여 상급자와 동료의 정당한 지시나 조언을 존중하여야


한다.

제21조(근무환경 개선)

의사는 환자와 의료진의 안전을 위하여 의료현장의 근무환경과 근로조건을 적절히


유지하고 개선하는데 노력하여야 한다.

제22조(불공정 경쟁금지 등)

① 의사는 영리를 목적으로, 다른 의료기관을 이용하려는 환자를 자신의 의료기관


으로 유인하거나 대가를 지급하고 제3자로부터 소개·알선을 받는 행위를 하여서
는 안 된다.

② 의사 및 의료기관은 환자를 유치할 목적으로 차량 운행, 진료비 할인 등 진료


와 직접적인 관계가 없는 편의 제공과 같은 불공정한 행위를 하여서는 안 된다.

제3장 동료 보건의료인에 대한 윤리

제23조(동료 의사의 잘못에 대한 대응)

① 의사는 동료 의사가 의학적으로 인정되지 않는 의료행위를 시행하거나 이 지침


에서 금지하고 있는 행위를 하는 경우 그것을 바로잡도록 노력하여야 한다.

② 전 항의 노력에는 의료기관, 의사회, 전문학회 등의 윤리위원회나 대한의사협


회 윤리위원회에 알리는 것이 포함된다.

③ 대한의사협회 등은 제보자가 불이익을 받지 않도록 보호하여야 한다.

제4장 의사의 사회적 역할과 의무

제24조(의사의 사회적 책무)

① 의사는 지역사회, 국가, 인류사회와 그 구성원들의 생명 보전, 건강 증진, 삶의


질 향상을 위하여 최선의 노력을 다하여야 한다.

② 의사는 의료 자원의 편성과 배분에 능동적으로 참여하여 보건의료체계를 유지·


발전시키는데 기여하여야 하며, 사회의 안녕을 증진하고 미래 의료변화에 대응

- 195 -
해야 한다.

제25조(보건의료 위기 상황시 구호활동)

① 의사는 대규모의 감염병이나 천재지변과 재난 등으로 다수의 환자가 발생하는


경우 개인적 또는 집단적으로 환자의 구호를 위해 가능한 자원을 동원하여 적극
적인 활동을 벌여야 한다.

② 의사는 공중보건 위기 상황이 발생하였을 때 지역사회 구성원 및 이해관계자를


대상으로 적절하게 소통하고 상호 협력할 수 있어야 한다.

제26조(인권 보호 의무)

의사는 진료시 고문, 아동학대, 가정폭력, 성폭력 등 인간의 신체와 정신을 침해하
는 행위를 알게 된 경우 피해자의 인권을 보호하기 위한 조치를 취하여야 한다.

제27조(의료자원의 적절한 사용)

의사는 보건의료분야에 적정한 자원이 투입되도록 하여야 하며, 투입된 의료 자원


이 불필요하게 소모되지 않도록 노력하여야 한다.

제28조(부당 이득 추구 금지)

① 의사는 자신이나 자신이 소속한 의료기관의 부당한 영리 추구를 목적으로 의료


행위를 하여서는 안 된다.

② 의사는 진료비 이외의 금품 등을 부당하게 요구하거나 받아서는 안 된다.

③ 의사는 어떤 이유에서든지 비의료인에게 고용되어 환자의 이익보다 사적인 이


익을 추구하는 목적으로 하는 진료행위에 가담하여서는 안 된다.

제29조(이해상충의 관리)

① 의사는 제약회사나 의료기기회사 등으로부터 진료약제와 의료기기 등의 채택


및 사용과 관련하여 금품과 향응 등 부당한 이득을 취해서는 안 된다.

② 의사는 제약회사나 의료기기회사 등으로부터 연구비나 국내외 학술대회와 관련


된 후원을 받을 때 그 방법과 절차가 공정하고 공개적이어야 한다.

③ 의사는 자신이 직접 운영하거나, 운영에 관여하는 회사에서 생산하는 물품(의


약품, 건강식품, 진료재료, 장비 등), 혹은 자신의 고안이나 특허를 이용하여 생
산되는 물품을 자신의 진료에 사용하거나 광고할 경우, 자신이 이러한 행위를
통해서 이익을 얻고 있음을 공개해야 한다.

제30조(과잉·부당진료 금지)

① 의사는 경제적 이득을 위하여 환자에게 의학적으로 불필요한 진료를 하여서는


안 된다.

- 196 -
② 의사는 환자나 진료비 지급기관에 허위 또는 과다한 진료비를 청구하여서는 안
된다.

제31조(허위·과대광고 등 금지)

① 의사는 법령이 허용하는 한도에서 신문, 방송, 유인물, 통신, 인터넷 등과 같은


대중 매체를 이용하여 의료정보를 제공할 수 있다.

② 의사는 허위·과대광고, 다른 의사를 비방·비하하는 광고, 의사와 의료의 품위를


훼손하는 저속한 광고를 하여서는 안 된다.

③ 의사는 의료정보를 제공하는 목적으로 의료광고를 하는 경우 의학계에서 인정


하지 않는 시술 명칭이나 진단 명칭 등을 사용하여서는 안 된다.

④ 의사는 의사 또는 의사 아닌 사람이나 단체가 국민의 건강을 해치는 허위·과장


정보를 전파하거나 광고할 경우 이를 지적하고 바로 잡을 수 있도록 노력하여야
한다.

제32조(대중매체의 부당한 이용 금지)

① 의사는 방송 등 대중매체 참여 과정에서 그 목적, 내용 등을 신중하게 고려하


여 전문가의 품위를 유지할 수 있도록 해야 한다.

② 의사는 의학적 지식을 정확하고 객관적으로 전달해야 하며, 의학적으로 검증되


지 않은 의료행위를 안내해서는 안 된다.

③ 의사는 방송 등 대중매체 참여를 영리 목적으로 이용하거나 광고 수단으로 이


용해서는 안 된다.

④ 의사는 방송 등 대중매체 참여의 대가로 금품 등을 주어서는 안 된다.

제5장┃ 개별 의료 분야 윤리: 출산과 임종, 장기이식, 의학연구 등

제33조(태아 관련 윤리)

① 의사는 태아의 생명 보전과 건강 증진에 최선을 다하여야 한다.

② 의사는 의학적으로 적절하고 합당한 경우라도 인공임신중절 수술을 시행하는데


신중하여야 하며, 산모의 건강과 태아의 생명권에 특별한 주의를 기울여야 한다.

제34조(보조생식술 관련)

① 의사는 의학적으로 질병을 회피하기 위한 경우와 같은 특별한 사유가 있는 경


우를 제외하고 적극적 유전 선택을 하면 안 된다 .

② 의사는 정자와 난자의 매매행위에 관여하여서는 안 된다.

- 197 -
③ 의사는 정자 또는 난자를 제공하는 사람의 신원을 누설하거나 공개하여서는 안
된다.

제35조(연명의료)

① 의사는 죽음을 앞둔 환자의 신체적, 정신적 고통을 줄이고 삶의 질을 향상시키


는데 최선의 노력을 다하여야 한다.

② 의사는 말기환자가 품위 있는 죽음을 맞이할 수 있도록 노력하여야 한다.

③ 의사는 말기환자의 의사를 존중하여 치료가 이루어지도록 노력하여야 하며, 적


절한 시기에 환자 및 가족과 함께 연명의료 결정 및 호스피스·완화의료 등에 관
한 논의를 하도록 노력하여야 한다.

제36조(안락사 등 금지)

① 의사는 감내할 수 없고 치료와 조절이 불가능한 고통을 겪는 환자에게 사망을


목적으로 물질을 투여하는 등 인위적, 적극적인 방법으로 자연적인 경과보다 앞
서 환자가 사망에 이르게 하는 행위를 하여서는 안 된다.

② 의사는 환자가 자신의 생명을 끊는데 필요한 수단을 제공함으로써 환자의 자살


을 도와주는 행위를 하여서는 안 된다.

제37조(뇌사의 판정)

의사는 뇌사를 판정하는 경우 그 환자의 보호자에게 충분한 설명을 하고, 적법한


절차를 거쳐 신중하게 하여야 한다.

제38조(장기이식술과 공여자의 권리 보호)

① 의사는 자발적인 장기 및 신체조직 기증을 권장하는 노력을 해야 한다.

② 의사는 잠재적 장기 기증자로부터 장기 및 조직을 적출하고자하는 경우 동의


여부를 확인하고, 유가족 등 기증 결정자가 경제적, 사회적 유인으로부터 자유롭
게 의사결정을 할 수 있도록 보호해야 한다.

③ 의사는 정당한 의료행위의 대가 외에는 장기기증 및 이식에 따른 경제적 이득


을 취해서는 안 된다.

④ 의사는 기증 장기의 수혜자를 선택함에 있어서 의학적인 적합성과 시급성에 기


초해야 하며, 어떠한 사회, 경제, 종교, 인종적 배경이 개입해서는 안 된다.

제39조(장기 등 매매 금지)

① 의사는 장기 등 매매에 관여하거나 이를 교사·방조하여서는 안 된다.

② 의사는 진료시 장기 등의 매매 행위를 알게 된 경우 그러한 사실을 묵인하거나


은폐해서는 안 된다.

- 198 -
제40조(의학연구)

① 의사는 사람을 대상으로 연구를 함에 있어서, 연구 참여자의 권리, 안전, 복지


를 최우선으로 고려하여야 한다.

② 의사는 사회경제적 약자들의 취약점을 이용하여 의학연구의 대상으로 삼아서는


안 된다.

③ 의사는 기관생명윤리위원회에서 연구계획을 승인을 받은 후에 연구를 수행해야


하고, 연구 과정에서 위원회와 지속적인 협조관계를 유지하여야 한다.

④ 의사는 제약회사나 의료기기회사 등의 지원으로 연구하는 경우, 연구결과와 이


의 발표에 대한 간섭을 허용해서는 아니 되며 정당한 보상 이외에 연구결과와
관련하여 보상을 받아서는 안 된다. 연구결과를 발표할 때에는 연구비 지원기관
을 공개하여야 한다.

제41조(연구의 진실성)

의사는 연구할 때에 정확하고 검증된 연구 자료에 의거하여 연구를수행하고 진실


에 부합하는 연구결과를 도출하여 발표하여야하며, 위조, 변조, 표절, 부당한 중
복게재 등의 행위를 해서는 안 된다.

제42조(연구결과의 발표)

의사는 관련 학계에서 충분히 검증되지 않은 연구결과를 학술

제43조(윤리위원회 설치)

① 의료기관, 의사회, 전문학회 등은 각각의 소임에 걸맞은 윤리위원회를 두도록


한다.

② 윤리위원회는 상호간에 유기적이고 협조적인 관계를 유지하여야 한다.

③ 윤리위원회의 구성 등에 관한 사항은 대한의사협회 정관에 규정한다.

제44조(윤리위원회 역할)

① 윤리위원회의 역할은 의사들에 대한 징계보다 의료윤리의 제고에 역점을 두며,


나아가 국민의 건강권과 의사들의 진료권 신장에 이바지하여야 한다.

제6장 윤리위원회

제43조(윤리위원회 설치)

① 의료기관, 의사회, 전문학회 등은 각각의 소임에 걸맞은 윤리위원회를 두도록


한다.

- 199 -
② 윤리위원회는 상호간에 유기적이고 협조적인 관계를 유지하여야 한다.

③ 윤리위원회의 구성 등에 관한 사항은 대한의사협회 정관에 규정한다.

제44조(윤리위원회 역할)

① 윤리위원회의 역할은 의사들에 대한 징계보다 의료윤리의 제고에 역점을 두며,


나아가 국민의 건강권과 의사들의 진료권 신장에 이바지하여야 한다.

② 윤리위원회는 변화하는 의료 환경에 대응하기 위하여 의사윤리 강령 및 지침


등을 지속적으로 연구하고, 적절한 제안을 하여야 한다.

③ 윤리위원회는 회원의 윤리의식 제고를 위해 의료윤리교육 계획을 수립하여 정


기적으로 교육하여야 한다.

④ 윤리위원회는 회원에 대한 자격심사 및 징계에 관한 사항을 심의한다.

제45조(징계)

① 의사윤리 지침에서 금지하는 행위를 한 의사는 대한의사협회 정관 및 징계규정


에 따라 징계할 수 있다.

② 본 지침에 기술되지 아니한 내용에 대하여는, 의료계 전반에 걸친 합의와 건전


한 논의에 기초한 일반적 가치 판단 기준을 적용할 수 있다.

③ 윤리위원회에서 징계를 하는 경우 해당 의사에게 충분한 소명의 기회를 주어야


한다.

④ 윤리위원회는 징계 결정이 내려질 때까지 해당 의사의 신원을 비밀로 하여야


한다.

⑤ 윤리위원 등은 징계 심의과정에서 취득한 모든 정보에 대해 비밀유지의 의무를


진다.

- 200 -

You might also like