(Legal Code) Disclaimer

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 73

저작자표시-비영리-변경금지 2.

0 대한민국

이용자는 아래의 조건을 따르는 경우에 한하여 자유롭게

l 이 저작물을 복제, 배포, 전송, 전시, 공연 및 방송할 수 있습니다.

다음과 같은 조건을 따라야 합니다:

저작자표시. 귀하는 원저작자를 표시하여야 합니다.

비영리. 귀하는 이 저작물을 영리 목적으로 이용할 수 없습니다.

변경금지. 귀하는 이 저작물을 개작, 변형 또는 가공할 수 없습니다.

l 귀하는, 이 저작물의 재이용이나 배포의 경우, 이 저작물에 적용된 이용허락조건


을 명확하게 나타내어야 합니다.
l 저작권자로부터 별도의 허가를 받으면 이러한 조건들은 적용되지 않습니다.

저작권법에 따른 이용자의 권리는 위의 내용에 의하여 영향을 받지 않습니다.

이것은 이용허락규약(Legal Code)을 이해하기 쉽게 요약한 것입니다.

Disclaimer
석 사 학 위 논 문

인공지능 알고리즘 추천시스템의


딜레마

고려대학교 미디어대학원

영상엔터테인먼트 전공

전 진 영

2022년 8월
김 성 태 교수지도

석 사 학 위 논 문

인공지능 알고리즘 추천시스템의


딜레마

이 논문을 미디어학석사 학위논문으로 제출함.

2022년 8월

고려대학교 미디어대학원
영상엔터테인먼트 전공

전 진 영
전진영의 미디어학석사 학위논문

심사를 완료함.

2022년 8월

위 원 장 김 성 태 (인)

위 원 박 재 영 (인)

위 원 이 선 경 (인)
국문초록

사용자의 편익을 도모한다는 여러 이점에도 불구하고, 알고리즘을 기반


으로 한 추천시스템은 여전히 많은 문제를 안고 있다. 이 글은 의제설정
자로서의 기능을 담당하고 있는 언론이 인공지능 알고리즘 추천시스템에
대해 어떻게 보도하고 있는지 그 동향과 보도내용을 파악해보며, 동시에
다양한 논의가 이뤄지고 있는 여러 문헌을 참고하여, 인공지능 알고리즘
추천시스템에 내재되어 있는 여러 딜레마적 요인을 살펴보는 것을 주된
목적으로 한다. 궁극적으로는 인공지능 알고리즘 추천시스템을 연구를 요
하는 ‘문제’로 제기하고, 그 문제에 대한 원인과 성격, 그리고 해결책을
살펴보며, 이를 토대로 인공지능 알고리즘 추천시스템에 대한 본격적인
논의를 제언하고자 한다.
알고리즘은 한번 설계되면 차별과 편향의 강화문제를 야기할 수 있으
며, 그 문제는 지금도 현재진행형이다. 그러나 마치 블랙박스와도 같은
복잡한 수학적 언어로 설계된 알고리즘의 불투명성 때문에 일반적인 미디
어 수용자가 그러한 문제를 밝혀내거나 책임 논의를 다루기에는 쉽지 않
다. 기술적인 어려움은 물론이거니와 사용자의 편익, 거대 플랫폼사업자
의 이익추구와 같은 이면의 문제들이 서로 얽혀 있기 때문이다. 알고리즘
은 수학적 언어로 설계된 만큼 표면상으로 독립적이고 객관적으로 작동하
는 것처럼 보이지만, 알고리즘 설계자가 어떤 시각을 가지고 있는가에 따
라 그 결과가 달라질 수 있다. 즉, 설계자의 편향이 인공지능 알고리즘에
동시에 투영되어 차별과 편향의 문제가 발생할 여지가 있는 것이다. 그렇
기 때문에 인공지능 알고리즘의 편향에 대한 책임소재역시 설계자와 같은
인간에게도 그 대응책임이 있다.
이 연구는 인공지능 알고리즘 추천시스템에 대한 국내 미디어 보도동향
을 탐색적으로 살펴보며, 알고리즘 추천시스템이 가지고 있는 여러 딜레
마적 요인을 문헌검토를 통해 살펴보고자 한다. 따라서 인공지능 알고리
즘 추천시스템에 대한 이론적 검증을 통한 실증적 연구이기 보다는 발견
적인 측면을 강조하는 특징이 있다. 이러한 결과는 인공지능 알고리즘 추
천서비스가 가지는 의미의 해석과 여러 논의들이 우리 사회에서 어떻게
형성되어 있는가를 발견하여 추후 미디어 생태계에 균형적인 발전을 제언
하는데 그 의의가 있다.

주제어: 인공지능, 알고리즘, 편향성, 알고리즘 추천시스템, 필터버블


목 차

제1장 서 론 ·································································· 1

제1절 문제 제기 및 연구 목적 ······································································· 1

제2절 논문의 구성 ····························································································· 5

제2장 인공지능 알고리즘 추천시스템 ···················· 6

제1절 인공지능 알고리즘에 대한 이해 ························································· 6

제2절 인공지능 알고리즘 추천시스템 ························································· 14

제3장 인공지능 알고리즘 추천시스템 미디어 보도 ··· 23

제1절 추천시스템의 미디어 보도 동향 ······················································· 23

1. 자료수집과 분석 ····················································································· 23

2. 미디어 보도 동향의 분석 결과 ··························································· 24

제2절 미디어 보도의 주요 내용 ··································································· 28

제4장 인공지능 알고리즘 추천시스템의 딜레마 ···· 33

제1절 기술 이용의 편리성 vs 개인프라이버시 침해 ······························ 33

제2절 다양한 추천 정보의 공유 vs 가짜뉴스 확산, 정보의 진위 여부 ······· 37

제3절 개별화된 맞춤 콘텐츠 추천 vs 정보 편향의 위험 ······················ 41


제4절 신속·효율적인 시스템 vs 복잡·불투명한 알고리즘 체계 ·········· 44

제5장 결론 및 논의 ·················································· 48

제1절 연구결과의 해석 및 논의 ··································································· 48

제2절 연구의 한계 및 제언 ··········································································· 54

참고문헌 ······································································ 55

Abstract ······································································· 63
표 목차
<표 1> 진화단계에 따른 인공지능의 종류 ···················································· 7

<표 2> 인공지능의 다양한 정의 ······································································ 8

<표 3> 기술의 진화와 알고리즘 혁명 연표 ················································ 10

<표 4> 인공지능 알고리즘 관련 적용 사례 ················································ 11

<표 5> 인공지능 윤리 이슈들 ········································································ 13

<표 6> ‘인공지능’, ‘알고리즘’ 검색키워드별 뉴스 보도 건수 ················· 25

<표 7> ‘알고리즘 추천’ ‘알고리즘 편향’ 검색키워드별 뉴스 보도 건수26

<표 8> 2021년 뉴스 및 시사정보 주이용 경로 ········································· 40

그림 목차
<그림 1 > 콘텐츠 기반 필터링과 협업 기반 필터링 ································ 16

<그림 2 > 구글애즈 캠페인 위치 설정화면 ················································ 18

<그림 3 > 구글애즈 캠페인 위치 설정 도움말 화면 ································ 18

<그림 4 > 구글애즈 캠페인 금액 설정화면 ················································ 19

<그림 5 > 구글애즈 유튜브 동영상 캠페인 성별 등 설정화면 ·············· 20

<그림 6 > 구글애즈 유튜브 동영상 캠페인 관심분야 설정화면 ············ 20

<그림 7 > 구글애즈 유튜브 동영상 캠페인 금액 설정 화면 ·················· 21

<그림 8 > 구글애즈 유튜브 동영상 캠페인 금액 설정 화면 ·················· 21

<그림 9 > ‘인공지능’과 ‘알고리즘’ 기사 보도 건수 변화 ························ 25

<그림 10> ‘알고리즘 추천’과 ‘알고리즘 편향’ 기사 보도 건수 변화 ··· 26

<그림 11> ‘알고리즘 추천’과 ‘알고리즘 편향’ 검색어 기사 비율 ········· 27


제1장 서론

제1절 문제 제기 및 연구 목적

현대 온라인 사회에서 미디어 수용자에게 노출되는 정보의 상당부분은


인공지능 알고리즘 추천시스템을 기반으로 제공된다. “오늘도 알 수 없는
알고리즘이 나를 이 영상으로 이끌었어.”와 같은 유튜브 댓글을 통해서도,
이용자가 좋아할 만한 알고리즘 추천시스템이 적용되었음을 알 수 있다.
유튜브의 최고 상품 담당자(CPO) 닐 모한(Neal Mohan)의 2019년 뉴욕
타임스 인터뷰에 따르면 “유튜브 이용자들의 시청 시간 중 70%가 추천
알고리즘에 의해 이루어지며, 알고리즘 도입으로 총 영상 시청 시간이 20
배 이상 증가 했다”라고 밝혔다.1) 하지만 추천 알고리즘에 의한 지속적인
콘텐츠 노출은 미디어 수용자들의 정치적 선호에 영향을 미쳤고, 실제로
유튜브 알고리즘 추천시스템은 정치적 편향의 위험성을 가지고 있다고 지
적되고 있다(강명현, 2021; 김인식·김자미, 2021; 신유진·이상우, 2021).
이용자의 선호도를 기반으로 다음 콘텐츠를 추천해주는 이 알고리즘은
이용자가 원하는 콘텐츠를 적절한 순간에 노출시켜 궁극적으로는 ‘고객
맞춤형 마케팅’의 일환으로 도입되었다. 이는 이용자의 편익을 위한다는
미명아래 시청시간을 늘리거나 타깃 광고에 노출시켜, 이익을 추구하는
기업의 자본 논리가 반영되어 있다. 실제로 2021년 7월 페이스북의 2분
기 총 매출 290억 7700만 달러(한화 약 33조 6000억 원)중에서 광고
매출은 285억 8000만 달러(약 32조 9000억 원)였으며,2) 같은 기간 검
색엔진 구글의 모회사 알파벳의 총 매출은 618억 8000만 달러(약 71조
원)에 반해, 구글의 광고 수익은 504억 4000만 달러(약 58조 원)에 달했
다.3) 기업실적의 일등공신이 광고수익이라는 점은 다시 말해 이용자들의

1) Kevin Roose(2019, 03, 29). YouTube’s Product Chief…<nytimes>


https://www.nytimes.com/2019/03/29/technology/youtube-online-extremism.ht
ml.
2) 최은수(2021, 07, 29).페이스북 2분기 매출 56%증가…<데일리안>
https://www.dailian.co.kr/news/view/1016831/?sc=Naver

1
이용 패턴, 선호도 등을 바탕으로 한 타깃 중심의 알고리즘 마케팅이 앞
으로도 지속되리라는 점을 내포하고 있다.
2016년 마이크로소프트사는 대화의 맥락적 알고리즘을 파악하여 응답
이 가능한 인공지능 챗봇 테이(Tay)를 선보였다. 챗봇은 온라인 상에서
여러 사람들이 다양한 주제를 놓고 실시간으로 대화하는 채팅(chatting)
과 기계인 로봇(robot)의 조합어로 인공지능 기술을 기반으로 사람과 자
동으로 대화를 나누는 소프트웨어 서비스를 말한다(오세욱, 2016). 하지
만 마이크로소프트사는 서비스를 출시한지 16시간 만에 챗봇 테이의 서
비스를 종료하고 말았다.4) 챗봇은 인터넷 상에서 다양한 주제를 놓고 실
시간으로 일상적인 대화를 나누며, 일반인들의 질문에 대해 자동으로 응
답해주는 시스템이었다. 그러나 서비스의 본래 취지와는 달리, 챗봇 테이
는 대화를 통해 학습한 내용들을 바탕으로 특정사안에 차별적이고 혐오적
인 발언을 거침없이 쏟아내기 시작했고, 결국 서비스가 중단되게 되었다.
대화를 통해 학습하는 인공지능의 특성 상 편향성을 지닌 누군가 의도적
으로 왜곡된 시각을 시스템에 주입시킨다면 아웃풋 역시 편향성이 그대로
드러나는 심각한 취약점을 가지고 있었기 때문이다. 2016년 챗봇 ‘테이’
의 소동이 한바탕 지나갔음에도, 2021년 한국의 스타트업인 스캐터랩의
챗봇 ‘이루다’ 역시 유사한 문제로 다시 세간의 주목을 받게 된다. ‘이루
다’는 실제 연인이 나눈 페이스북 대화 메신저 데이터 약 100억 건을 학
습하였고 그 알고리즘을 기반으로 서비스를 출시하였으나, 사회적 소수자
에 대한 혐오와 차별적 발언으로 문제가 되어 잠정적으로 서비스가 중단
되었다. 한번 이슈가 되었음에도 재차 문제가 발생되는 이유 중 하나는
그만큼 알고리즘의 속성이 방대한 데이터의 학습으로 인한 복잡성과 불투
명성에 기인하기 때문이다. 블랙박스와도 같은 알고리즘은 기업비밀이라
는 명목 하에 쉽게 공개되지도 않을 뿐더러, 설사 공개되더라도 해석하기
힘든 수학적 언어로 도배되어있다. 누구도 알 수 없는 알고리즘은 학습의
기초가 될 데이터에 내재되어 있을지 모를 차별적 속성과 설계자의 편향

3) 장우정·김양혁·김윤수(2021, 07, 28). …2분기 역대급 실적<조선비즈>


https://biz.chosun.com/it-science/ict/2021/07/28/EQAXIYCNBNDJRB4FX6JOEBLB3M
/?utm_source=naver&utm_medium=original&utm_campaign=biz
4) 임화섭(2016,03,25). 인공지능세뇌의 위험…<연합뉴스>
http://www.yonhapnews.co.kr/bulletin/2016/03/25/0200000000AKR2016032501015
1091.HTML,

2
이 적용되었을 가능성이 배제되지 못한 채 일단 설계되고 나면, 강력한
무기로써 사람들의 실제 삶을 무너뜨리기도 한다. 미국의 데이터 과학자
캐시오닐은 이를 두고 ‘대량살상수학무기(Weapons of Math
Destruction)’로 명명, 수많은 수학적 알고리즘 편향의 잘못된 적용을 고
발했다. 그녀는 자동으로 작동되도록 만들어진 시스템은 효율성이자 수익
창출원의 대명사로 등장하지만, 측정할 수 있고 셀 수 있는 데이터를 기
반으로 만들어진 시스템의 기본 속성 상, 인간의 고유한 권리인 공정성과
평등성은 어떻게 코드화할 것인지에 대해 의문을 던진다. 그녀는 공정성
과 같은 무정형의 정량화하기 어려운 추상적인 개념을 이해하지 못하는
컴퓨터와 공정성을 어떻게 코드화할지 모르는 프로그램 개발자들로 인하
여, 불공정한 시스템들이 대거 생산 되는 현상을 경계한다(Cathy O’Neil,
2016).
미국의 심리학자 로버트 앱스타인은 정치 심리학자 로널드 E. 로버트슨
과 인도에서 검색엔진 실험을 진행했다. 그들은 2014년 총선에 누구를
투표할지 정하지 않은 참가자들을 대상으로 특별히 제작된 검색엔진 ‘카
두들’에 접속하도록 실험을 설계했다. ‘카두들’은 정보를 조작하는 검색엔
진으로 실험 참가자가 ‘카두들’에 접속하면 화면 상단에 특정 후보에게
유리한 링크가 노출되도록 설계되었다. 참가자들은 검색엔진에 노출된 선
거 정보와 편향된 결과를 보고 누구에게 투표할지를 결정했고, 실험을 진
행한 두 심리학자는 왜곡된 검색 결과가 선거 부동층 중 20%의 표심을
변화시켰다고 발표했다. 이는 검색알고리즘이 사람들의 정치적 선호도에
도 영향을 미칠 수 있다는 결과와 함께 정치적 여론을 교묘히 조작해도
아무도 알 수 없는 플랫폼사업자의 막대한 영향력에 대해서도 의구심을
품는 계기를 제공했다(Hannah Fry, 2019).
지금 보고 있는 정보가 전부일 거라 생각하고 진실이라 믿는 판단 오
류, 인간이 가질 수 있는 편협한 사고에 대한 관점은 일찍이 고대철학자
인 플라톤의 동굴의 비유에서 살펴볼 수 있다. 온몸이 묶인 죄수가 동굴
안쪽의 벽면만을 바라보는 상황에서, 죄수들은 동굴 밖 현실 세계의 진짜
사물들은 보지 못한 채 동굴 벽면에 비친 그림자만을 바라보며, 그 그림
자를 진짜라고 믿게 된다. 달리 말하면, 진짜가 아닌데, 한쪽 벽면만 바라
볼 수밖에 없는 환경적 요인으로 인해, 그림자를 전부라고 믿어버리는 상
황이 발생할 수 있는 것이다. 이런 관점은 근대에 와서 프랜시스 베이컨

3
에 의해 다시 언급되는데, 베이컨은 그의 저서 『신기관』에서 인간의 정
신을 피폐하게 만드는 네 가지 우상에 대해 언급했다. 첫째는 종족의 우
상, 둘째는 동굴의 우상, 셋째는 시장의 우상, 마지막은 극장의 우상이다.
이 중 동굴의 우상을 두고, 베이컨은 인간의 고유한 정신에 대해 빗대어
설명한다. 동굴의 우상은 인간 각자가 가지고 있는 고유한 자기만의 세계
를 말한다. 인간은 각자가 읽은 책이 다르며, 경험이 다르며, 존경하는 사
람도 다르다. 또한 마음의 상태도 다르며 선입견과 편견도 다르다. 이렇
게 인간의 정신은 모두 다 제각각이고 다양한데, 그 자신을 둘러싼 동굴
속에서 과학을 찾고 주관적 경향을 객관화시키려 한다. 특히 어떤 주제에
대한 각별한 선호를 비롯하여 비교의 잣대를 들이대고 있지는 않은지, 또
한 편협한 사고의 시선과 특별한 만족감에 도취되어 정작 자기만의 세계
에서 그 자신의 정신이 지배당하고 있는 것은 아닌지 늘 의심해 봐야 한
다고 지적한다. 그렇기에 보다 큰 진리나, 보편성을 놓치지 않도록 인간
은 자신만의 동굴에서 빠져나와 올바른 지성을 선명하게 갖추려 노력해야
한다. 타인의 의견을 존중하고, 바깥세상과의 소통을 통해 사회적인 가치
를 실현해야 한다고 베이컨은 강조했다.
본 연구는 기술의 발달로 인해 사회 각 분야에서 적용이 확대되고 있는
인공지능 알고리즘과 이를 기반으로 설계된 추천시스템에 대한 개념을 살
펴보고, 의제설정자로서의 기능을 담당하는 언론보도가 그 역할을 충실히
이행하고 있는지 보도 동향과 주요내용을 살펴보고자 한다. 또한, 인공지
능 알고리즘 추천시스템에 의해 이미 보고되었고, 발생 가능한 여러 사례
와 이를 분석한 문헌검토를 중심으로 알고리즘 추천시스템에 내재되어 있
는 여러 딜레마적 요인을 살펴보고자 한다. 또한 최종적으로 먼 미래에
일어날 일이 아니라 현재 나타나고 있는 인공지능 알고리즘 추천시스템에
대한 탐색적 시각을 통해 문제의 강화 및 영속화에 대응하고, 이에 대한
책임 있는 태도와 대안이 무엇인지 고찰한다.
지금까지 인공지능 알고리즘 추천시스템에 대한 언론보도 동향을 살펴본
사례가 거의 없었음을 고려해 볼 때, 언론의 역할로서 미디어 생태계의
변화를 어떻게 주목하고 있는지 규명하는 것은 의미 있는 작업이 될 것이
다.

4
제2절 논문의 구성

본 논문은 총 5장으로 구성되어 있다. 제1장 서론은 연구 문제 제기 및


목적에 대해 제시한다. 인터넷 기술이 발달함으로 미디어 수용자들과 정
보를 제공하는 미디어 플랫폼들은 인공지능 알고리즘의 개발로 미디어 생
태계의 변화를 체감하게 되었다. 인공지능 알고리즘이 영향을 미치는 사
례와 미디어 플랫폼의 달라진 위상을 살펴보며, 인공지능 알고리즘 추천
서비스의 미디어 보도 동향과 딜레마적 요소를 알아보는 것의 필요성을
강조한다.
제2장은 연구의 큰 개념인 인공지능과 알고리즘, 그리고 인공지능 알고
리즘 추천시스템에 대해 살펴보고자 하였다. 또한, 알고리즘 추천시스템
에 대한 유형과 맞춤광고 설정에 대해 살펴본다.
제3장은 인공지능 알고리즘 추천시스템에 대한 국내미디어 보도 동향
을 미디어 보도건수와 보도내용을 통해 확인하고자 하였다. 언론의 보도
동향과 보도 내용의 파악을 통해 미디어에서 나타나는 인공지능 알고리즘
추천시스템의 주요 내용이 어떻게 형성되고 있는지 개관하는데 중점을 두
었다.
제 4장은 국내미디어 보도 내용을 비롯한 기존 문헌 검토를 통해 인공
지능 알고리즘 추천시스템에 내재되어 있는 딜레마적 요인에 대해 다음과
같이 살펴보았다.
첫째, 기술 이용의 편리성 vs 개인프라이버시 침해
둘째, 다양한 추천 정보의 공유 vs 가짜뉴스 확산, 정보의 진위 여부
셋째, 개별화된 맞춤 콘텐츠 추천 vs 정보 편향의 위험
넷째, 신속·효율적인 시스템 vs 복잡·불투명한 알고리즘 체계
제5장은 제3장과 제4장의 결과를 요약적으로 정리하고, 결과에 대한 내
용을 중심으로 함의를 살펴본다. 이어 연구결과에 대한 한계점과 제언을
제시한다.

5
제2장 인공지능 알고리즘 추천시스템

제1절 인공지능 알고리즘에 대한 이해

인공지능(AI: Artificial Intelligence)이란 용어는 1956년 미국 다트머


스 대학교의 학회에서 컴퓨터 과학자인 존 매카시(John McCarthy)와 그
의 동료들에 의해 처음 사용되었다. 인공지능은 “인간의 지능이 가지는
학습, 추리, 적응, 논증 따위의 기능을 갖춘 컴퓨터 시스템을 말하는 것으
로, 전문가 시스템, 자연 언어의 이해, 음성 번역, 로봇 공학, 인공 시각,
문제 해결, 학습과 지식 획득, 인지 과학 따위에 응용하는 것”5)을 일컫는
다. 인공지능은 존 설(John Searle)교수가 ‘중국어 방 논증’6)에서 강한
인공지능(Strong AI)’과 약한 인공지능(Weak AI)의 개념을 사용하면서
구분되기 시작하였는데, 강한 인공지능은 인간을 모방한 지능이고, 약한
인공지능은 인간의 삶에 필요한 도구로 사용되는 인공지능이다(이경미,
2021). 강한 인공지능은 인간과 유사한 인지적 상태를 지니고 있으며, 인
간의 ‘마음’으로 이해 가능한 범위를 뜻하며, 약한 인공지능은 인간의 행
위에 필요한 보조적 역할로서, 인간을 돕는 범위에 사용되는 인공지능이
다. 한편, 닉 보스트롬(Nick Bostrom)은 인공지능을 ‘좁은 인공지
능’(ANI·artificial narrow intelligence), ‘범용 인공지능’(AGI·artificial
general intelligence), 그리고 ‘초지능’(ASI·artificial super intelligence)
으로 구분하였다. ‘좁은 인공지능’은 인간의 도구로서 이용되는 형태이며,
‘범용 인공지능’은 인간과 유사한 지능의 형태, ‘초지능’은 인간의 지능을

5) 출처: 표준국어대사전
https://ko.dict.naver.com/#/entry/koko/8b8b95a9d8d04942988850d62f6a35d3
6) 중국어방 논증; 방 안에 중국어를 할 줄 모르는 영국인이 있다. 대신 방안에는 중국어
표현에 상응하는 영어표현을 알려주는 규칙지침서가 있다. 방 밖에서 중국어 질문지가
영국인에게 주어지고 영국인은 규칙지침서를 보고 중국어 질문에 대한 답을 찾아 중국
어로 적어 방 밖으로 제출한다. 방 밖에 있는 사람은 방안을 볼 수는 없지만 방 안에
있는 사람이 중국인이거나 중국어를 아는 사람이라고 생각한다. 존설은 이를 빗대어
블랙박스에 있는 인공지능 시스템이 답을 제출하더라도 지능이 있는지 단순히 답변만
을 도출했는지 알 수 없다는 문제를 제기한다.
출처: 두산백과
https://terms.naver.com/entry.naver?docId=3613360&cid=40942&categoryId=31528

6
훨씬 능가하는 형태로 스스로 목표를 설정해 지식을 축적하는 인공지능이
라 구분했다(Nick Bostrom, 2017). (<표 1>참조)

<표 1> 진화단계에 따른 인공지능의 종류


종 류 특 징

스스로 사고하여 문제를 해결할 수 있는 능력이 없는


좁은 인공지능
컴퓨터의 AI. 구글 알파고, IBM 왓슨 등과 같이 ‘지능
(ANI)
적인 행동’을 함

범용 인공지능 스스로 사고하여 문제를 해결할 수 있는 컴퓨터 기반의


(AGI) AI. 스스로를 인식하며, 지각력과 독립성을 갖췄음

인간보다 1000배 이상 뛰어난 지능을 가진 AI.


초인공지능
효율, 자기보존, 자원획득, 창의성 등의 원초적 욕구를
(ASI)
기반으로 끊임없이 자가 발전함

출처: IT트렌드연구회, 2019: 304

현재까지 산업 전반에서 사용되는 인공지능은 구글 딥마인드가 개발해


이세돌과 바둑 대결을 했던 ‘알파고’, 병원 치료 및 진단 등에 사용되고
있는 IBM의 ‘닥터 왓슨’처럼 대체로 약한 인공지능, 좁은 인공지능의 형
태가 대부분이다. 이외에도 연구자마다, 분야마다 인공지능은 다양하게
정의되고 있는데, 통섭적으로 인공지능은 인지와 추론, 학습 등을 진행할
수 있는 인간의 사고 능력을 모방한 기술로 정의된다. 공통적으로 공유되
는 키워드는 바로 ‘지능’이다. ‘지능’ 역시 마찬가지로 ‘전반적인 인간의
사고과정에서 필요한 능력’을 의미한다(석왕헌·이광희, 2015). <표 2>를
살펴보면 각 연구자마다 인공지능에 대해 내린 다양한 정의를 살펴볼 수
있는데, 그 내용 역시 기술과 지능에 대한 통섭적인 형태로 이뤄져 있는
것을 확인해 볼 수 있다.

7
<표 2> 인공지능의 다양한 정의

기 술 명 인공지능에 대한 정의

John McCarthy
지능적인 기계를 만드는 엔지니어링 및 과학
(1955)
Charniak and
여러 계산모델을 이용하여 인간의 정신적 기능을 연구하는 것
McDermott (1985)
인간에 의해 수행될 때 필요한 지능에 관한 기능을 제공하는
Kurzweil (1990)
기계를 만들어내는 작업으로 정의
Rich and Knight 컴퓨터가 특정 순간에 사람보다 더 효율적으로 일을 할 수
(1991) 있도록 하는 연구
인간의 지능적인 행동양식에 있어 계산적 과정을 이용해 모방
Schalkof (1991)
하고 설명하는 것에 대한 연구 분야
Luger and
지능적인 행동의 자동화에 관한 컴퓨터 과학의 한 부문
Stubblefield (1993)
인공지능은 특별한 임무수행에 인간을 대체, 인지능력을 제고,
Gartner (웹페이지) 자연스러운 인간의 의사소통 통합, 복잡한 콘텐츠의 이해,
결론을 도출하는 과정 등 인간이 수행하는 것을 모방하는 기술
스마트기기는 인지컴퓨팅(인공지능과 기계학습 알고리즘이
technavio (2014)
적용된)이 임베디드된 기기로 볼 수 있음
BCC Research 스마트기기는 불확실 혹은 다양한 환경 하에서 업무를 수행
(2014) 할 수 있도록 고안된 하드웨어 및 소프트웨어 시스템으로 정의
인공지능은 인간의 학습능력과 추론, 지각, 이해능력 등을
NIA
실현하는 기술
출처: 석왕헌·이광희, 2015: 5-67)

한편, 7세기 초 당대의 위대한 수학자였던 알콰리즈미는 820년『이항


과 약분』이라는 수학서적을 집필하였고, 이 책은 16세기까지 유럽대학의
수학교과서로 사용되기도 했다. 알콰리즈미라는 그의 이름이 알고리즘으

7) 석왕헌・이광희(2015). 인공지능 기술과 산업의 가능성, Issue Report, 4,


한국전자통신연구원 ETRI 창의미래연구소
http://webcache.googleusercontent.com/search?q=cache:okR9qVoJhN4J:itsys.hansung
.ac.kr/cgi-bin/kplus/board/include/DOWNLOAD.php3%3Ftable%3Dlec_ai%26l%3D3-
163822%26inc%3Dlocal%26f%3Dfilelink+&cd=2&hl=ko&ct=clnk&gl=kr

8
로 사용되면서 알고리즘이란 용어의 유래는 인명에 기인한다. 표준국어대
사전에 알고리즘이란 “어떤 문제의 해결을 위하여, 입력된 자료를 토대로
원하는 출력을 유도해 내는 규칙의 집합. 여러 단계의 유한 집합으로 구
성되는데, 각 단계는 하나 또는 그 이상의 연산을 필요로 한다.”라고 정의
되어 있으며, 어떤 문제를 해결하기 위해 설계된 절차이자 방법이며, 순
서도나 수학공식, 자연어, 컴퓨터 프로그래밍 등으로 표현되기도 한다.8)
한국에선 알고리즘의 명확한 법적 정의 규정을 위해 2021년 지능정보화
기본법 개정안이 발의되기도 했다.9)
인공지능의 작동 기반에는 알고리즘이 있으며, 현대의 인간이 사용하는
컴퓨터, 스마트폰과 같은 전자기기 역시 인공지능 알고리즘을 토대로, 사
용 정보가 기록되며, 필요에 따라 전송되고 있다. 1930년대 영국의 수학
자이자 컴퓨터 분야 선구자인 앨런튜링(Alan Turing)10)은 알고리즘에 잠
재되어 있는 지능을 이해하고 있었다, 그는 불특정한 방법을 통해서 데이
터 저장소에 확실한 규칙들을 적용하면, 인간의 질문에 대답하는 일종의
컴퓨터와 같은 ‘신탁기계(oracle machine)’를 생각해냈다. 그는 계산 속도
나 처리데이터의 양에는 상한선이 없을 것이라 가정하며, 알고리즘 시스
템은 빠른 계산을 통해 대량고속처리능력이 가능하다고 생각했다. 실제로
현대에 와서 컴퓨터와 데이터베이스를 통한 시스템은 튜링이 상상했던 모
습을 실현해내고 있다(Nicholas Carr, 2014).
이렇게 알고리즘은 기술의 발전을 바탕으로 다양한 현실 문제를 수학적
사고로 해결하기 위해서 등장하기 시작했으며, 현재의 블록체인 기술에
이르기까지 진화를 계속 거듭하고 있다. (<표 3>참조)

8) IT트렌드연구회(2019), p27
9) 이 개정안에서 알고리즘이란 ‘어떤 문제의 해결 혹은 의사결정을 위하여 입력된 자료를
토대로 결론을 이끌어내는 연산 또는 논리의 집합’ 으로 정의되었다.
서진욱(2021,04,30) 알고리즘 법적 정의…<머니투데이>
https://news.mt.co.kr/mtview.php?no=2021043015293190793
10) 튜링은 인공지능을 두고, 인공지능과 대화하는 상대방이 상대가 사람인지 기계인지 구
분할 수 없을 때 테스트를 통과했다고 보는 인공지능 판별시스템 ‘튜링테스트’를
제안했다 출처:두산백과
https://terms.naver.com/entry.naver?docId=2718940&cid=40942&categoryId=32845

9
<표 3> 기술의 진화와 알고리즘 혁명 연표

기술의 진화 알고리즘의 혁명

농업혁명 BC4500

BC1700 (이집트) 린드파피루스

종이 AD105
263 (중국) 구장산술
820 (알콰리즈마) 대수학서적집필
1736 (레온하르트 오일러) 그래프이론
증기기관 1769
산업혁명 1784
1837 (찰스 베비지) 해석엔진설계
1843 (에이다 러브레이스) 베르누아 알고리즘
전화 1876
진공관 1904
반도체 1930
최초의 연산컴퓨터 콜로서스 1943 1943 (맥컬로지&피치) 인공신경망 개념
1948 (노비트 워너) 사이버네틱스 출간

프로그램 기억방식 계산기 1949

1950 (앨런튜링) 인공지능 개념


1956 (다트머스 컨퍼런스) 인공지능 용어 등장

1957 (프랭크 로젠블렛) 인공뉴런 퍼셉트론 개발

1960 (폴 베론) 패킷기반 인터넷 개념


1961 (에드워드 로렌츠) 나비효과 개념
인터넷원형 (ARPANET) 1969
1975 (베노이트 만델브로트) 프렉탈 구조

1976 (디피&헬만) 최초의 공개키 방식 알고리즘

PC 대중화 1983
인터넷 대중화 1990 1998 (브린&페이지) 페이지랭크 알고리즘
SNS 확산 2006 2006 (제프리 힌튼) 딥러닝 알고리즘
iPhone 판매 2007
2008 (사토시 나카모토) 블록체인 알고리즘
출처: IT트렌드연구회, 2019: 22

10
인공지능 알고리즘 시스템의 등장은 산업과 사회구조 전반에 걸쳐 변화
를 주도하고 있는데, 이는 ‘지능정보화’의 도래를 의미한다. 고도화된 정
보통신기술 인프라를 통해 수집된 데이터와 인공지능이 서로 결합하여,
경제와 사회 모든 분야에 보편적으로 활용된다, 데이터와 지식은 노동과
자본보다 중요해지며, 다양한 서비스 융합으로 산업 간의 경계가 붕괴되
어 지능화된 기계가 지적 노동에까지 확대되는 시대가 도래하고 있는 것
이다.11) 현대의 인공지능 알고리즘의 이용도와 그 가치가 점점 상승하는
이유도 마찬가지로 데이터가 존재하기 때문이다, 일상의 대부분을 인터넷
과 연결해 정보를 교류하고 탐색하는 시대적 상황은 알고리즘의 완성에
있어 절대적으로 필요한 방대한 데이터를 쉽게 수집할 수 있는 최적의 환
경을 제공했다. 이런 환경을 배경으로 인간의 삶에 적용되기 시작한 다양
한 형태의 인공지능 알고리즘은 세계 곳곳에서, 그 범위와 영역의 한계를
뛰어넘어 점차 광범위하게 활용되고 있는 상황이다. (<표 4>참조)

<표 4> 인공지능 알고리즘 관련 적용 사례

분류 기술명 활용사례

넷플릭스 시네매치 시청자의 선호도를 기반으로 콘텐츠 추천


문서의 연결구조로 중요도 평가
구글 페이지랭크
검색 노출 우선순위결정
시청자의 취향에 따른 동영상을
유튜브 린백
연속 재생
아마존 포캐스트 제품수요예측시스템
조회 수, 좋아요 수, 팔로워 수, 게시물
페이스북 추천 알고리즘
공유 수, 체류 시간에 따라 게시물 노출
홈디포,
크로노스검사 직원 채용 프로그램 인성적성검사
크로거등
OR
스타벅스 일정관리소프트웨어시스템
(Operationsresearch)

11) 정부 부처의 보고서 ‘지능정보화 사회’ 정의(2016), “제4차 산업혁명에 대응한


지능정보사회 중장기 종합대책”, 관계부처 합동.
file:///C:/Users/springjulia/Downloads/%EC%A7%80%EB%8A%A5%EC%A0%95%EB
%B3%B4%EC%82%AC%ED%9A%8C_%EC%A4%91%EC%9E%A5%EA%B8%B0_%
EC%A2%85%ED%95%A9%EB%8C%80%EC%B1%85566.pdf

11
SBSS
FICO (Small Business 소상공인 전용 신용평가모형
Scoring Service)
FitBit,애플와치 웰니스 기능 건강관리데이터 추적시스템
미국 워싱턴 IMPACT 교사평가기법(가치부가모형)
US
Education Rankings 전국대학순위모형
NEWS.COM
미국 사법기관 콤파스(COMPAS) 재범예측알고리즘, 재범 위험성 평가모형
뉴욕 경찰 컴스탯(Compstat) 범죄분석 및 예측프로그램
사용자 간의 거리정보를 바탕으로
네스트써모스탯 실내온도관리
온도정보제공
구글과 오픈AI의 텍스트생성
레플리카 인공지능 챗봇
딥러닝 알고리즘
판도라봇의
메타버스형 챗봇 메타버스 세계 아이돌 스타 캐릭터
쿠키
마이크로소프트
소셜 챗봇 사용자의 감성분석, 대화의 맥락에 반응
샤오아이스
취약계층의 건강을 위해
워봇 치료 챗봇
정서적 공감과 지지
출처: 문헌자료를 참고하여 정리

한편, 인공지능이 본격적으로 개발되고, 알고리즘이 활용되면서 예상치


못한 문제점과 이슈들이 나타나기 시작했다. 딥페이크와 같은 얼굴영상합
성기술을 이용하여 가짜 영상을 배포하거나, 편향된 데이터를 학습한 알
고리즘이 편향된 결론을 제공하여 사람들에게 편견을 세뇌시킬 가능성,
구글의 AI가 흑인을 인식하지 못하거나 고릴라로 인식하는 상황, 쇼핑센
터에 설치한 자율경비로봇이 아이에게 상해를 입히거나, 자율주행차의 사
고 등 정치, 경제, 사회 전반에 걸쳐 문제점이 드러났다.
(< 표 5 >참조)
이에 세계 각국은 인공지능 이슈에 관하여 가이드라인을 제공하기 시작
했다. 2020년 우리나라 과학기술정보통신부는 ‘국가 인공지능 윤리기준’
을 발표하면서, 윤리기준이 지향하는 최고의 가치를 인간성(Humanity)으
로 설정하고, 인간성을 위한 인공지능(AI for Humanity)을 토대로 3대
원칙과 10대 요건을 제시했다.12) 미국은 연방거래위원회에서 AI와 알고

12
리즘 이용에 대한 방침을 발표하였으며,13) EU는 ‘AI를 위한 윤리 지침
가이드라인’을 발표하였다.14) 이는 인공지능에 내포한 여러 가지 문제점
을 대비하기 위한 가이드라인으로서 인간의 편의를 위해 사용되는 기술이
인간의 권리를 침해하거나, 존엄성을 해치지 않도록 최소한의 지침을 제
공하여 인간과 기술이 공존해나가기 위한 개선방안이다.
이제, 데이터는 21세기 원유와도 같은 가치를 띄며, 이를 활용한 인공지
능 알고리즘, 그리고 고도의 자동화시스템은 앞으로도 지속적으로 우리사
회의 변화를 주도할 것이다. 그렇기에, 이에 따른 여러 가지 이슈들과 드
러나는 문제들에 대해서도 기민하게 반응하는 자세가 필요하다.

<표 5> 인공지능 윤리 이슈들


분류 사례

-얼굴영상합성기술을 이용한 초상권, 명예훼손,


딥페이크
음성합성기술을 이용한 보이스피싱

-편향된 데이터 학습을 통해 편향된 결론을 제공하여 세뇌가능성


세뇌
-가짜뉴스의 생성과 제공
인간존엄 -구글의 AI가 온도계를 들고 있는 흑인의 사진을 ‘총을 든 범
공공선 죄자’로 인식
개인의 -구글의 AI가 흑인을 고릴라로 인식
인종차별
행복 -마이크로소프트사의 챗봇 ‘테이’의 인종차별
-니콘 카메라, 아시아인의 찢어진 눈을 두고 눈을 감았다고 비아냥
-HP의 미디어스마트가 흑인의 얼굴을 트래킹하지 못함
-마이크로소프트사의 챗봇 ‘테이’의 여성 혐오
성별
-Bryson(2017)연구에서 여성은 인문직업, 남성은 이공계직업 편견

12) 3대 기본원칙: 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙
10대 핵심요건: 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성,
데이터 관리,책임성, 안전성, 투명성, 출처: 과기정통부, 사람이 중심이 되는「국가
인공지능윤리기준https://www.msit.go.kr/bbs/view.do?sCode=user&mId=113&mPid=
112&pageIndex=&bbsSeqNo=94&nttSeqNo=3179630&searchOpt=ALL&searchTxt
=
13) 미국연방거래위원회, FTC, ‘Using Artificial Intelligence and Algorithms’ (2020)
https://www.ftc.gov/business-guidance/blog/2020/04/using-artificial-
intelligence-algorithms
14) EU, ‘Ethics guidelines for trustworthy AI’ (2019)
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

13
정치 -중국 텐센트의 인공지능 챗봇의 공산당, 정치적 문제
-구글웨이모와 테슬라 자율주행차의 사고
사고
-쇼핑센터에서 경비로봇이 아이에게 상해를 입힘
-수니파 무장단체인 IS의 핵심 테러범을 킬러 로봇이 사살
안전성 공격 -2016년 6월 미국 텍사스주 댈러스에서 5명의 경찰관을
살해한 범인을 킬러로봇이 죽인 사건

중독 -인공지능 아바타의 게임중독

-이스라엘 벤구리온대학교 연구진 딥러닝을 이용한,


조작
의료영상조작실험결과
정보보호
-인공지능스피커 엿듣기
보안
-아마존 등에서 AI스피커의 대화 녹음 여부를 이용자가 설정 가능
출처: 인공지능 윤리이슈들 (한정혜·김종욱, 2021, p14)

제2절 인공지능 알고리즘 추천시스템

인공지능 알고리즘 추천시스템은 사용자 개인별로 스타일과 선호도를


파악하여 다양한 관점에서 예측가능한 선호도를 추출하고, 학습을 통해
개인 맞춤 서비스나 콘텐츠를 제공하는 것이다(Schafer, Konstan, and
Riedl, 2001). 추천시스템에 대한 연구는 크게 두 가지로 나눌 수 있는데,
첫째로 시스템 중심 접근(System-centric approaches)과 이용자 중심
접근(User-centric approaches)이다(황용석·김기태, 2019). 시스템 중심
접근방법은 가장 광범위하게 이뤄지는 연구 방법이며, 이용자들의 데이터
를 미리 수집하여, 추천시스템과 예측취향 데이터셋의 일치여부를 측정하
는 방법이다. 이용자 중심 접근방법은 인터페이스 상의 몇 가지 요소를
변경한 뒤, 각각 다른 추천 시스템을 이용자들로 하여금 사용하게 해, 설
문지를 이용 실제 사용경험을 측정하거나, 행동을 직접 관찰하는 방법으
로 이뤄진다(Herlocker et al., 2004; Cremonesi, Garzotto, & Turrin,
2013).
한편, 1989년 티머시 존 버너스 리(Timothy John Berners Lee)가 제
안한 월드와이드웹(world wide web, www)의 출현은 인터넷이 크게 활

14
성화되는 계기를 마련했다. 인터넷 상에 분산되어 있는 각종 정보들은 링
크로 연결되어 세계는 전지구화시대를 맞이하였고, 인터넷은 단순히 문자
뿐아니라, 음성, 화상, 영상 등 다양한 형태로 제공되어 사용의 편의성을
극대화 하였다. 정보 접근이 용이한 시대는 반대로 정보의 홍수시대 도래
와 맥을 같이하는데, 쏟아지는 정보로 인하여 사람들은 어느 순간 선택에
대해 좀처럼 결정을 내리지 못하는 ‘햄릿증후군’15)과도 같은 상황이 발생
하기 시작했다. 이런 상황은 ‘선택장애’16), ‘결정장애’17)와 같은 신조어를
탄생시켰으며, 이제 선택의 문제는 인간이 할 수 있는 고결하고 고유한
행위적 축복이라기 보단 정보의 홍수 속에서 누군가가 대신 선택해 주길
바라는 편의적 욕구를 포함한 형태로 그 특성이 변화되기 시작했다. 이러
한 시대적 흐름이 반영되어, 인터넷의 다양한 플랫폼기업들은 사용자가
수많은 선택지에서 선택해야하는 번거로움과 어려움을 이해하고, 이 문제
를 해결하기 위해 알고리즘을 이용한 추천시스템을 제공하기 시작했다.
2000년 ‘시네매치’라는 이름으로 세상에 나온 넷플릭스의 추천기술은 사
용자의 선호나 취향을 데이터로 읽어 다양한 콘텐츠를 제공하는 플랫폼
서비스였다. 넷플릭스는 2006년 개발자들을 상대로 ‘넷플릭스 프라이즈’
라는 대회를 열어 시네매치 알고리즘의 예측력을 뛰어넘는 추천기술을 만
드는 개발자에게 100만 달러를 주겠다고 선언했다. 넷플릭스는 48만 명
이상의 고객이 부여한 1억 개의 별 평점이 담긴 1만 8,000개 이상의 영
화가 담긴 데이터를 공개하였고, 전 세계 150여개국 2만개 이상의 팀이
답을 제출했다(강정우, 2020). 2009년 6월 벨코어 팀이 10.09% 향상된
추천기술을 선보여 우승을 거머쥐었고, 이 팀의 기술은 지금까지 넷플릭
스의 추천시스템의 기반이 되고 있다. 이 추천 기술의 양대 축은 ‘콘텐츠
기반 필터링’과 ‘협업 기반 필터링’이다. 콘텐츠 기반 필터링은 기준을 ‘콘
텐츠’로 두고 고객이 이미 시청한 영상을 중심으로 선호할 만한 영상을
예측하여 다음 콘텐츠를 노출시킨다. 협업기반 필터링은 기준을 ‘고객’으
로 두고, 고객의 나이와 성별, 선호하는 콘텐츠 분야 등 고객의 기본 정
보를 파악한 뒤, 이 고객과 비슷한 취향을 가질 것으로 예상되는 고객들

15) 햄릿증후군; 선택해야 하는 상황에서 쉽게 결정을 내리지 못하고, 미루거나 선택의 과정


에서 과도하게 시간을 소모하는 신조어, 출처: 국립국어원 우리말샘
16) 선택하지 못해 괴로워하는 심리를 뜻하는 신조어
17) 태도나 행동을 결정해야 할 때에 망설이기만 하고 결정을 내리지 못하는 신조어

15
을 하나의 집단으로 설정한다. 설정된 집단의 콘텐츠 이용 결과를 바탕으
로 다음 영상이 고객에게 추천된다.(<그림 1>참조) ‘넷플릭스 프라이즈’
대회에 참가한 벨코어 팀은 이 두 개의 추천기술을 혼용시켜 고객 특징과
영화 콘텐츠에 대한 분석을 보다 정밀하게 해석하는 ‘하이브리드 추천 시
스템’을 구성하는데, 큰 역할을 했다.

출처: Software carpentry, 과학기술정보통신부

<그림 1> 콘텐츠 기반 필터링과 협업 기반 필터링

추천시스템은 서비스 이용자의 선택을 돕고 동시에 기업의 이윤을 확대


하는 방향으로 설계되는데, 구매이력을 기반으로 한 쿠팡과 아마존의 쇼
핑목록추천, 시청한 영상을 바탕으로 한 유튜브나 넷플릭스의 개인 맞춤
영상 추천, 개인의 뉴스소비패턴 분석을 토대로 한 뉴스플랫폼기업의 관
심기사추천 등 그 활용범위가 날로 다양해지고 있다. 한 예로 유튜브에
접속하면, 메인화면에서부터 기존에 탐색했던 영상을 기반으로 개인 맞춤
추천 영상 리스트가 나타나고, 영상을 클릭한 뒤에는 자동재생형태로 추
천영상이 지속적으로 재생된다. 이는 알고리즘이 사용자의 방대한 데이터
를 토대로 재생영상을 분석하고, 개인의 취향에 맞는 영상을 다시 제시함
으로써 사용자의 시청시간을 늘린다. 사용자는 추천영상 속 제품을 구매
하거나 채널을 구독하는 형태로 순환되어, 기업은 이를 토대로 광고를 통
해 수익을 증대하게 된다.
쿠팡, 아마존과 같은 구매 서비스 플랫폼기업들은 사용자가 관심 있게
둘러본 상품들의 페이지 접속 정보를 토대로, 지속적으로 재구매를 유도
한다. 이는 접속을 종료한 이후에도, 컴퓨터에 남겨진 쿠키18)를 이용,

16
방금 전 클릭했던 상품이 기본 검색 페이지에 등장하거나 메일서비스를
통해 지속적으로 구매를 유도하는 추천시스템형태로 제공된다. 또한, 뉴
스 플랫폼 기업들은 미디어 수용자들이 뉴스기사를 클릭한 수를 데이터로
집계하여, 미디어 수용자의 관심도가 많은 뉴스를 검색페이지의 상위에
노출시키거나, 알고리즘을 이용, 관심기사를 추천해주는 서비스를 제공한
다. 플랫폼기업은 수용자의 관심도가 많은 뉴스페이지에 광고를 노출시
켜, 뉴스기사를 본 수용자들이 광고를 클릭할수록 수익을 올리는 구조를
만들었다. 즉, 광고노출빈도는 플랫폼기업과 광고기업에게 주요한 수익창
출시스템의 원천이 되었다. 한 예로, 구글애즈(Google ads)의 경우를 살
펴보면, 2022년도 기준으로 구글애즈는 광고를 집행하려는 기업에게 광
고 타깃 설정 페이지를 제공하는데, 첫 번째로는 위치기반, 두 번째로는
키워드 설정의 지정을 요청한다. 첫 번째, 위치기반 설정은 선택한 위치
에 실제로 거주하는 사용자나 해당 장소에 관심이 있는 사용자가 검색결
과 페이지나 기사를 읽으면, 해당 페이지에 광고를 게재하여 클릭을 유도
하도록 설정된다. 플랫폼기업은 광고기업이 광고를 적절한 사용자에게 노
출될 수 있도록 사용자의 정보를 수집·이용하며, 이는 플랫폼을 이용하는
사용자들의 기기설정과 동작, 위치정보 등 다양한 신호정보를 포함한다.
(<그림2, 3> 참조)

18) 쿠키: 특정한 사이트에 접속했을 때, 생성되는 정보를 담은 4KB이하의 임시파일을 말한


다. 가령, 한 사이트에 접속했을 때 아이디와 비밀번호를 기록한 쿠키가 만들어져, 다음
에 다시 접속했을 때는 복잡한 절차 없이 사이트에 빠르게 연결될 수 있도록 하는 임시
정보파일이다. 쿠키는 사용자가 인터넷에서 어떤 제품을 구매하고, 어떤 활동을 하는지
모든 정보를 기록하며, 온라인 광고업체들은 이런 사용자들의 쿠키를 수집·이용해 광고
전략을 짜는데 사용한다.
두산백과
ttps://terms.naver.com/entry.naver?docId=1179752&cid=40942&categoryId=32854

17
(2022년 기준)

<그림 2> 구글애즈 캠페인 위치 설정화면

(2022년 기준)

스마트 캠페인의 위치 설정
• 선택한 위치에 실제로 거주하는 사용자와 해당 위치에 관심을 보이는 사용자에게 광고가 게재
됩니다. 광고를 게재하지 않을 위치를 선택할 수도 있습니다.
• 위치 설정은 신중하게 선택해 주세요. 설정이 너무 광범위하면 잠재고객이 아닌 사용자와의
상호작용에 대해 비용이 발생할 수 있습니다.

주의사항
위치 타겟팅은 플랫폼에서 사용자의 설정, 기기, 동작 등 다양한 신호를 기반으로 하며 광고주의 위치 설
정을 충족하는 사용자에게 광고를 게재할 수 있도록 Google에서 마련한 기능입니다. 이러한 신호는 다양
하므로 모든 상황에서 100% 정확성이 보장되는 것은 아닙니다.
항상 그렇듯이, 전반적인 실적 측정항목을 확인하여 현재 설정으로 광고 목표를 달성하는지 확인하고 그에
따라 설정을 변경해야 합니다.

<그림 3> 구글애즈 캠페인 위치 설정 도움말 화면

두 번째로는 사용자가 검색창에 입력할 키워드에 따라 광고가 노출될


수 있도록 광고기업이 키워드를 설정하는데, 가령 의류제품을 판매하는
기업일 경우, ‘인터넷 쇼핑몰’, ‘여성의류 쇼핑몰’, ‘남성의류 쇼핑몰’과 같
은 키워드를 설정할 시, 사용자가 해당 키워드를 입력하면 해당 기업의
광고가 노출되는 형태로 제공된다. 이는 위치기반설정과 마찬가지로 플랫

18
폼기업의 서비스를 이용하는 사용자의 검색정보에 대한 수집과 이용을 기
반으로 제공되는 기능이다. 키워드까지 설정이 끝나면, 광고기업이 광고
비를 어떻게 책정하느냐에 따라 광고노출빈도가 결정되는데, 시스템에 설
정되어있는 알고리즘에 의해 광고기업이 하루에 사용하는 광고비를 늘리
면 늘릴수록, 플랫폼기업이 사용자에게 광고를 노출시키는 빈도도 같이
상승한다. 즉, 광고비는 곧 사용자의 클릭률을 예측하여 설계된다. 예를
들어, 하루 약 10만원의 광고비 설정은 2,980~4,510회의 클릭률을 예측
한다. (<그림4> 참조)

(2022년 기준)

<그림 4> 구글애즈 캠페인 금액 설정화면

또한, 구글애즈는 유튜브 동영상에 대한 광고도 집행하는데, 동영상 타


깃팅은 위치와 언어 설정뿐만 아니라, 사용자의 성별과 연령, 자녀유무,
관심분야까지도 세분화시켜 광고 노출의 설정이 가능하다. 이는 반대로,
플랫폼기업인 구글이 맞춤광고를 제공하기 위해, 플랫폼서비스를 이용하
는 사용자에 대한 개인적인 정보수집과 그 정보를 어떻게 사용하는지 여
실히 보여준다고 할 수 있다. (<그림5, 6> 참조)

19
(2022년 기준)

<그림 5> 구글애즈 유튜브 동영상 캠페인 성별, 연령, 자녀유무 상태 설정화면

(2022년 기준)

<그림 6> 구글애즈 유튜브 동영상 캠페인 관심분야 설정 화면

동영상 광고도 마찬가지로 광고비 액수에 따라 영상노출과 조회수에 영


향을 주도록 알고리즘이 설계되어있다, 예를 들어, 하루에 2,000원씩 광

20
고비를 사용하도록 설정했을 땐 1주당 1.1만~2.9만정도의 노출과
220~470건 정도의 조회수를 예측해 볼 수 있으며, (<그림7> 참조)

(광고비 일일예산 2,000원 /1일, 2022년 기준)

<그림 7> 구글애즈 유튜브 동영상 캠페인 금액 설정 화면

(광고비 일일예산 20,000원 /1일, 2022년 기준)

<그림 8> 구글애즈 유튜브 동영상 캠페인 금액 설정 화면

21
금액을 열배 늘려, 하루에 20,000원씩 광고비를 사용하도록 설정했을 땐,
1주당 9.6만~25만정도의 노출과 2천~4.7천 건 정도의 조회수를 예측해
볼 수 있도록 설정되어있다. (<그림8> 참조)
앞서 살펴본 바와 마찬가지로 플랫폼기업인 구글의 경우, 광고를 게재
하길 원할 시, 광고기업에 최적화된 형태의 설정페이지를 제공한다. 전혀
관련이 없는 사람들을 대상으로 광고하는 것이 아니라, 플랫폼사용자들의
활용 가능한 정보를 바탕으로 고객을 세분화시켜, 광고의 효율을 높일 수
있도록 알고리즘이 설계되어 있다. 사용자의 관심이 반영된 검색페이지나
기사에 대한 개인정보를 수집하고, 수집한 정보를 기반으로 맞춤광고를
제공하는 시스템은 구글과 같은 플랫폼기업이, 수익원천이 되는 광고수익
을 얻기 위해 사용자 정보를 어떻게 이용하고 제공하는지 여실히 보여주
는 하나의 예시가 될 수 있다.
인공지능 알고리즘 추천 시스템은 사용자의 빅데이터를 기반으로 선택
을 용이하게 하고, 맞춤이라는 특성상 편리성을 제공하지만, 동시에 사용
자의 개인정보를 수집하고 이용하는 문제, 더욱이 정보를 제공하는 사용
자가 알 수 없는 형태로 거래되고 그것이 기업의 직접적인 이윤추구에 있
다는 점에서 다양한 논의를 필요로 한다.

22
제3장 인공지능 알고리즘 추천시스템 미디어 보도

제1절 추천시스템의 미디어 보도 동향

1. 자료수집과 분석
이 연구는 인공지능 알고리즘 추천 시스템에 대한 미디어 보도 동향을
국내 일간지와 방송사 뉴스를 통해 살펴보고자 하였다. 보도량의 증가와
감소여부를 살펴보는 것은 해당 이슈에 대한 중요성을 보여주는 것으로,
특정 이슈나 사건에 관한 보도의 양을 조절함으로써 관련 이슈에 대한 관
심을 확대시키거나 감소시킬 수 있다(신승훈·정혁, 2009). 또한 이러한
논의를 통해 언론의 의제설정기능이 적절히 이뤄지고 있는지 유추해 볼
수 있다.
분석 대상이 되는 뉴스기사는 한국언론진흥재단에서 제공하는 뉴스 빅
데이터 분석서비스인 ‘빅카인즈’를 활용, 빅카인즈에서 제공하는 총 54개
의 언론사19)를 대상으로 진행하였으며, 주제어 검색을 통해 뉴스 보도의
현황을 살펴보았다.
분석기간은 2018년 1월 1일부터 2022년 5월 31일까지 보도된 뉴스로
선정하였다. 최근 5년간의 뉴스 키워드 검색을 통해 언론 보도량을 살펴
보며 키워드 트렌드와 뉴스 보도 성향의 거시적인 지형을 파악하고자 했
다.
연구 대상인 인공지능 알고리즘 추천시스템에 관한 뉴스의 검색어 처리
는 형태소분석을 이용하였으며, 제목 및 본문에 연구자가 키워드를 입력
하고, 그 키워드를 포함하고 있는 경우로 설정하였다. 이 연구에서 검색

19) <경향신문>, <국민일보>, <내일신문>, <동아일보>, <문화일보>, <서울신문>,


<세계일보>, <조선일보>, <중앙일보>, <한겨레>, <한국일보>, <매일경제><머니
투데이>, <서울경제>, <아시아경제>, <아주경제>, <파이낸셜뉴스>, <한국경제>,
<헤럴드경제>, <강원도민일보>, <강원일보>, <경기일보>, <경남도민일보>, <경남
신문>, <경상일보>, <경인일보>, <광주매일신문>, <광주일보> <국제신문>, <대
구일보>, <대전일보>, <매일신문>, <무등일보>, <부산일보> <영남일보>, <울산
매일>, <전남일보>, <전북도민일보>, <전북일보>, <제민일보>, <중도일보>, <중
부매일>, <중부일보>, <충북일보>, <충청일보>, <충청투데이>, <한라일보>,
<KBS>, <MBC>, <OBS>, <SBS>, <YTN>, <디지털타임스>, <전자신문>

23
어는 두 가지 관점에서 지정되었는데, 첫 번째로는 ‘인공지능 알고리즘’의
거시적인 관점에서의 언론 보도량을 살펴보기 위해 ‘인공지능’과 ‘알고리
즘’이라는 검색어를 각각 지정하여, 최근 5년간의 보도 트렌드를 살펴보
고자 하였다. 두 번째로는 인공지능 알고리즘의 세부시스템인 ‘알고리즘
추천시스템’, ‘알고리즘 추천서비스’ 등의 키워드를 포괄적으로 포함할 ‘알
고리즘 추천’이라는 검색어를 지정하여 알고리즘 추천시스템과 관련한 최
근 5년간의 언론 보도량을 살펴보고자 하였다. 거기에 알고리즘 추천시스
템에 내재된 여러 가지 기술적이고, 편리함을 강조한 유토피아적 관점 이
외에 의제설정자로서의 언론의 역할을 살펴보기 위하여 알고리즘 추천시
스템이 가져오는 안티유토피아적 관점의 대표적 키워드인 ‘알고리즘 편
향’이라는 검색어를 설정, 알고리즘 편향에 대한 보도량을 추가적으로 살
펴보고자 하였다. 이어 ‘알고리즘 추천’과 ‘알고리즘 편향’이라는 두 가지
검색키워드에 대한 상대적인 보도량의 비교를 제시하였다.
구체적으로 뉴스 기사 검색을 위해 사용된 4개의 검색어는 다음과 같
다. 1) 인공지능, 2) 알고리즘, 3) 알고리즘 추천, 4) 알고리즘 편향, 이
렇게 검색어를 입력해 언론보도 동향을 살펴보고자 했다.

2. 미디어 보도 동향의 분석 결과

1) ‘인공지능’과 ‘알고리즘’ 뉴스기사의 최근 5년간 보도 트렌드


‘인공지능’의 뉴스 기사건수는 2020년을 기점으로 점차 감소 추세에 있
었으며, ‘알고리즘’의 뉴스 기사 건수는 2019년을 기점으로 점차 감소 추
세에 있었다. 2022년도의 기사는 5월 31일까지로 상반기에 해당하는 기
사 검색결과임을 감안하더라도, ‘인공지능’과 ‘알고리즘’에 대한 보도경향
은 전반적으로 감소추세임을 확인할 수 있었다.
(<표 6>참조), (<그림 9>참조)

24
< 표 6 > ‘인공지능’, ‘알고리즘’ 검색키워드별 뉴스 보도 건수
(단위 : 건)

년도
2018 2019 2020 2021 2022* 계
검색어

인공지능 26463 36062 40653 34074 9237 146,489

알고리즘 31908 36035 26363 9907 4419 108,632

* 2022년도는 1월 1일 ~ 5월 31일까지의 기사 건 수

<그림9> ‘인공지능’과 ‘알고리즘’ 기사 보도 건수 변화

2) ‘알고리즘 추천’과 ‘알고리즘 편향’ 뉴스기사의 최근 5년간 보도 트렌드


‘알고리즘 추천’의 뉴스 기사 건수는 해당 연도 별로 몇 백건의 차이가
있기는 하였으나, 전반적으로 1,000건에서 2,000건 사이에 해당하는 보도
량을 나타내고 있었다. ‘알고리즘 편향’의 뉴스 기사 건수는 2021년도에
300건 이상의 보도를 기록한 사항을 제외하고, 전반적으로 200건 아래에
해당하는 보도량을 확인할 수 있었다.
(<표 7>참조), (<그림 10>참조)

25
< 표 7 > ‘알고리즘 추천’ ‘알고리즘 편향’ 검색키워드별 뉴스 보도 건수
(단위 : 건)

년도
2018 2019 2020 2021 2022* 계
검색어
알고리즘 추천 1168 1036 1414 1623 675 5,916

알고리즘 편향 124 144 195 310 134 907

* 2022년도는 1월 1일 ~ 5월 31일까지의 기사 건 수

<그림 10> ‘알고리즘 추천’과 ‘알고리즘 편향’ 기사 보도 건수 변화

‘알고리즘 추천’이라는 검색어를 포함한 총 뉴스기사 대비 ‘알고리즘 편


향’이라는 검색어를 포함한 총 뉴스기사를 대략적인 비율로 나타내면 아
래 <그림 11>과 같다.

26
(단위 : %)

<그림 11> ‘알고리즘 추천’과 ‘알고리즘 편향’ 검색어 기사 비율

‘알고리즘 추천 시스템’, ‘알고리즘 추천 서비스’ 등의 키워드를 포괄적


으로 포함하는 ‘알고리즘 추천’이라는 키워드는 뉴스 검색 결과 지난 5년
간 총 5,916건이 추출되었다. 그에 비해 ‘알고리즘 편향’에 대한 뉴스 검
색 결과는 지난 5년 간 총 907건에 그쳤다. ‘알고리즘 추천’과 관련된 기
사와 ‘알고리즘 편향’에 관련된 기사를 모두 더해 전체를 100%로 놓고
봤을 때, 알고리즘 편향에 대한 뉴스 보도는 전체 검색결과의 13%정도를
차지하고 있었다. 이는 언론이 의제설정자의 기능을 수행하면서 인공지능
알고리즘 추천서비스에 관해 기술적인 변화를 보도하는 양에 비해 ‘알고
리즘 편향’에 대해서는 상대적으로 적게 보도해왔다는 사실을 나타내고
있다. 미디어 수용자가 새로운 기술의 등장으로 수반되는 여러 가지 사회
적 변화를 이해하는데 있어, 기술에 대한 정보성 기사뿐만 아니라, 다양
한 관점이 들어간 보도를 접하는 것은 중요한 문제이다. 뉴스작성에 있어
중요한 위치를 차지하고 있는 언론이 한쪽의 관점만을 방대하게 싣는 다
면, 알고리즘 추천시스템 기술 자체에서 오는 편향문제를 배제하고서라도
의제설정자로서 기능하는 언론의 의무를 충분히 이행하고 있다고 보기 어
렵다.

27
제2절 미디어 보도의 주요 내용

주요 언론에 소개된 인공지능 알고리즘 추천시스템을 둘러싼 여러 문제


들은 사회적인 여러 논의들과 연결되어 표출된다. 이러한 담론들은 인간
의 삶과 사회를 구성하는데 있어서 중요한 개념으로 인식되고 있다. 바커
와 갈라신스키(Barker & Galasinski, 2001/2009)는 담론이란 사회 구성
원이 사회에서 대두되는 중요한 이슈나 안건에 대해 자신의 견해를 드러
내고, 이것이 다양한 논의를 거쳐 수렴되어 특정의미를 지닌 채, 특정 방
향을 지향하는 것으로 정의한다(정미정·백선기, 2011). 담론은 사회적인
기호로서 사회 및 정치적인 현상이다(정정호, 2004). 담론의 주요 구성요
소는 ‘사회 이슈’, ‘주요 안건’, ‘사회 구성원’, ‘발화’, ‘견해’, ‘참여’, ‘특정
의미’등을 들 수 있는데, 언론의 미디어 보도는 ‘발화’의 과정을 택함으로
써 담론의 질서에 대한 구성과 참여를 도모한다. 그렇기에 언론은 객관적
인 정보를 제공하며 사회적으로 이슈가 되는 중요한 사안에 대해 공론장
의 역할을 마련해야 하며, 공정한 논의가 이뤄질 수 있도록 보도에 신중
을 기해야 한다. 담론은 사회적 산물이기에 참여 구성원들의 의식이 담겨
있으며, 그들이 속해 있는 집단의 생각 또한 내재되어 있는 의식의 집합
체다. 즉, 담론은 수행하는 사람들의 관점이나 시각을 반영하게 되고 적
절한 언어나 기호의 형태로 표현되게 되며, 언론의 담론형성을 살펴보는
것은 한 사회에 적용되고 있는 의미화의 형성과정을 고찰해 볼 수 있게
한다(정미정·백선기, 2011).
주요 언론들에 소개된 알고리즘 추천시스템에 대한 주요 담론들의 특징
중 하나는 진화된 알고리즘 기술과 그 기술의 사용과 관련되어 형성된다
는 것이다. 새로운 알고리즘 기술이 출시되면, 기술이 가진 여러 기능적
인 소개를 포함하여, 사회에 가져올 편리한 변화에 대해 기대적인 관점의
담론들이 형성된다. “AI가 600만개 옷 중에서 ‘취향저격’ 찾아줘···첨단기
술을 입은 패션업계···고객 만족도가 높아질 것”(매일경제 2018. 12. 25),
“유통에서 기술 기업으로.. AI 챗봇 활용한 신세계 기술 혁신···고객들의
쇼핑 경험을 더욱 향상”(동아일보 2018. 11. 09), “결제·혜택·금융 등 '고
객의 라이프' 빅데이터 분석해 맞춤형 서비스”(조선일보, 2018. 11. 28),
“채용·목축·주행…AI 기술로 일상 바꾸는 스타트업···AI활용, 구직자를 위
해 지원”(아주경제, 2022. 05. 14) 이렇듯 알고리즘 기술이 새롭게 개발

28
되어 출시가 되면, 기술에 대한 기대심과 편리성에 대한 담론을 형성하면
서 고객에게 제공될 새로운 경험과 다가올 편리적 이익에 관심을 집중시
킨다.
인공지능 알고리즘을 내포한 모든 기술들은 세상에 출시 된 이후, 그
기술의 사용범위와 빈도 그리고 효율성에 따라 지속적으로 사용·유지되거
나 혹은 사라진다. 최근 들어 인공지능 알고리즘의 존립여부를 결정하는
가장 큰 요인으로는 알고리즘에 내재된 ‘차별적 관점’과 ‘편향적 관점’이
주요한 원인을 차지한다. “MS 채팅봇 '테이' 차별발언으로 16시간 만에
운영중단”(연합뉴스 2016. 03. 25), “네이버 뉴스 편집 중단···실시간 급
상승 검색어도 첫 화면 자동 노출 금지”(YTN 2018, 05. 09), “페이스북,
차별논란에 연령·성별 따른 타깃 광고 중단”(연합뉴스 2019. 03.20)과 같
은 기사에서 알 수 있듯이 알고리즘을 내포한 기술에 차별과 편향의 문제
가 내포되어 있으면 출시되자마자 사장되거나, 더 이상 사용할 수 없도록
중단된다. 산업적 논리에 따라, 기술의 출시는 편익과 이익에 먼저 집중
된 채 담론을 형성한다. 그러나, 일반적인 기계와 달리, 방대한 데이터 학
습과 딥러닝을 기반으로 한 알고리즘은 설계자나 학습데이터, 그리고 구
조적인 문제와 관련되어 차별과 편향을 학습할 가능성이 존재한다. 인공
지능 알고리즘에 대해 언론보도가 형성하고 있는 또 다른 담론은 사회에
내재된 차별과 편향에 대한 담론이다. 성별, 인종, 젠더와 관련한 차별 담
론은 기존 사회가 가진 문제로서 여전히 발생하는 주요 이슈이자 쟁점이
다. 인공지능 알고리즘에 의해 야기되는 차별의 담론 역시 기존 사회의
반영이며, 이에 대한 적절한 대처와 고찰 없이는 차별의 강화와 영속화에
기여할 수 있기에 사회의 빠른 대응을 요하는 부분이다. “AI 알고리즘이
만든 '확증편향', 생각의 시야를 좁힌다.”(매일신문 2019. 12. 20), “유튜
브서 정치뉴스 보는 고령층… ‘편향적 알고리즘’에 취약”(세계일보 2022.
01. 02), “가족 전화 거절 버튼… ‘내가 보고 싶은 세상’에 갇혀 산다.”(서
울신문, 2022. 01.03) 동영상 재생 서비스를 제공하는 플랫폼기업들은 자
사의 이익이 되는 광고수입을 위해 미디어 수용자들을 대상으로 적극적인
마케팅을 펼친다. 알고리즘 추천시스템은 이런 개인의 선호도를 예측하
여, 기업이윤을 기반으로 설계되었고, 맞춤동영상 재생이라는 새로운 기
술이 가져올 유토피아적 관점은 이내 확증편향의 우려가 담긴 담론을 형
성하게 되었다.

29
소셜미디어에서 자신과 비슷한 사람들끼리 서로 연결되어, 같은 생각이
공유되면, 그 의견과 생각은 메아리처럼 다시 되돌아와 개인의 확증편향
을 강화하게 된다. 미국 하버드대학교 로스쿨 교수이자 법학자인 캐스 선
스타인(Cass R. Sunstein)은 ‘반향실 효과’를 빗대어 소리가 외부로 새어
나가지 않은 채, 내부에서만 맴도는 메아리처럼, 폐쇄적인 공간에서 오는
개인의 확증편향을 두고 에코체임버 효과라고 칭했다. 개인이 선호하는
맞춤형 콘텐츠나 관점에 갇혀 다른 관점을 시야에 둘 기회를 잃거나, 알
고리즘에 의해 필터링된 정보만을 습득하고 소통한다면 점점 편향을 강화
하게 된다. 또한, 에코체임버에 갇힌 채 비슷한 관점에만 노출된다면, 자
신의 의견이 곧 다수의 의견이라 인식하게 되고, 편협한 사고를 보편적
사고로 확증하게 될 위험이 있다(조진형·김규정, 2022).
베이컨이 언급했던 동굴의 우상은 인간의 편협한 관점에 대한 비유였는
데, 마찬가지로 편향성의 우려를 고민했던 엘리프레이저(Eli Pariser)의
‘필터버블’의 정의와도 그 맥락을 같이한다. 프레이저는 그의 저서『생각
조종자들(The Filter Bubble)』에서 알고리즘 추천시스템으로 인해 사람
들은 온라인에서 정보를 얻는 방법이 근본적으로 변화되었다고 주장한다.
플랫폼 기업들이 선택한 알고리즘 정책으로 인해 사람들은 자신만의 틀에
갇힌 채 외톨이가 되며, 이유 없이 헤매고 떠밀리게 되는 상황이 발생되
었으며, 이를 필터버블이 가져오는 현상이라고 정의 내린다(Eli Pariser,
2011). 현대의 알고리즘 추천시스템으로 인해 개인이 비슷한 성향을 가
진 다수와 만나, 그들과 빈번한 상호작용을 통해 ‘그들만의 리그’를 형성
하고, 그들의 의견이 세상의 전부로 인식되는 착시현상이 발생되기도 한
다(김내훈, 2021). 온라인에서 작동되는 알고리즘 추천시스템은 개인이
무심코 남긴 데이터 흔적들을 수집해 무엇을 좋아하고, 무엇을 하려고 하
는지를 끊임없이 예측하고 추론한다. 그리고 개인에게 맞게 필터링 처리
된 정보는 다시 반복적으로 선택되고, 개인은 그렇게 필터링 처리된 정보
들로만 둘러싸여, 거품 속에 스스로를 가두게 된다. 마치 베이컨이 말한
동굴 속에서 자신의 각별한 선호를 바탕으로 정신이 지배당할 수 있는 위
험과도 유사한 형태인 것이다. 언론은 이 편향에 대한 담론을 통해 인공
지능 알고리즘 추천시스템에 내재된 양날의 검과 같은 특성을 기사화하여
보도한다. 자신과 생각이 같은 사람들에게만 둘러싸여, 의견을 확증하고
익숙한 세계에 머물며, 편향적 사고를 강화하는 행위는 올바른 민주사회

30
형성에 역효과를 가져온다. 확증편향의 강화는 사회를 둘로 나누고 분열
시킬 위험성이 내포되어 있으며, 잠재되어 있는 편견을 더욱 증폭시킬 수
도 있기 때문이다.
플랫폼기업의 이윤추구와 건전한 민주사회 형성이라는 두 길 사이에서,
정부의 인공지능 규제방침이 발표되고, 언론은 인공지능 알고리즘에 대한
규제 담론을 형성한다. “AI 오류로 손해 땐 누가 책임지나’…인공지능 규
제정비 로드맵 확정”(한겨레신문 2020. 12. 24), “APPA 포럼 폐막…‘개
인정보보호 원칙 지켜야’…규제환경 변화”(연합뉴스 2021. 06. 18), “또
앞서가는 EU의 AI 규제법안”(뉴스1 2021. 06. 11), 인공지능 알고리즘
시스템을 중심으로 발생되는 여러 차별의 사례, 기회의 불평등, 확증편향
문제 등이 점점 불거져 나오자, 사회는 블랙박스와도 같은 알고리즘 시스
템에 대한 사례연구와 규제, 정책적 대응의 필요성을 절감하기 시작했다.
유럽은 2016년 개인정보보호규정(General Data Protection Regulation,
Regulation (EU))법안을 만들어 알고리즘 규제를 적극적으로 제도권 안으
로 흡수시켰다. 다만, 이 법안은 개인 프라이버시에 관한 권리와 규제를
비롯한 개인정보처리에 관련된 것으로, 인공지능 알고리즘의 차별을 적극
적으로 다루진 않는다. 그러나 언론이 규제의 담론을 제시하고, 시민과
전문가들의 다양한 의견이 오고갈 수 있는 공론장의 역할을 담당한다면,
인공지능 알고리즘 시스템에 내재되어 있는 여러 딜레마를 해소할 가능성
이 보다 명확해 질 것이다.
이익을 추구하는 플랫폼기업의 알고리즘 추천시스템과 의제설정자인 언
론의 기능 사이에서 미디어 생태계는 근본적인 변화가 일어나고 있다. 언
론보도는 늘 새로운 뉴스를 만들어 내고 과거 게이트키핑의 역할은 이제
플랫폼기업이 제공하는 알고리즘 추천시스템이 그 자리를 대신한다. 사회
와 언론이 제시하는 담론들은 다양한 뉴스에 다양한 방식으로 접목되어
노출되지만, 텍스트 해석의 범위는 상호간의 의견 나눔과 소통 없이는 그
저 지면에 담긴 글자로서 자리할 뿐이다. 앞서 살펴본 언론 보도의 담론
들은 새로운 알고리즘 기술 출시에 대한 기대적인 관점에서부터 차별, 편
향의 우려, 규제의 목소리까지 다양하게 담아내고 있었다. 다만, 각각의
담론에 해당하는 보도량을 제각기 비교해 본다면, 기술에 대한 소개와 기
대심리, 새로운 경험이 제공할 편리한 관점에서의 보도 담론이 월등히 많
아, 알고리즘에 내재된 위험성과 편향적으로 사고하게 될 담론 역시 확대

31
되어야 할 필요성이 있었다. 더불어 최근 들어 정부 부처에서 개인정보관
련 지침을 정비하고, 플랫폼기업의 이익보다 다수의 선을 향한 규제 담론
이 형성되는 것은 건강한 민주사회를 위한 고무적인 변화이다.
인공지능 알고리즘 추천시스템의 장밋빛 미래에 대한 보도만큼, 플랫폼
기업의 이익에 좌지우지되며, 비밀리에 사용되는 개인데이터, 차별, 편향
의 가능성을 내포한 알고리즘의 민낯에 대해서도 언론이 비판적인 시각을
담아 좀 더 반복적으로 보도하지 않으면, 블랙박스와도 같은 알고리즘 특
성상 사람들의 편향적 사고를 강화시키는 것에 지휘권을 내어주게 되고,
그 지휘권은 영속적으로 강화될 수 있다는 것을 늘 견지해야 될 것이다.

32
제4장 인공지능 알고리즘 추천시스템의 딜레마

제4장에서는, 제3장에서 살펴본 보도동향과 보도내용을 포함, 사회에


형성되어 있는 담론과 다양한 논의가 담긴 문헌들을 참고하여 인공지능
알고리즘 추천시스템에 내재된 여러 가지 특성들을 찾아보고자 하였다.
인공지능 알고리즘 추천시스템이 우리에게 도움이 되는 기술인지 오히려
갈등을 조장하는 기술인지, 여러 가지 관점에 대한 다각적인 시선과 관찰
을 통해, 새로운 기술의 등장이 단순히 긍정적으로 그려지거나 유토피아
적인 관점만을 강조하고 있는 건 아닌지 그 이면에 대해 살펴보고자 한
다. 이를 통해, 인공지능 알고리즘이 갖는 사회문화적 가치와 통찰의 시
각을 얻는 계기를 마련하고자 한다.

제1절 기술 이용의 편리성 vs 개인프라이버시 침해

알고리즘 추천 시스템의 이용이 급격하게 높아진 이유 중 하나는 질 좋


은 데이터의 방대한 확보가 용이해진 환경에 기인한다. 대량으로 생산되
는 미디어 데이터에서 추천시스템과 같은 의사결정지원기술의 제공은 복
잡한 정보처리과정을 단순화 시켰다(W. Wang & I. Benbasat, 2016). 추
천시스템은 사용자와 관련된 콘텐츠를 개인화 시키고 다양한 정보를 제공
하여 사용자의 온라인 경험을 향상시키는 역할을 한다(유영하·최이슬·박
현진·이정훈, 2020). 개인화된 추천시스템은 사용자의 향상된 경험을 중
요시 하는 기업과 연결되면서 제품마케팅에 대해서도 새로운 기회를 만들
었으며, 사용자가 기업서비스를 이용하면서 최적의 선택을 할 수 있도록
도와주는 유익한 필터링 도구로 활용된다(Mouzhi Ge, F. Persia, 2019).
전 세계에서 가장 큰 구매 사이트를 운영하는 아마존20)의 경우, 같은
상품을 구매한 사람들이 관심 있어 하거나 이미 구매한 또 다른 상품들을
노출하는 간단한 알고리즘을 통해 유명해지기 시작했다. 구매자의 행동을
미리 예측하여 표시되는 구매목록의 추천은 내가 필요할 만한 상품을 미

20) 2020년 기준, 아마존 한해 매출은 3860억6400만 달러(한화로 436조원)로 미국 전자


상거래 시장에서 점유율 1위를 차지하고 있다.

33
리 제시하여 구매를 편리하게 만들고, 최적화된 사용자 경험은 동시에 기
업에 이익을 선사하는 윈윈전략의 알고리즘 구조를 만들었다. 또한, 제품
을 사용한 사람들의 평점과 리뷰를 추천시스템에 반영하여, 유용한 리뷰
를 통해 더 많은 사람들에게 구매기회를 제공하며, 유용한 리뷰를 접한
사용자들은 제품의 추천 성능을 더욱 높였다(LIU FAN. et al, 2022). 아
마존 알고리즘 추천시스템은 적시에 적합한 정보를 제공하고 노출시켜 사
용자에게는 이용의 편익을 제공하고, 기업에게는 이익을 제공한다.
넷플릭스 시네매치 알고리즘 시스템은 사용자가 시청한 시청목록과 같
은 데이터를 기반으로 내가 찾지 않아도 내가 좋아할 만한 콘텐츠를 자동
추천한다. 나를 잘 아는 누군가가 마치 개인 비서처럼 나의 다음 행동을
예측하고 나의 선호도를 파악하여, 사용자 경험을 향상시킨다. 추천시스
템은 기본적으로 새롭고 예상치 못한 것을 갑작스럽게 추천하기 보다는
우리의 기존 욕구에 맞춰 추천을 한다. 실제로 넷플릭스의 추천시스템은
이용만족도와 지속사용의도에 정적인 영향을 미친다(정용국·장위, 2020).
시스템은 우리의 행동을 분석하여, 우리에게 익숙한 형태로 예측 가능한
행동을 제시하는 것이다.21) 또한, 페이스북과 같은 소셜미디어에서 사용
되는 추천시스템은 게시글의 ‘좋아요’ 버튼을 통해 노출의 빈도가 결정되
기도 하며, 추천시스템을 사용하는 다른 플랫폼기업들보다 각 사용자 간
의 상호작용이 더욱 활발히 진행되기 때문에, 기업에서는 더 높은 사용자
만족도를 위해 과거보다 더 많은 사용자 데이터를 통합하려는 시도가 이
뤄지고 있다(M. Eirinaki, 2018).
한편, 알고리즘 추천 시스템은 데이터를 기반으로 작동되기에, 필연적
으로 사용자의 개인정보를 비롯한 검색내역과 데이터 수집을 요하게 된
다. 플랫폼서비스를 편리하게 이용하기 위해서는 개인정보의 수집 및 이
용에 동의해야 한다. 플랫폼기업이 제공하는 사이트를 탐색하면서 남겨진
사용자 데이터엔 개인 활동 정보들이 담겨 있으며, 기업들은 이 데이터
속에 담긴 고객에 대한 정보, 개인적 선호도와 심리를 알아내어, 고객의
만족과 기업 이윤의 확대를 위해 마케팅적인 측면에서 사용된다(구본권,
2014). 즉, 사용자가 온라인상에서 클릭하는 모든 정보들은 암묵적으로
마케팅에 사용되는 주요 공급원이 되는 것이다. 기업들은 이렇게 고객의

21) Nicholas Carr (2014), p304

34
정보를 파악해 맞춤형 서비스를 제공하는 것이 상호 간의 이익이 된다고
판단하였고, 사용자의 선호도가 반영된 상품이나 영상이 노출됨으로써 고
객들의 접속시간이 증대되어, 이를 바탕으로 이윤을 추구하게 되었다.
인터넷 세상에 남긴 선호도와 흔적들 그리고 패턴들에 의해 사람들은
선택되고 분류된다. 본 논문 제2장에서 살펴봤듯이 이런 세분화된 개인정
보는 합법적인 광고의 토대가 된다. 광고 노출은 꼭 필요한 상품을 소개
한다는 정보성 안내를 목적에 두지만 소외계층이나, 신용불량자들을 대상
으로 하는 약탈적 광고나 악질적인 광고도 있다. 구글애즈를 비롯하여,
대부분의 기업 플랫폼들은 광고를 노출하는 조건에 있어, 사람의 약한 심
리를 파고드는 약탈적 광고에 대한 구분을 하지 않는다. 즉 양이나 질이
냐 상관없이 광고비만 낸다면, ‘이만큼 노출시켜 사람들이 클릭을 할 수
있도록 도와줄게요.’라며 이익과 플랫폼 내 노출공간을 거래한다. 구글의
검색 상위에 노출되는 것은 사람들의 선호도가 반영된 콘텐츠가 될 수도
있지만, 막대한 광고비를 지불한 약탈적 광고회사들에 의해 상위노출을
점령당할 수도 있다. 이것이 문제가 되는 이유는 광고에 노출되는 취약계
층이 그런 취약성을 파고드는 또 다른 광고에 의해 빚이 재생산되거나 오
직 이윤만 추구하는 비양심적인 기업의 희생양이 될 수 있기 때문이다.
약탈적 광고 회사들은 고객의 무지를 타깃으로 하고, 그들의 낮은 자긍심
과 고통에 공감하는 척 감정에 호소하며, 선전물을 제공한다. 게다가 광
고를 게재할 플랫폼기업들이 알아서 세분화된 고객목록을 제공하니, 광고
타깃층을 선별하는 데도 용이하며, 취약계층을 대상으로 하는 약탈적 광
고 회사들은 그 자리를 당당히 차지하고 들어선다(Eli Pariser, 2011).
2016년 미 대선 당시 영국의 데이터 분석업체인 케임브리지 애널리티
카(Cambridge Analytica)는 페이스북 사용자들의 개인정보를 불법으로
수집한 이후, 선거 판가름에 중요한 영향을 미칠 중도층을 타깃으로 추천
알고리즘을 활용, ‘사기꾼 힐러리를 무찌르자’라는 광고에 노출시키거나,
각종 설문조사를 이용, 트럼프 캠프에 유리한 쪽으로 광고를 내보냈다.22)
뿐만 아니라, 케임브리지 애널리티카는 영국의 유럽연합탈퇴 즉, 브렉시
트(Britain+Exit)라는 초유의 사태에 페이스북 사용자의 개인정보를 불법
수집하여 브렉시트 부동층을 대상으로 허위광고를 내보냈다. 케임브리지

22) 류희준(2018.3.2.).페이스북 악용업체…<SBS>


https://news.sbs.co.kr/news/endPage.do?news_id=N1004675801&plink=ORI&cooper=NAVER

35
애널리티카는 데이터와 알고리즘을 이용하여 각 국의 정치적 자문 서비스
를 제공하였는데, 이때 불법으로 수집된 소셜미디어의 개인정보 데이터들
로 인하여, 페이스북 대표 마크 저커버그도 법정에 서게 되었으며, 케임
브리지 애널리티카는 결국 문을 닫게 되었다.23)
플랫폼기업은 서비스를 제공하는 대가로 얻은 고객 개인정보 데이터를
무한히 사용해도 되는지, 데이터에 대한 정보소유권은 어떤 범위로 어떻
게 사용되어야 하는지 논의가 필요하다. 사용자는 편리성을 위해 그에 상
응하는 대가적 의미인 개인정보데이터를 플랫폼기업에게 제공해야만 하는
강제적인 요건에 대해서도(제공하지 않으면, 서비스를 이용할 수 없는)재
고해 볼 문제이다. 이에 대해 영국의 컴퓨터 과학자인 티머시 존 버너스
리(Timothy John Berners Lee)는 2021년 데이터 주권 국제 포럼에서
“나의 데이터가 곧 나의 권리(My Data, My Right)”라 주장, “데이터 주
권시대 진입에 맞춰 개인정보 남용을 어떻게 보호하고, 데이터 산업의 촉
진을 위해 보다 구체적인 플랜을 수립해야 한다.”(전자신문 2021. 09.08)
고 데이터 주권에 대한 관점을 재확립시켰다. 개인정보환경을 둘러싸고,
개인과 플랫폼기업의 상호 간 관계를 놓고 살펴보면, 정보의 비대칭이 발
생하는 것을 알 수 있다(Eli Pariser, 2011). 앞서 언급했던 것처럼 우리
는 거대한 플랫폼기업들에게 개인 정보를 제공하고 있으며, 그 빈도는 점
점 늘어나고 있는 상황이다.
빅토어 마이어쇤베르거(VictorMayer-Schönberger)는 “권력이 없는 자
에게서 권력이 있는 자에게로 정보 권력이 재분배되고 있다”라고 언급했
는데, 정보 권력의 비대칭은 내가 상대를 아는 것보다, 상대가 나를 더
많이 알고 있을 수 있다는 의미이며, 그럼에도 내 정보가 어떻게 이용되
는지 또 누군가가 그 정보를 이용하는지 사용자는 도통 알 수가 없다. 볼
킨(J. Balkin)은 알고리즘이 처리하는 개인정보를 대상으로 정보수탁자
(information fiduciaries)라는 개념을 구상했다.24) 수탁자는 고객의 사무
를 위탁받고 처리하면서, 고객을 대신해 서비스를 제공한다. 그러나 수탁
자와 고객 사이에는 정보처리 능력과 지식 면에서 비대칭의 주요한 간극

23) 정혜진(2018.3.24.). 페이스북 정보활용…<서울경제>


https://www.sedaily.com/NewsView/ 1RX3RKREJ1
24) Jack M. Balkin, “Information Fiduciaries and the First Amendment”, U. C. Davis
Law Review 49(4), 2016, 1183~1234 .

36
이 발생하고, 고객은 수탁자가 무엇을 하고 있는지 구조상 쉽게 알 수가
없다. 따라서 수탁자에게 고객개인정보를 보호할 의무와, 임의로 정보에
해를 가하거나, 공개하지 못하도록 법을 적용함으로써 수탁자의 지위도
정보수탁자라고 명명, 고객정보에 대한 권리와 가치에 대해 재고하는 계
기를 마련했다(남중권, 2018).

제2절 다양한 추천 정보의 공유 vs 가짜뉴스 확산, 정보의 진위 여부

다수가 추천한 게시 글과 뉴스는 더욱 이슈가 되고, 소셜미디어를 통해


이뤄지는 시민들의 실시간 제보는 더 이상 정보가 권력기관의 전유물이
아닌 시민사회의 품으로 돌아왔다는 것을 의미한다. 인터넷의 연결은 집
단지성의 등장을 가능하게 했으며, 네이버 지식인과 같은 시민들의 자유
로운 의견 참여는 보다 신속하고 효율적으로 문제의 해결을 가능하게 했
다. 이제, 정보는 누구나 이용하고 또 직접 제공할 수 있게 되었다. 다양
한 플랫폼과 소셜미디어를 이용하여 정보는 생산되고 확산되고 있으며,
추천기능을 통해 이슈화가 되거나, 의사결정력에 도움을 준다. 또한, 상품
을 구매하거나, 처음 방문하게 되는 곳을 알아볼 때에, 이전 사용자의 후
기나 별점, 평가는 다음 사용자의 선택에 주요하게 활용된다. 텍스트로
된 후기의 내용이 자세하고 유용할수록, 후기는 사용자의 유용성 지각에
좋은 영향을 미친다(노민정, 2021). 또한, 다수가 추천을 누른 후기나, 별
점이 기록된 후기와 같은 정보들이 알고리즘에 의해 상위에 노출되거나
추천되면, 이런 시스템을 바탕으로 다음 사용자는 좀 더 쉽게 방문을 결
정할 수 있게 된다(안서원, 2021). 이렇게 현대사회는 일상생활에 필요한
정보의 상당부분을 온라인에서 신속하고 효율적으로 얻으며, 최적의 결정
을 내릴 수 있도록 서비스를 적극 활용한다. 이런 상황에서 추천시스템은
집단지성의 활용을 통해서도 더 나은 선택을 내릴 수 있도록 도움을 주
며, 더 많은 사람들에게 공유된 정보는 상위노출을 통해 자칫 묻혀버릴
수 있는 여러 문제들에 대해서도 공론화될 수 있는 주요한 기회를 제공한다.
한편, 소셜미디어의 추천기능을 통해 이슈화된 문제들은 종종 가짜뉴스
이거나 플랫폼기업의 이익창출을 위해서 상위에 노출되기도 한다. 2018
년 7월 인도 서부의 한마을에서 주민들에 의해 행인 다섯 명이 사망하는

37
사건이 일어났다. 마을 주민들은 왓츠앱이라는 메신저에 올라온 가짜뉴스
를 보고 행인들을 유괴범으로 오해, 집단 폭행을 감행했다.25) 인도의 마
을 주민들은 자신들의 메신저에 올라온 가짜뉴스를 확증 편향하여 진실을
혼동했으며, 그 결과는 돌이킬 수 없었다. 2021년에는 미국 대선에서 트
럼프의 지지자들이 의사당에 난입한 사건이 일어났다. 트럼프는 지지자들
을 향해 “여러분들이 지옥처럼 싸우지 않으면, 더 이상 조국은 없을 것이
다.”와 같은 발언을 소셜미디어를 활용해 선동했다. 지지자들은 시위현장
에 집결, 결국 의사당에 난입하여 집기를 부수는 일까지 감행했다. 트럼
프는 자신의 지지자들을 위해서 또는 자신의 입장을 표명하기 위해서 소
셜미디어의 ‘좋아요’나 ‘리트윗’ 등과 같은 추천 알고리즘을 활발하게 이
용했으며, 이 발언들은 정치적 논란을 일으켜, 트럼프의 페이스북과 트위
터 계정이 정지 당하는 사태가 발생하기도 했다. 워싱턴포스트는 2021년
1월 트럼프 계정이 정지된 다음날부터 일주일간 소셜미디어 콘텐츠를 분
석해 본 결과 가짜뉴스와도 같은 허위정보가 전주 대비 250만 건에서 68
만 8000건으로 급격히 줄었으며, 트럼프를 지지한 시위대의 의사당 난입
과 연결된 해시태크도 95%이상 감소했다며 소셜미디어 분석기업 ‘지그널
랩스’의 조사결과를 토대로 발표하였다.26) 한 국가 대통령의 중요한 정치
적 행보까지도 소셜미디어와 알고리즘 그리고 빅데이터가 개입한 시대가
도래 했다. 더욱이 이 추천알고리즘을 다루는 플랫폼기업의 이익과 위상
도 기하급수적으로 올라갔기에, 플랫폼기업이 지닌 막대한 데이터 정보와
그 데이터를 기반으로 형성되는 알고리즘 시스템에 대한 영향력도 재고해
봐야한다. 노출되는 게시물에 따른 정치적 편향의 위험성은 이제 단순한
문제를 넘어 권력과 합세해 사람들의 삶을 뒤바꿀 영향력을 행사하는 위
치에 까지 오게 되었으나, 그 견제 시스템은 아직 미비한 실정이다(Eli
Pariser, 2011). 과거에는 사회에서 발생하는 다양한 이슈들과 사건들을
신문과 라디오 그리고 TV라는 전통적인 매체를 통해서 소비했지만, 오늘
날은 급속도로 발전한 인터넷 기술의 영향으로 컴퓨터나 모바일과 같은
개인 디바이스를 통해 실시간으로 정보를 접한다. 전통적인 매체(TV, 신

25) 김영현(2019.02.14). 인도, 페이스북에…<연합뉴스>


https://www.yna.co.kr/view/AKR20190214120900077
26) 이은택(2021.01.18).트럼프 트윗 막자…<동아일보>
https://www.donga.com/news/Inter/article/all/20210117/104962860/1

38
문, 라디오)에서 뉴스를 생산할 때에는 게이트키핑27)이라는 최종 검수를
지나쳐야만 비로소 편집실을 통과한 뉴스가 세상에 빛을 볼 수가 있었다.
그러나 지금 온라인에서 만나는 뉴스는 게이트키핑의 과정의 생략을 거
쳐, 이슈성과 주목성, 신속성만을 고려한 채 자극적인 문구와 클릭을 유
도하는 제목, 그리고 편향적인 시선들로 채워져 제공되기도 한다. 가짜뉴
스의 확산문제는 곳곳에서 발생되고 있으며, 허위정보의 확산은 그 파급
력도 기하급수적으로 퍼지기에 플랫폼기업들의 빠른 대처가 필수적이다.
그러나 플랫폼기업은 다국적 기업들인 경우가 많고, 이에 따른 한계점이
드러나기도 한다. 방송인 A씨는 유튜브에 퍼진 허위정보가 진짜뉴스인
것처럼 엄청나게 퍼져가는 것을 보고, 유튜브에 해당 영상을 차단해줄 것
을 요청했다. 그러나 유튜브 측은 “검토하는 팀이 해외에 있어 시간이 걸
린다.”라며 기다려줄 것을 요청했다. 유튜브는 국내법의 적용을 받지 않
고, ‘유튜브 커뮤니티 가이드라인’에 따라 대응한다. 미국 현지 기준에 따
라 허위정보영상의 차단 및 명예훼손여부를 결정한다는 얘기다.28)
한편 허위정보는 구매 플랫폼에서도 나타나는데, 아마존의 2019년 니
혼게이자이신문의 한 기자는 아마존 구매사이트를 둘러보다가 명품이라며
올라온 상품들의 가격이 저렴한 것을 발견하게 되었다. 이 명품이 모조품
인지 진위 여부는 알 수 없는 상태에서 어느 것이나 정품이라며 소개하고
있는데, 표시가격은 원래 가격의 절반 또는 10분의 1이하로 표기되고 있
었다. 기자는 아마존에서 직접 구매하여 전문가의 검증을 받아보기로 했
다. 그 결과 구매한 제품들은 전부 모조품으로 판명되었다. 아마존 사이
트는 이런 모조품들을 ‘추천상품’이라는 표시로 제품을 띄우기까지 했다.
(아마존은 판매 상품 중에서 특히 추천하는 품목에 ‘아마존 초이스’ 마크
를 붙인다) 기자가 확인한 20개 이상의 모조품에 추천마크가 붙어 있었
다. 업자에게 연락하여 진위 여부에 대한 사실을 확인하고자 연락을 취했
으나, 등록된 업체의 정보 다수가 전화를 받지 않거나 없는 번호로 나오

27) 뉴스를 제작하는 미디어 조직 내에서 뉴스 결정권자가 뉴스를 선택하는 과정


출처: 두산백과
https://terms.naver.com/entry.naver?docId=3340074&cid=40942&categoryId=31752
28) 네이버와 카카오와 같은 국내 플랫폼 기업들은 정보통신망법 제44조 2항 '임시조치'
제도를 이용해 명예훼손이나, 허위정보에 대해 신속하게 대응하고 있다. 임시조치제도
는 30일 이내, 게시물에 블라인드 처리를 해 정보의 접근을 차단하는 피해 확산 방지
제도이다. 신찬옥·오대석(2019.08.21). 판정은 미국에서…<매일경제>
https://www.mk.co.kr/news/business/view/2019/08/649965/

39
는 등 거짓정보로 확인되었다. 기자는 아마존에 직접 이 문제에 대한 해
답을 얻고자 하였으나, 적극적인 해결을 기대하긴 어려웠다. 다만 반품절
차에 대한 신속성만 확인할 뿐이었다.29)
자극적이고 편향적인 콘텐츠의 제공, 가짜뉴스와 허위상품 검증시스템
미비와 같은 문제를 드러냄에도 불구하고, 플랫폼기업들에 대한 사회적
신뢰는 점점 중요한 위치에 올라서고 있다. 한국언론진흥재단 조사 결과,
2021년 이용자가 뉴스를 접하는 매체로 인터넷*이 43.8%를 기록, TV와
신문 라디오와 같은 전통적인 매체 이용률이 55.9%에 이른 점을 감안한
다면, 인터넷을 통한 뉴스소비도 점점 중요한 위치를 차지하고 있음을 확
인해 볼 수 있다.(<표 8 참조>) 그러나 여전히 미디어 수용자들은 자신
이 보고 읽는 이 콘텐츠가 어떤 알고리즘을 기반으로 자신에게 노출되었
는지, 알고리즘 추천시스템을 통한 선택이 수용자의 사고에 어떤 영향을
끼칠지 그 점에 대해선 알지 못한다. 플랫폼기업들 역시 편향적인 시각
과, 민주사회에 위협이 될 요소를 제공하고 있음에도 불구하고 가짜뉴스
와 정보의 진위 여부를 검토하는 시스템의 개발 부재와 광고 수익을 극대
화하는 맞춤형 알고리즘 추천시스템의 선택지를 쉽게 내려놓을 것으로 보
이지 않는다.

< 표 8 > 2021년 뉴스 및 시사정보 주이용 경로


(단위 : %)

인터 온라 메 이
인터
넷 인 종 신 용 뉴 인공
사례 넷 S 라 계
포털 동영 이 저 한 스 지능
수 TV 뉴스 N 디
/ 상 신 서 적 레 AI
(명) 사이 S 오
검색 플랫 문 비 없 터 스피커

엔진 폼 스 음


5010 53.9 35.9 5.0 1.4 1.1 1.0 0.9 0.5 0.3 0.0 0.0 100.0

*인터넷이용률(인터넷포털/검색엔진+온라인동영상플랫폼+인터넷뉴스사이트+SNS+메신저서비스)

출처: 한국언론진흥재단, 2021

29) 니혼게이자이신문 데이터경제취재반 (2020), p152

40
제3절 개별화된 맞춤 콘텐츠 추천 vs 정보 편향의 위험

최적의 알고리즘 추천시스템을 제공할 수 있도록 고객을 한 명씩 구분


하는 것은 곧 고객을 개별화하는 것이기도 하다.
개별화(individualization)는 분리(divide)하는 것으로부터 출발하여, 더 이
상 분리할 수 없을 때까지 분리했을 때, 비로소 개인(individual)만 남는
다(남중권, 2018). 개별화는 궁극적으로 ‘모든 면에서 자신과 딱 맞는 특
화된 세계’라는 비전을 제시한다. 특화된 세계는 자신이 좋아하는 사람과
생각들이 모여 있는 편안한 곳이다. 심심하지 않으며, 귀찮지도 않은 좋
아하는 것들로 가득한 세상이다(Eli Pariser, 2011). 플랫폼기업들은 개인
에게 최적화된 맞춤서비스를 제공하여, 플랫폼서비스를 지속적으로 이용
하게 하며, 사용자들은 자신에게 꼭 맞는 서비스를 이용하며, 익숙하면서
도 편리한 환경 속에서 만족감을 채우게 된다. 2010년 구글의 CEO 에릭
슈미트는 인스턴트 검색 서비스를 선보이면서 “내가 늘 만들고자 했던 것
은 내가 뭘 보고 싶어 하는지 예측하는 프로그램”이라고 언급했다. 구글
인스턴트는 사용자가 키보드를 누르는 순간 무엇을 원하는지 예측하는 시
스템이다. 구글의 개별화 전락은 단순히 정보의 빠른 검색이나 광고에만
국한 되지 않고 그 범위가 점차 확대되고 있다, 구글을 포함한 거의 대부
분의 온라인 웹사이트가 개별화를 진행하고 있으며, 이런 알고리즘 시스
템은 사용자의 행동을 예측하고 서비스를 제공해 사용자의 편익을 증대시
키고 있다(Eli Pariser, 2011).
일본 도쿄 시부야구에 있는 정보기술벤처기업 ‘센시’는 실제 사람의 구
매 이력과 같은 데이터를 학습해 소비자의 감정과 취향을 예측하고 해석
하는 인공지능 알고리즘 기반의 수요예측시스템을 보유하고 있다. “새로
출시된 회색 재킷이 20%할인이면 사시겠습니까?”라는 질문을 건네면, 수
천만 명이 답변하는 것처럼 보이지만, 정작 답변하는 것은 사람이 아니라
실존하는 인간 개개인의 소비이력데이터를 바탕으로 설계된 인공지능이
다. 기업에 제공되는 개별화된 데이터가 제품개발에 이용되어 사용자와
기업에 이익을 제공하는 시스템으로 ‘센시’의 인공지능은 1억 명 분에 달
하고 있다.30) 이런 시스템은 기업의 마케팅전략에 있어 최고의 효율을
제시한다. 사람들을 모아 답변을 듣는 절차의 생략과 더불어 비용의 절감

41
도 동시에 얻을 수 있다.
한편, 페이스북 CEO 마크 저커버그는 한 인터뷰에서 “여러분은 단 하
나의 정체성을 가집니다.”라고 발언 했다. 뒤이어, 페이스북 COO 셰릴 샌
드버그의 “사람들은 세상 모든 것에 관심을 두는 것을 원하지 않으며, 자
신들이 보기를 원하고 알기를 원하는 것들에 영향을 미치는 무언가를 원
한다.” 라고 발언 했다. 이 발언은 다시 말해 페이스북에서의 정체성은 하
나의 정체성으로 귀결되며, 그것은 곧 모든 공간에서의 경험을 집약적으
로 표현하게 될 것이라는 의미였다. 이는 각각의 개인적이고 사회적인 데
이터를 통합하여 단일화 플랫폼으로 정립하려는 야심찬 계획이었다. 그러
나 ‘하나의 정체성’으로 귀결되는 과정에서 수집되는 개개인의 수많은 클
릭과 공유데이터가 그 사람의 정체성을 고스란히 대변할 수 있는가에 대
한 근본적 의문이 생긴다. 심리학자들은 ‘하나의 정체성’을 가진다는 저커
버그의 생각을 ‘근본적 귀인오류’라고 명명했다(Eli Pariser, 2011). 사람
들이 세상 모든 것에 관심을 두는 것을 원하지 않는다고 해서 관심 있는
것들로만 노출시키려는 기업의 마케팅 논리는 위험한 문제를 야기할 수
있다. 동영상 플랫폼인 유튜브에서 사용자들은 자신의 마음에 드는 영상
이 있으면 ‘좋아요’를 누르거나 댓글, 공유를 통해 호감을 표시한다. 유튜
브는 이렇게 사용자가 남긴 데이터 속 개별화 정보를 바탕으로 사용자의
관심을 끌만한 영상을 맞춤 추천해 주고, 지속적으로 재생시키며, 유사
콘텐츠의 세상 속으로 끊임없이 안내한다. 이상호 경성대 교수는 “특정
사용자가 특정한 정치 성향을 담은 영상을 오래 보면, 유튜브 알고리즘은
이 사용자에게 유사한 영상을 계속 추천할 것”이라고 지적했다. 인공지능
알고리즘의 문제 중 하나는 사람들의 정치적 정체성에도 영향을 미친다는
점이다. 유튜브 정치 채널은 보수집단에 편향된 내용들로 제작된 영상들
을 중심으로 성장했으며, 보수성향이용자들이 편향된 콘텐츠에 선택적이
고 지속적으로 노출될수록 진보성향의 이용자들을 배척하고 보수 집단을
지지하는 태도가 점점 더 강화되는 경향을 보였다. 이들 영상은 주로 과
격한 용어를 사용하거나 감정적인 호소를 바탕으로 객관적 사실의 검증
없이 편향된 태도로 내용을 전달했고 감정을 자극하는 전달법은 보수 성
향 구성원들의 공감대를 형성해 정치적 양극화를 심화시켰다. 미디어 이

30) 니혼게이자이신문 데이터경제 취재반 (2019), p201

42
용자들이 가진 신념과 일치하는 콘텐츠가 감정적인 호소를 바탕으로 지속
적으로 선택될 때 이용자들의 정치적 정체성과 태도는 점점 고착화될 수
있으며, 이는 각 집단 간의 갈등을 심화시킬 수 있는 요인으로 작용된다
(함민정·이상우, 2021). 2019년 ‘유튜브의 정치편향성’ 관련 세미나에서
주정민 한국방송학회 회장은 “최근 조사결과에 따르면 10명 중 6명이 유
튜브에서 정보를 얻는다.” 라고 하며, “누구나 콘텐츠를 올릴 수 있어 편
리하지만, 정제되지 않은 콘텐츠로 인해 부작용도 커지고 있다.”라고 언급
했다.31) 개별화는 지금 현재 관점의 의견을 강화시키는 것과 새로운 관
점의 의견을 제공받는 것에 대하여 인지적 균형을 깨뜨릴 수 있다. 자신
에게 친숙한 의견만을 제공받는다면, 그 의견에 대해 지나친 확신을 가질
수 있으며, 타인의 의견이나 새로운 의견의 차단은 자극자체에 대한 제거
와도 같은 결과를 초래할 수 있다. 월터리프먼(Walter Lippmann)은 개별
화에 대해 이렇게 경고한다.

“신뢰할 수 있고 관련 있는 뉴스가 지속적으로 제공되지 않는다면,


민주주의에 대해 가장 날카로운 비판이라고 여겨져 온 모든 것이
사실이 될 것이다. 사실에 대한 확실한 접근을 하지 못하는 사람들에게
닥칠 일은 무능과 목표 상실, 타락과 배신, 공포와 궁극적인 재난뿐이다.”

페이스북에 노출되는 게시물이 모든 사람에게 똑같지 않다는 것은 페이


스북의 알고리즘을 누군가 조작한다고 해도 아무도 알 수 없다는 말과 같
다. 그래서 페이스북은 정치적인 도구로 활용될 가능성이 다분히 존재하
며, 실제로도 사용자들의 심리에 영향을 미칠 수 있다는 것이 실험으로
증명되었다. 2012년 연구자들은 페이스북에 올라오는 뉴스피드의 게시물
을 긍정적인 것과 부정적인 것으로 분류했다. 약 69만 명의 페이스북 사
용자들을 대상으로, 한 집단에는 부정적인 게시물을 노출시키고, 다른 한
집단에는 긍정적인 게시물을 노출시켰다. 이 후 서로 다른 게시물에 노출
된 사용자들이 자신의 페이스북에 어떠한 게시물을 업로드 했는지 살펴봤
더니, 긍정적인 게시물에 많이 노출된 사람들은 긍정적인 게시물을 많이
올렸고, 부정적인 게시물에 많이 노출된 사람들은 부정적인 게시물을 많

31) 이소라(2019,08,21) 가짜뉴스 진원지 유튜브…<아주경제>


https://www.ajunews.com/view/20190821155711859

43
이 올렸다. 조작된 게시물로 인해 각각의 사용자들은 감정의 변화를 실제
로 일으켰고, 자신도 모르는 사이에 누군가와 동일한 감정을 경험했다.
페이스북의 알고리즘 변화는 사용자의 감정에 까지도 영향을 준다는 결과
였다(Kramer. et al, 2014). 이는 추천시스템의 기술을 보유한 플랫폼 기
업들이 사용자에게 어떤 콘텐츠를 지속적으로 제시하느냐에 따라 사용자
의 심리 까지도 영향을 끼칠 수 있다는 의미를 내포한다.
세상과의 접점이 클릭의 시대가 되고, 더욱이 개별화를 바탕으로 알고
리즘 맞춤 시스템이 도래한 것은 많은 것을 변화시켰다. 사용자 입장에서
는 검색과정의 생략이 불러오는 편의성으로 인해 선택의 문제에서 자유롭
게 되었을지 모르나, 선택의 선택권을 빼앗긴, 아니 선택의 필요조차 느
끼지 못하게 된 최적의 개별화 시스템은 사용자의 관심사와 일치된 콘텐
츠를 ‘맞춤’이라는 이름아래 지속적으로 제공하고, 사용자들은 눈치 채지
못한 채 자신만의 공고한 세계 속으로 끊임없이 빠져들고 있다.

제4절 신속·효율적인 시스템 vs 복잡·불투명한 알고리즘 체계

인공지능 알고리즘 추천시스템은 인간을 대신하여 적절한 곳에 이용되


며, 신속하고, 효율적으로 작동하는 시스템이다. 인공지능 알고리즘은 감
정이 존재하지 않는 기계가 객관적인 수치들을 아무런 사심 없이 처리한
다. 알고리즘은 수학적 언어로 설계되어 객관성을 가정하기에, 투입과 산
출이 빠르고 정확한 프로그램이며, 인간과 달리 방대한 양의 데이터를 24
시간 처리해도 피로를 느끼지 않는다(Cathy O’Neil, 2016). 금융 산업의
동향이나, 시험 및 채용현장, 평가모형 등, 인간이 처리하면 발생할지 모
르는 누락, 편견, 사심 등을 배제해 공정하고 객관적인 결과를 얻을 수
있다. 밴 딕(van Dijck, 2013)은 알고리즘이 내재된 플랫폼에 대해 “플랫
폼은 사회적 활동을 컴퓨터 구조로 코딩을 진행하는 하드웨어 서비스”이
며, “플랫폼 소유주의 전략적 선택을 반영하고 디폴트 설정을 담은 이용
자 친화적 인터페이스”라 언급했다. 알고리즘은 인간의 편견이 배제될 수
있는 객관적이고 긍정적인 요소로서 이해된다. 즉, 기술의 복잡성과 불투
명성은 오히려 인간의 객관적 신뢰를 얻는 요소로 작동되고 있다. 이런
신뢰는 인간의 사심 없는 평등을 구현하는데 적합하다 여겨지며, 이를 기

44
반으로 현재도 다양한 산업에 알고리즘 기술이 적용되고 있다.
한편, 넷플릭스의 다큐멘터리 ‘알고리즘의 편견’32)에 등장하는 MIT 연
구원 조이 부올람위니는 안면 인식 소프트웨어 프로그램을 이용하다가 이
상한 점을 발견한다. 이 소프트웨어 프로그램은 흑인이었던 그녀의 얼굴
을 좀처럼 인식하지 못했던 것이다. 백인 남성의 얼굴을 기준으로 설계된
이 알고리즘은 프로그램 개발자의 편향을 그대로 이식했고, 프로그램은
수정을 진행했지만, 이미 백인남성만을 기준으로 삼은 알고리즘의 오류는
노출되고 말았다. 만약 그녀가 이 오류를 단순한 기기이상으로 생각했다
면, 편향성이 내재된 알고리즘은 여전히 베일에 싸여 있었을지 모를 만큼
알고리즘의 체계는 비밀스러운 블랙박스와 같다. 인공지능 알고리즘은 데
이터를 기반으로 학습을 통해 만들어졌기 때문에 그 내부적 체계가 거대
하고 복잡할 뿐만 아니라, 인간의 의사결정에 미치는 영향력을 제대로 예
측하기란 매우 어려운 현실이다. 그렇기에 알고리즘에 사용된 규칙을 발
견하거나, 설계단계나 학습데이터에 내재되어 있는 편향의 문제와 작동기
제의 불공정성을 밝혀내는 데에는 더더욱 어려움이 있다. 설계된 알고리
즘이 계산을 수행하는 과정에서 기존 패턴과 벗어나는 상황이 발생하는
특이한 경우에, 알고리즘은 어디서부터 문제를 찾아야 할지 모를 정도로
부정확한 계산결과를 도출해낼 수 있다. 이로 인해서 알고리즘 시스템의
의존도가 높은 헤지펀드와 증권사들이 과거 심각한 오류33)를 범하기도
했다(Nicholas Carr, 2014). 예를 들어 투자자들이 채권에 투자할 때, 부
실채권에 포함되어 있는 주택담보대출의 건전성에 대해서는 전혀 알 수가
없다. 이는 복잡한 알고리즘의 불투명성 때문이다(Cathy O’Neil,
2016)(p75). 알고리즘에 오류가 생겼을 때, 문제를 적시에 발견하기도
수정하기도 어렵다는 것은, 문제가 영속화될 위험이 있다는 것이며, 만약
알고리즘에 차별과 편향이 내재되어 있다면, 이는 또 다른 사회적 문제로
야기될 수 있다. 또한, 알고리즘이 가진 특별한 위험은 미래를 예측하기
위해서 과거 데이터에 의존하고, 오류에 기민하게 대처하기 어려운 구조
라는 것이다. 그렇기에 수학적 논리를 기반으로 사고한다는 점은 오히려

32) Shalini Kantayya(Producer).(2020). Coded Bias. [documentary].


33) 월가의 대표적 투자은행인 리먼브라더스가 모기지 주택 담보 투자를 통해 수익을 올리
다가 지나친 차입금과 위험성이 높은 주택담보대출을 제대로 관리하지 못한 채, 주택가
격의 하락으로 2008년 9월 파산하게 된 것. 출처: 한경경제용어사전
https://terms.naver.com/entry.naver?docId=2065804&cid=50305&categoryId=50305

45
자동화에 대한 치명적인 편향에 빠져들 수 있다. 빅토르마이어 쇤베르거
와 케네스쿠키어는『빅테이터가 만드는 세상 Big Data』에서 말한다.

“우리는 무엇인가가 잘못됐다는 걸 의심할 수 있는 합리적인 근거를


갖고 있을 때조차 아무생각 없이 우리가 실시한 분석 결과를
무작정 따르거나, 또는 사실로 받아들이기 힘든 데이터를 어느 정도
사실로 인정해버리는 위험에 빠진다.”

알고리즘 시스템은 여러 가지 뛰어난 장점이 있으나, 동시에 부족함을


가지고 있다. 샤피아 우모자 노블 역시 그의 저서『구글은 어떻게 여성을
차별 하는가』를 통해 알고리즘의 불투명에 대해 언급한다. 그녀는 세계
최대 검색엔진인 구글을 대상으로 키워드 검색을 실시하였고, 가령 ‘직장
에서 적절하지 못한 헤어스타일’을 검색했을 땐 모두 흑인 여성의 머리스
타일이 나타났고, 반대로 ‘직장인의 헤어스타일’로 검색했을 때는 모두 백
인여성이 등장하는 결과를 얻었다(Safiya Umija Noble, 2018). 이처럼,
알고리즘은 설계단계에서 이미 편향성을 내재하고 증진시키도록 설계된
시스템인 경우가 있다(허유선, 2018). 첫째로, 소외된 계층이나, 역사적으
로 차별적 대우를 받았던 사례에 대한 고려 없이 설계한 매칭시스템은 차
별적 결과를 가져온다. 둘째로, 개별화를 바탕으로 설계된 개인맞춤추천
서비스는 사용자의 선택을 협소하게 만든다. 셋째로 알고리즘을 기반으로
한 의사결정시스템이 상관요소들과의 관계를 필연적으로 가정할 때 알고
리즘 시스템은 편향의 오류나 차별을 강화하는 요소로 재현될 수 있다.
예를 들어 범죄율과 가계의 소득수준이 서로 일부 관계있는 요소일 수는
있으나, 필연적인 관계로 볼 수는 없을 것이다. 그러나 이 문제에 대한
고려 없이 설계된 알고리즘은 차별과 불합리함을 양산할 수 있으며, 궁극
적으로 문제가 드러나지 않는 한 영속화될 수 있는 속성을 가지고 있
다.34) 구글이 적용하는 검색알고리즘은 어떤 이유에서 위와 같은 결과를
얻게 되었는가에 대해 일일이 답변하지 않는다. 다만 수많은 상위 노출의
검색결과는 왜곡된 시선을 담거나, 차별적 결과를 드러내기도 한다. 그저

34) Executive Office of the President, “Big Data: A Report on Algorithmic Systems,
Opportunity, and Civil Rights”, 2016.05,
https://obamawhitehouse.archives.gov/sites/default/files/microsites/ostp/2016_0504_d
ata_discrimination.pdf

46
기업이익을 위해 노출되기로 결정할 뿐이다. 그렇기에 알고리즘의 불투명
한 검색체계시스템 내 각종 의사결정 모델은 편향된 사고와 시스템 오류
가능성과 같은 여러 가지 취약성을 지니고 있다. 닛케이BP가 운영하는
‘닛케이크로스테크’와 니혼게이자이신문 취재반은 일본을 대표하는 대기
업 113곳을 대상으로 인공지능에 관해 공동조사를 실시했다. 73%에 해
당하는 기업이 ‘인공지능 알고리즘 기술은 내부의 체계가 복잡해서, 판단
근거를 제시하기가 어렵다.’ ‘판단이 블랙박스화 된다.’ ‘인공지능 알고리
즘 학습과정을 거쳐 나온 최종출력물에 대해 알고리즘 설계자도 어떻게
그런 결과를 얻었는지 설명하지 못한다.’ ‘경영의 범위에 있어 어디까지
인공지능에 맡길지 고민’한다고 응답했다.35) 이처럼 알고리즘은 객관성과
신뢰를 가지고 있는 동시에 복잡하고 불투명한 특성으로 인하여, 오히려
블랙박스화 될 수 있는 우려와 드러나지 않은 문제에 대한 영속화 우려도
가지고 있다.

35) 니혼게이자이신문 데이터경제취재반 (2019), p128

47
제5장 결론 및 논의

제1절 연구결과의 해석 및 논의

본 연구는 인공지능 알고리즘 추천시스템에 대한 미디어보도 동향과 미


디어보도내용, 사회에 형성되어 있는 담론과 다양한 논의가 담긴 문헌들
을 참고해 인공지능 알고리즘 추천시스템에 내재된 여러 가지 특성과 딜
레마에 대해 탐색해 보고자 하였다. 그에 앞서 인공지능 알고리즘과 추천
시스템에 대한 개념을 살펴보며 플랫폼기업 서비스를 이용하기 위해, 제
공한 개인 데이터 정보가 어떻게 세분화되어 플랫폼기업의 수익원천이 되
고 광고기업에 이용되고 있는지 살펴보았다. 이를 통해 개인정보는 광고
기업이 플랫폼 상 광고를 하기 위해, 노출 타깃 설정, 유효한 클릭 수 확
보와 같은 표적광고를 위해 주요하게 사용되고 있음을 확인해 볼 수 있었
다.
다음으로 인공지능 알고리즘 추천서비스에 대한 미디어 보도 동향과 내
용을 살펴보고자 하였다. 인공지능 알고리즘에 대한 최근 5년간 미디어보
도 동향은 점차 감소추세에 있었다. 거시적인 개념인 ‘인공지능’에 대한
총 기사 건수는 146,489건이었으며, ‘알고리즘’에 대한 총 기사 건수는
108,632건으로 나타났다. 다음으로, 알고리즘 추천시스템과 알고리즘 편
향에 관련된 최근 5년간의 기사 건수 검색결과 ‘알고리즘 추천’에 대한
총 기사 건수는 5,916건이었으며, ‘알고리즘 편향’에 대한 총 기사 건수는
907건으로 나타나 현저한 차이가 있음을 알 수 있었다.
인공지능 알고리즘 추천시스템과 관련되어 의제설정자 역할을 하는 언
론의 보도내용은 새로운 기술의 출시가 가져오는 편리한 변화의 기대감이
반영된 내용이 주를 이뤘다. 또한, 알고리즘은 특성상 스스로 학습하며
진화를 거듭하기에, 알고리즘 기술의 사용이 민주사회에 편향을 가져오거
나 위협이 되는 이슈가 발생했을 때, 그 사실이 언론에 보도되어 공론화
되고 있었다. 인공지능 알고리즘 시스템으로 인해 사회적 변화에 대응하
고, 문제 해결을 위하여 알고리즘 기술의 규제와 같은 기사도 살펴볼 수
있었다. 다만, 알고리즘 추천시스템의 정보성기사 보도 건수와 알고리즘
의 편향에 대한 보도 건수가 현저히 차이나는 것과 마찬가지로, 민주사회

48
에 위협이 될 수 있는 알고리즘 편향 및 차별과 같은 이면에 대한 보도도
확대되어 언론이 가진 의제 설정자로서의 기능을 보다 충실히 이행해야
할 필요가 있음을 확인해 볼 수 있었다.
국내 미디어 보도 동향과 내용을 포함하여, 다양한 논의가 담긴 문헌들
을 살펴본 결과, 인공지능 알고리즘 추천시스템에 내재된 딜레마들을 확
인할 수 있었다.
첫째, 사용자의 선호도가 반영된 영상콘텐츠의 자동 재생과 이미 구매
한 제품정보를 기반으로 한 구매목록 추천과 같은 알고리즘 기술의 편리
한 서비스는 사용자 경험을 향상시켜 선택을 용이하게 한다. 그렇지만,
플랫폼이 제공하는 추천서비스의 이용을 위해서 사용자는 필연적으로 플
랫폼기업에게 개인 정보 제공에 대한 동의를 진행해야 하며, 그렇게 수집
된 개인 데이터는 사용자 본인도 인지하지 못한 채, 기업의 이익이나 광
고에 사용되기도 한다. 더욱이 그 범위나 한계가 구체화되어 있지 않아
개인정보가 남용될 수 있는 위험이 있다. 즉, 무분별한 데이터 수집으로
인한 개인프라이버시 침해가 발생될 위험이 있는 것이다.
둘째, 다양한 추천정보가 공유되어 집단지성의 이익이 제공되나 가짜뉴
스의 확산과 정보 진위 여부에 대한 판단의 어려움이 있다. 다수의 추천
을 받은 콘텐츠는 노출이 우선 시 되어, 이슈의 공론화와 시민사회에 정
보의 권력이 이양되는 긍정적인 효과가 있다. 하지만, 숨은 의도를 가진
허위정보에 대한 진위 여부를 밝히거나, 가짜뉴스의 이슈화에 대한 확산
통제의 어려움도 동시에 가지고 있다.
셋째, 개별화된 맞춤콘텐츠 제공으로 개인에게 최적화된 정보를 제공하
지만, 제공된 정보에만 둘러싸일 수 있는 편향의 위험이 동시에 존재한
다. 개인의 선호도가 반영된 지나친 개별화는 편향성을 가져올 수 있다.
알고리즘 추천시스템은 지속적인 시청을 유도하고 관심을 끌기위해 끊임
없이 개인의 행동을 미리 예측하고, 사용자의 심리에 대해 연구한다. 알
고리즘 시스템에 내재된 차별과 편향의 관점은 정치와 민주사회에 위협이
되는 주요한 요소이기에 플랫폼 기업의 이익을 위해 제공되는 기술에 내
재된 확증편향의 위험은 늘 경계해야 한다.
넷째, 알고리즘 추천시스템은 신속하고 효율적이며 객관적인 시스템이지
만, 동시에 복잡하고 불투명한 수학적 언어로 설계되어 설계단계가 공정
한지, 차별과 편향이 내재되어 있지는 않은지 문제를 밝히기도, 해결하기

49
도 좀처럼 쉽지 않다. 인공지능 알고리즘은 수학적인 언어로 설계되어 인
간의 사심이나 편견이 배제되었으리라는 객관성을 가정하여, 모두에게 공
정하고 공평하게 적용될 거라 예상한다. 그러나 만약 알고리즘에 설계자
의 편향이 들어가거나, 오류가 발생하면, 불투명성으로 인해 그 문제의
원인을 찾거나 쉽게 수정하기가 어렵다. 더욱이 문제가 수면위로 드러나
지 않는다면, 알고리즘에 내재된 차별과 편향은 영속화될 위험이 있다.
인공지능 알고리즘 기술은 그 편리한 기술적 요소만큼이나 편향성과 같
은 우려 요소도 내포하고 있었다. 더욱이 개인정보를 비롯하여 온라인상
에 남게 되는 개인의 수많은 흔적들이 수집되고 이용되며, 거래된다. 그
럼에도, 현재로서는 그 정보에 대한 소유권을 주장하거나 어디에 사용되
었는지 사용처를 알기에도 요원한 상황이다. 쇼샤나 주보프(Shoshana
Zuboff)는 저서『감시자본주의시대』에서 이렇게 말한다.

“우리는 디지털 자본이 제조하고 조작하는 생동시장의 객체로 전락한다.


우리가 남긴 디지털 발자국과 디지털 빵부스러기들은
요새화된 디지털 테크에 의해 행동예측상품으로 둔갑한다.
그 행동에서 파생된 지식에 대한 접근권도, 통제권도 거부당한다.
디지털 수탈인. 우리는 우리 경험의 지도를 스스로 그릴 권리를 박탈당한,
‘인간이라는 천연자원’에 불과하게 된다.”

알고리즘의 설계단계에서는 차별의 대상이 될지 모를 위험과 편향의 내


용을 인지하기 어렵다. 심지어 알고리즘 시스템이 출시되고 나서야 문제
를 인지하거나, 그마저도 모른 채 지나가고 만다. 2021년 페이스북 인공
지능은 흑인이 있는 동영상을 본 사용자에게 ‘영장류’에 관한 동영상을
추천, 계속 시청할 것인지 묻는 문구를 띄워 논란이 되었다. 페이스북은
과거 소셜미디어에서 발생했던 차별적 논란이 재차 문제가 되지 않도록,
4만여 개의 방대한 데이터 시스템을 설정하고 조명에 의해 달라지는 피
부색 인식 작업까지 거쳤지만, 그럼에도 불구하고, 인공지능의 편향이 담
긴 알고리즘의 문제는 끝내 해결하지 못한 채 또 다시 드러내고 말았
다.36)

36) 최수진(2021.09.06.).흑인이 영장류?… <한국경제>


https://www.hankyung.com/it/article/2021090650187

50
알고리즘 시스템에 내재된 편향의 위험성을 지속적으로 드러내고 공론
화 하지 않는다면, 사회는 점점 둘로 나뉘게 되고 ‘그들만의 리그’, ‘동굴
속의 그림자’만 사실로 믿게 되는 아찔한 순간을 맞이할지 모른다. 알고
리즘은 한번 설계되면, 인종, 나이, 성별, 종교 등과 관련 없이 대부분의
사람들에게 획일적이고, 광범위하게 적용되어, 결과치가 점수화로 나타나
거나, 구체적인 구분 사유를 알지 못한 채 등급화 되거나, 표적화될 수
있다. 수학적 논리를 기반으로 설계되었다는 객관성이 눈을 가리기에, 설
계단계에서 반영되었을지 모를 편향성에 대한 문제와 심각한 오류가 드러
나지 않으면, 알고리즘은 빠른 속도로 사람들을 데이터화해 처리한다. 그
렇기에 알고리즘에 드러난 차별과 혐오가 지속적으로 문제가 되고 있고,
손상된 학습데이터에 앞서 차별과 혐오문제는 기존사회에서 나타나는 오
랜 담론으로 형성되어 있기에 그 문제의 뿌리도 깊다. 어쩌면 인공지능
알고리즘에 드러난 차별과 혐오문제는 아직 해결하지 못한 사회의 해묵은
숙제를 드러내고 있다고 볼 수 있다. 기존사회에서 명확히 해결하지 못한
차별의 문제가 수학적 설계를 만나면 그 파급력과 피해는 걷잡을 수 없기
에 알고리즘 설계단계에서 공정성은 반드시 필요한 사회적 가치로 대두되
고 있다. 공정성은 기존사회에 존재하는 인종, 성별, 젠더, 계급과 같은
사회문제가 알고리즘 설계자나 알고리즘 학습데이터에 의해 반영될 위험
을 경계한다. 플랫폼기업의 이윤추구를 위한 비도덕적 행위, 약탈적 광고,
차별의 양산 등 발생할 수 있는 문제에 대해 규제적 관점에서 이용되는
요소인 것이다. 과연 알고리즘은 공정한가에 대한 문제에 있어 캐시오닐
(Cathy O’Neil)은 수학적 모형과 관련해서 모형을 누가 만들었는지, 그리
고 개발자가 수학적 모형을 통해, 성취하려는 목표가 무엇인지 알아야 한
다고 의견을 제시했다. 오닐은 알고리즘 모형에 대해, 설계단계에서 대개
개발자의 목표와 가치관, 이념이 반영되며, 설계된 모형들은 수학에 깊이
뿌리내린 지극히 개인적인 의견이라고 주장했다.
그럼에도 다행인 것은 각국은 인공지능 알고리즘이 지닌 여러 가지 윤
리적 문제, 딜레마, 편향의 문제를 인지하고, 시민과 전문가들을 대상으로
공론화하기 시작했으며, 규제가이드나 법안을 마련하는 움직임이 나타나
고 있기 때문이다. 유럽 연합 집행위원회(European Commission)는 거대
플랫폼기업을 규제하기 위해 디지털시장법(Digital Market Act, DMA)
및 디지털서비스법(Digital Services Act, DSA)을 입법 하려 하고 있으

51
며, 이르면 2023년 시행될 예정이다.37) 디지털시장법(DMA)은 디지털
시장에 지배적인 영향을 주는 플랫폼 기업들이 시장경쟁에 미칠 부정적인
영향을 방지하고 공정한 중개자로서의 역할을 위해 의무를 부여하는 법이
다. 특히 플랫폼기업을 게이트키퍼38)로 지정하여 특별히 규제하는 법안
이다. 디지털서비스법(DSA)은 게이트키퍼 기업을 제외한 일반 온라인 플
랫폼기업 및 중개업체의 책임 및 의무사항을 기재해 소비자와 비즈니스사
용자의 권리와 자율성을 강조하는 법안이다.
또한 알고리즘의 불투명성 때문에 오히려 알고리즘은 투명성이 보장되
어야 한다며, AI 알고리즘에 관한 미국 백악관 보고서에도 알고리즘 설계
에 대해 최소한의 투명성과 알고리즘이 산출한 결과가 지속적으로 검사되
어야 한다는 내용이 담겼다.39) 알고리즘의 투명성에 대한 요구는 알고리
즘이 보유한 특성에 대해 기본적으로 ‘블랙박스화’하지 않을 노력과 책임
의 문제임을 다룬다(허유선, 2018). 알고리즘 내부의 의사결정 시스템을
공개하는 것은 기업의 이익과 관련된 문제일지 모르나, 알고리즘의 투명
성을 향한 노력은 지속되어야할 것이다.
엘리프레이저는 저서『생각조종자들(Filter Bubble)』에서 1973년 닉슨
행정부가 만든 ‘공정한 정보 사용 규칙’40)을 언급하며, 개인정보 통제권

37)윤웅희(2022.05.09).EU디지털시장법도입…<코트라 해외시장뉴스>
https://dream.kotra.or.kr/kotranews/cms/news/actionKotraBoardDetail.do?SITE_NO
=3&MENU_ID=410&CONTENTS_NO=1&bbsGbn=242&bbsSn=242&pNttSn=194213
38) 게이트키퍼 기업의 의무 사항과 금지 사항자료 : EU 집행위원회 (2022.03.24)
의무사항
· 제3자 서비스와 게이트키퍼 플랫폼 간 상호 운용 허용
· 비즈니스 사용자가 생산한 IoT 데이터에 접근 허용
· 비즈니스 사용자의 플랫폼 외부 사업 홍보 및 계약 허용
· 해당 플랫폼 이용 광고 업체에 해당 광고업체에 필요한 광고 수행 및 검증자료 제공
금지사항
· 게이트키퍼 자체 제공 서비스 우선순위 부여 금지
· 소비자가 플랫폼 외부 링크로 연결 방지 금지
· 사전 설치된 비필수 소프트웨어 제거 방지 설정 금지
· 타깃 광고를 위해 사용자 동의 없이 서비스 외부 정보 추적 금지
39) 미국연방거래위원회, FTC, ‘Using Artificial Intelligence and Algorithms’ (2020)
https://www.ftc.gov/business-guidance/blog/2020/04/using-artificial-intelligence-al
gorithms
40) 1973년 미국의 닉슨 행정부의 주택, 교육, 복지부가 만든 ‘공정한 정보사용규칙‘, 엘리
프레이저(2011),p327

52
을 사용자에게 되돌려주고, 개인의 행동과 기업의 책임 그리고 정부의 규
제가 결합한다면 미디어의 방향을 바꿀 수 있다고 주장한다.
본 연구자는 알고리즘 추천시스템에 대한 미디어 보도와 다양한 문헌검
토를 통해 알고리즘에 내재된 여러 딜레마적 요인을 살펴볼 수 있었다.
알고리즘 추천시스템은 분명 인간에게 유익을 주며, 신속하고 효율적인
기술이다. 다만, 편리한 이용을 위해 제공되어야만 하는 개인정보데이터
가 기업의 손에 무분별하게 사용되지 않도록 그 범위가 분명히 제한되어
야 하며, 정보 이용 시, 당사자에게 그 내역이 투명하게 공개되어야 하는
것은 물론, 데이터 사용에 대한 거부권도 행사할 수 있어야 한다.
또한, 추천서비스를 통한 집단지성의 긍정적인 면을 확대하려면, 반대로
가짜뉴스나 허위 정보의 진위 여부를 신속하게 확인할 수 있는 시스템이
나 규제, 검증 기관이 있어야 한다. 새로운 정보가 등장했을 때, 누구나
정보에 대한 검증을 요청하고, 허위정보를 즉각 신고할 수 있으며, 정보
에 대한 진실여부를 확인할 수 있어야 한다. 더불어 가짜뉴스의 급격한
확산을 막기 위한 플랫폼 기업의 자체적인 방지시스템이 구현되어 허위정
보로 인해 피해를 입는 누군가가 없도록 해야 할 것이다.
다음으로, 맞춤콘텐츠의 제공은 시청지속시간을 늘려 기업에 이익이 될
수 있으나, 장기적으로 미디어 수용자에게 편향된 시각을 제공하여 민주
시민사회에 악영향을 미칠 우려가 있기에, 정기적으로 맞춤 알고리즘을
뒤섞거나 재설정, 해지하는 등의 방법을 통해 미디어 수용자가 다양한 관
점에 노출될 수 있도록 한다. 마지막으로 알고리즘의 설계단계에서 들어
갈지 모를 편향과 오류에 대해서 알고리즘 설계자의 관점을 명확히 하고,
그들이 만들 기술이 사회에 미칠 영향력에 대한 인식을 강화시킨다. 또
한, 차별과 편향의 오류를 점검하기 위한 알고리즘 사전검토기구나 인증
기관 등을 설치하여, 기술이 인간의 권리를 침해하지 않도록, 잘 어우러
져 성장하는 사회가 되어야 할 것이다.
기술과 사회가 주도하는 변화 속에서 인공지능 알고리즘 시스템의 정
치경제학은 어떻게 움직이고 있는지, 플랫폼기업들의 자유는 반대로 시민

·누구나 자신의 개인 정보를 누가 가졌는지, 어떤 데이터를 가졌는지, 어떻게 사용되는지 알아야 한다.
·누구나 어떤 목적을 위해 수집된 자신의 정보가 다른 목적으로 사용되는 것을 막을 수
있어야 한다. ·누구나 자신에 대한 부정확한 정보를 수정할 수 있어야 한다.
·모든 데이터는 안전해야 한다.

53
권의 약화를 불러오는지, 통제와 자율성, 공정과 편익 중에서 어떤 것을
대의로 두어야 할지, 다양한 관점에 대해 충분한 공론화와 논의를 통해서
해답을 찾아가야 할 것이다. 주지할 것은, 건전한 민주 시민사회를 이루
는 것은 다양한 시민들이 다양한 의견을 자유롭게 서로 소통하며, 공론화
하는 자리에서 그 근본적인 힘이 생기며, 풍요로운 사회를 형성하는 기반
이 된다는 사실이다.

제2절 연구의 한계 및 제언

본 연구는 기술의 발달로 인해 사회 각 분야에서 적용이 확대되고 있는


인공지능 알고리즘 추천시스템에 대하여 살펴보고자 하였으나, 다음과 같
은 몇 가지 한계점이 있음을 밝힌다. 먼저 최근 5년간의 보도 자료만을
대상으로 분석하였기에 분석 대상의 범위가 제한적이다. 또한 분석에 사
용된 키워드에 대한 한계점이 존재한다. 키워드 검색의 경우, 추출되는
데이터 이외에 키워드로 지정되지 않은 관련기사는 제외되므로, 연구를
일반화 하는 데는 어려움이 있다.
다음으로 본 연구는 인공지능 알고리즘 추천시스템이라는 보도 내용에
있어 언론이 얼마나 보도하고 있는지 기사 건 수 중심으로 의제설정의 기
능을 살펴봤기 때문에 심층적인 분석은 이뤄지지 못했음을 밝힌다. 더불
어 보도의 주요내용을 포함한 선행연구, 문헌검토를 통해 인공지능 알고
리즘 추천시스템의 딜레마 요인을 살펴보았으나, 이 역시도 연구자 본인
의 한계점이 존재한다.
따라서 후속연구에서는 인공지능 알고리즘 추천시스템의 딜레마를 구성
하는 세부적인 요인들의 추출과 요인들 간의 상관관계와 심도 있는 정의
와 분석이 이뤄졌으면 한다. 또한, 미디어 보도동향을 살펴보는 과정에서
언론의 주요 의제설정자들의 심층 분석을 통해 더 깊고 다양한 논의들이
이뤄졌으면 한다.

54
참고문헌

강명현, & Myung-Hyun Kang. (2021). 유튜브는 확증편향을 강화하는


가? : 유튜브의 정치적 이용과 효과에 관한 연구. 한국소통학보,
20(4), 261–288.

김인식 (In-sik Kim), & 김자미 (JaMee Kim). (2021). 유튜브 알고리
즘과 확증편향. 한국컴퓨터교육학회 학술발표대회논문집, 25(1(A)),
71–74.

남중권. (2018). 머신러닝 알고리즘과 차별.

노민정 (Minjung Roh). (2021). 리뷰의 품질이 리뷰의 유용성에 미치는


영향: 리뷰 별점의 조절효과를 중심으로. 디지털콘텐츠학회논문지,
22(6), 999–1007.

석왕헌・이광희 (2015). 인공지능 기술과 산업의 가능성, Issue Report,


4, 한국전자통신연구원. ETRI 창의미래연구소

설민수 (Min Soo Seul). (2016). 머신러닝 인공지능의 법 분야 적용의


현재와 미래. 저스티스, 269–302.

손현주 (Son Hyeonju). (2019). 인공지능 거버넌스와 민주주의의 미래.


사회사상과 문화, 22(2), 305.

신유진 (Yoo Jin Shin), & 이상우 (Sang Woo Lee). (2021). 텍스트 마
이닝 기법을 이용한 유튜브 추천 알고리즘의 필터버블 현상 분석. 한
국콘텐츠학회논문지, 21(5), 1–10.

신승훈・정혁 (2009). 내용분석을 통한 양적연구방법을 통한 체육학 연구


실태. <체육연구>, 제5권 제2호, 33-42

신혜선. (2018). 알고리즘 기반 개인화 추천뉴스의 수용과 지속사용의사에


영향을 미치는 요인에 관한 연구 : 네이버 ‘나만의 에어스’를 중심으로.

55
안서원 A. S. (2021). 구매 여정에서 나타나는 고객 평점과 후기의 영향.
마케팅연구, 36(4), 135–155.

양종모. (2017). 인공지능 알고리즘의 편향성, 불투명성이 법적 의사결정


에 미치는 영향 및 규율 방안. 법조, 66(3), 60–105.

오세욱 (Se Wook Oh). (2016). 미디어로서의 봇(bot). 한국언론정보학


보, 79, 70–103.

오요한 O. Y., & 홍성욱 H. S. (2018). 인공지능 알고리즘은 사람을 차


별하는가? 과학기술학연구, 18(3), 153–215.

유영하, 최이슬, 박현진, 이정훈.(2020).추천시스템 사용에서 개인화-프


라이버시-투명성이 사용자 신뢰에 미치는 영향 연구 : 소셜미디어 영
상추천을 중심으로.한국디지털콘텐츠학회 논문지,21(1),173-184.

이정엽.(2021).재난과 영광 : 코로나19 팬데믹의 뉴스 미디어 담론과 ‘선


진국 한국’의 국가 상상.한국언론정보학보,110(),9-48.

이희옥, & Lee, H. O. (2021). 저널리즘에서 인공지능 활용과 기본권 보


호. 미디어와 인격권, 7(1), 153–191.

LIU FAN, 이병현 (Byunghyun Lee), 최일영 (Ilyoung Choi), 정재호


(Jaeho Jeong), & 김재경 (Jaekyeong Kim). (2022). E-커머스
사용자의 평점과 리뷰 유용성이 상품 추천 시스템의 성능 향상에 미치는
영향 분석. 지능정보연구, 28(1), 311–328.

정용국, & 장위. (2020). 구독형 Ott 서비스 특성이 이용자 만족과 지속
사용 의도에 미치는 영향: 넷플릭스 이용자를 대상으로. 한국콘텐츠학회
논문지, 20(12), 123–135.

전준영 (Junyong Jun), 황소윤 (Soyoun Hwang), & 윤영미 (Youngmi


Yoon). (2018). 개인화 알고리즘으로 필터 버블이 형성되는 과정에 대
한 검증. 멀티미디어학회논문지, 21(3), 369–381.

56
정미정 (Mi-Joung Joung), & 백선기 (Seon-Gi Baek). (2011).
한국신문의 영화에 관한 보도담론의 특징과 의미. 한국언론학보,
55(3), 28–53.

정원섭 J. W.-S. (2020). 인공지능 알고리즘의 편향성과 공정성. 인간·


환경·미래, 25, 55–73.

정정호 (2004). 언어, 담론, 그리고 교육 - 전지구화 복합문화시대의 비


판적 언어교육을 위한 예비적 논의. 국어교육.

조진형, & 김규정. (2022). 소셜미디어에서 에코챔버에 의한 필터버블


현상 개선 방안 연구. 한국콘텐츠학회 논문지, 22(5), 56–66.

허유선, & Heo, E.-S. (2018). 인공지능에 의한 차별과 그 책임 논의를


위한 예비적 고찰 - 알고리즘의 편향성 학습과 인간 행위자를 중심으
로. 한국여성철학, 29, 165–210.

황용석, 김기태.(2019).개인화 서비스 진전에 따른 자동추천 시스템 연구


동향과 방법론적 특성 연구.사이버커뮤니케이션학보,36(2),221-253.

한정혜, 김종욱. (2021). 인공지능 스피커의 교육적 활용에서의 윤리적


딜레마. 창의정보문화연구, 7(1), 11-19.

함민정 (Minjeong Ham), & 이상우 (Sang Woo Lee). (2021). 유튜브
정치동영상의 선택적 노출과 정치적 태도극화: 정치성향별 내집단 의식
의 매개효과 검증. 한국콘텐츠학회논문지, 21(5), 157–169.

Applications. Data mining and knowledge discovery, 5(1-2),


115-153.

Cremonesi, P., Garzotto, F., & Turrin, R. (2013, September).


User-centric vs. system-centric evaluation of recommender
systems. In IFIP Conference on Human-Computer Interaction (pp.
334-351). Springer, Berlin, Heidelberg.

Daniel J. Solove, The Digital Person: Technology and Privacy in the


Information Age, New York University Press, 2004, p. 49.

57
E. W. Ayaburi, “Effect of penitence on social media trust and privacy
concerns: The case of Facebook”, International Journal of
Information Management, Vol. 50, pp.171-181, 2020

Harry Surden, “Machine Learning and law”, 89 Wash. L. Rev.


87(2014),

Herlocker, J. L., Konstan, J. A., Terveen, L. G., & Riedl,


J. T. (2004). Evaluating collaborative filtering recommender
systems. ACM Transactions on Information Systems (TOIS),
22(1), 5-53.

Kramer, A. D. I., Guillory, J. E., & Hancock, J. T. (2014).


Experimental evidence of massive-scale emotional contagion
through social networks. Proceedings of the National Academy of
Sciences of the United States of America, 111(24), 8788–8790.

Mouzhi Ge, F. Persia, “Factoring Personalization in Social Media


Recommendations”, IEEE 13th International Conference on Semantic
Computing (ICSC), Newport Beach, 2019

M. Eirinaki, “Recommender Systems for Large-Scale Social


Networks: A review of challenges and solutions”, Future Generation
Computer Systems, 78, pp. 413-418, 2018

Schafer, J. B., Konstan, J. A., & Riedl, J. (2001).


E-commerce recommendation applications. Data mining and
knowledge discovery, 5(1-2), 115-153.

Dijck, J. van, & Poell, T. (2013). Understanding social media logic.

W. Wang & I. Benbasat, “Empirical Assessment of Alternative


Designs for Enhancing Different Types of Trusting Beliefs in
Online Recommendation Agents”,Volume 33, pp. 744-775, 2016

58
<단행본>

구본권, 당신을 공유하시겠습니까, 어크로스 (2014)

강정우, 디즈니와 넷플릭스 디지털 혁신의 비밀, DX코드, 시크릿하우스


(2020)

김재철, 미디어다양성 가치, 커뮤니케이션북스 (2021)

김익현, 페이스북과 저널리즘, 커뮤니케이션북스 (2011)

김의중, 알고리즘으로 배우는 인공지능, 머신러닝, 딥러닝 입문, 위키북


스 (2016) p22.

김내훈, 프로보커터, 서해문집 (2021)

그레이엄 머독(Graham Murdock) 디지털시대와 미디어 공공성 나남


(2011)

니콜라스 카(Nicholas Carr), 생각을 통제하는 거대한 힘 유리감옥,


한국경제신문 (2014)

니혼게이자이신문 데이터경제취재반, 데이터 프라이버시, 머스트리드북


(2020)

사피야 우모자 노블(Safiya Umoja Noble), 구글은 어떻게 여성을 차별


하는가(Algorithms of oppression), 한스미디어(2018)

닉 보스트롬(Nick Bostrom), 슈퍼인텔리전스, 경로, 위험,


전략(Superintelligence: Paths Dangers Strategies), 까치(2017)

Barker, C., & Galasinski, D. 『문화연구와 담론분석: 언어와 정체성에


대한 담화(Cultural Studies and Discourse Analysis) 백선기 역
커뮤니케이션북스 (2009)

쇼샤나 주보프(Shoshana Zuboff) 감시자본주의시대(The age of


surveillance capitalism, 문학사상(2019),

59
IT트렌드연구회, 보이지 않는 힘, 세상을 지배하는 알고리즘, 심포지아
(2019), p27

엘리프레이저(Eli Pariser), 생각조종자들(The Filter Bubble, 알키(2011)

이경미, 웰컴투 인공지능, 서사원(2021)

이재원, 알고리듬과 저널리즘, 커뮤니케이션북스(2011)

캐시오닐(Cathy O’Neil), 대량살상 수학무기(Weapons of Math


Destruction), 흐름출판(2016)

프랜시스 베이컨(Francis Bacon), 신기관, 돋을새김 (2014)

플라톤(Plato), 국가론, 돋을새김, (2014)

해나프레이(Hannah Fry), 안녕, 인간, 미래엔와이즈베리, (2019)

<온라인 참고문헌 및 기사>

강인효(2016.03.27). 인공지능 한계 드러낸 MS 채팅봇 ‘테이’...


<조선비즈> https://news.v.daum.net/v/20160327202303856

강일용(2016.11.29). 인공지능과 구글의 만남 <IT 동아>


http://it.donga.com/25531/

강일용(2018, 11, 09). 유통에서 기술 기업으로… <동아일보>


https://bizn.donga.com/3/all/20181109/92802268/1

고석태(2018, 11, 28). ‘고객의 라이프 빅데이터 분석해… <조선일보>


https://www.chosun.com/site/data/html_dir/2018/11/27/20181127
01653.html

60
김성태(2021.06.21.), “AI 알고리즘의 딜레마...‘선택의 역설’vs‘에코챔버’·
‘필터버블’” https://zdnet.co.kr/view/?no=20210621135006
<지디넷코리아>,

김정희(2021. 09. 08)데이터 주권 국제포럼 <전자신문>


https://www.etnews.com/20210908000115

김치연(2019.03.20.) 페이스북, 차별논란에 타깃광고 중단 <연합뉴스>


https://www.yna.co.kr/view/AKR20190320042700009

김하경(2018, 12, 25). AI가 600만개 옷 중에서 취향저격


찾아줘…<매일경제>
https://www.mk.co.kr/news/business/view/2018/12/802088

박수련(2018.05.15.). 포털 알고리즘뉴스, 편향 대립 부추길 수 있다,


<중앙일보> http://news.joins.com/article/22625467

박지원(2022. 01.02)
유튜브서 정치뉴스 보는 고령층, <세계일보>
https://post.naver.com/viewer/postView.naver?volumeNo=3305
1623&memberNo=15305315&vType=VERTICAL

박진형(2013.02.05.). “구글 광고, 흑인인종차별 경향”, <연합뉴스>,


http://www.yonhapnews.co.kr/international/2013/02/05/0608000000
AKR20130205043100009.HTML

이정미(2018. 05.09). 네이버 뉴스 편집 중단, <YTN>


https://www.ytn.co.kr/_ln/0102_201805091423275659

이화섭(2019.12.20.) AI 알고리즘이 만든 '확증편향


<매일신문> https://news.imaeil.com/page/view/2019121911385720033

임민철(2022.05.14.). 채용·목축·주행…AI기술 <아주경제>


https://www.ajunews.com/view/20220514062243968

61
임화섭(2016,03,25). 인공지능세뇌의 위험…<연합뉴스>
https://www.yna.co.kr/view/AKR20160325010151091

최훈진·김주연·민나리·윤연정(2022.01.03.)유튜브 빠져 가족 전화 거절
버튼…<서울신문>https://www.seoul.co.kr/news/newsView.php?id=20
220104008004&wlog_tag3=naver

62
Abstract

The Dilemma of Artificial Intelligence


Algorithms Recommendation Systems.

Name: Jin Young Jeon


Thesis Advisor: Sung-Tae Kim
Department: Graduate School of Media and Communication

Despite the many advantages of promoting user convenience,


algorithm-based recommendation systems still have many problems.
This article examines the trends and content of reports on how the
media, which is in charge of setting the agenda, is reporting on the
AI algorithm recommendation system. Its main purpose is to examine
the underlying dilemma factors. Ultimately, I would like to raise the
AI algorithm recommendation system as a 'problem' that requires
research, examine the cause, nature, and solution of the problem, and
propose a full-fledged discussion on the AI algorithm
recommendation system based on this.

Once the algorithm is designed, it can cause the problem of


reinforcement of discrimination and bias, and the problem is still
ongoing. However, due to the opacity of algorithms designed in a
complex mathematical language like a black box, it is not easy for
the average media audience to uncover such problems or deal with
accountability discussions. This is because technical difficulties, as

63
well as other issues such as the user's convenience and the pursuit
of profits of giant platform operators, are intertwined. Algorithms
seem to operate independently and objectively on the surface as they
are designed in a mathematical language, but the results may vary
depending on the perspective of the algorithm designer. In other
words, the designer's bias is projected to the AI algorithm at the
same time, leaving room for problems of discrimination and prejudice.
Therefore, the person responsible for the bias of the AI algorithm is
also responsible for the response of humans such as the designers.

This study explores domestic media reporting trends on the AI


algorithm recommendation system, and intends to examine various
dilemma factors of the algorithm recommendation system through
literature review.

Therefore, it is not an empirical study by theoretical verification of


an artificial intelligence algorithm recommendation system, but has a
feature of emphasizing the discovery aspect.

These results are meaningful in suggesting a balanced development in


the future media ecosystem by discovering the interpretation of the
meaning of the AI algorithm recommendation service and how various
discussions are formed in our society.

Keywords : Artificial Intelligence, Algorithm, bias, recommendation


system, Filter Bubble

64

You might also like