Professional Documents
Culture Documents
(Legal Code) Disclaimer
(Legal Code) Disclaimer
(Legal Code) Disclaimer
0 대한민국
Disclaimer
석 사 학 위 논 문
고려대학교 미디어대학원
영상엔터테인먼트 전공
전 진 영
2022년 8월
김 성 태 교수지도
석 사 학 위 논 문
2022년 8월
고려대학교 미디어대학원
영상엔터테인먼트 전공
전 진 영
전진영의 미디어학석사 학위논문
심사를 완료함.
2022년 8월
위 원 장 김 성 태 (인)
위 원 박 재 영 (인)
위 원 이 선 경 (인)
국문초록
제1장 서 론 ·································································· 1
제1절 문제 제기 및 연구 목적 ······································································· 1
1. 자료수집과 분석 ····················································································· 23
제5장 결론 및 논의 ·················································· 48
참고문헌 ······································································ 55
Abstract ······································································· 63
표 목차
<표 1> 진화단계에 따른 인공지능의 종류 ···················································· 7
그림 목차
<그림 1 > 콘텐츠 기반 필터링과 협업 기반 필터링 ································ 16
제1절 문제 제기 및 연구 목적
1
이용 패턴, 선호도 등을 바탕으로 한 타깃 중심의 알고리즘 마케팅이 앞
으로도 지속되리라는 점을 내포하고 있다.
2016년 마이크로소프트사는 대화의 맥락적 알고리즘을 파악하여 응답
이 가능한 인공지능 챗봇 테이(Tay)를 선보였다. 챗봇은 온라인 상에서
여러 사람들이 다양한 주제를 놓고 실시간으로 대화하는 채팅(chatting)
과 기계인 로봇(robot)의 조합어로 인공지능 기술을 기반으로 사람과 자
동으로 대화를 나누는 소프트웨어 서비스를 말한다(오세욱, 2016). 하지
만 마이크로소프트사는 서비스를 출시한지 16시간 만에 챗봇 테이의 서
비스를 종료하고 말았다.4) 챗봇은 인터넷 상에서 다양한 주제를 놓고 실
시간으로 일상적인 대화를 나누며, 일반인들의 질문에 대해 자동으로 응
답해주는 시스템이었다. 그러나 서비스의 본래 취지와는 달리, 챗봇 테이
는 대화를 통해 학습한 내용들을 바탕으로 특정사안에 차별적이고 혐오적
인 발언을 거침없이 쏟아내기 시작했고, 결국 서비스가 중단되게 되었다.
대화를 통해 학습하는 인공지능의 특성 상 편향성을 지닌 누군가 의도적
으로 왜곡된 시각을 시스템에 주입시킨다면 아웃풋 역시 편향성이 그대로
드러나는 심각한 취약점을 가지고 있었기 때문이다. 2016년 챗봇 ‘테이’
의 소동이 한바탕 지나갔음에도, 2021년 한국의 스타트업인 스캐터랩의
챗봇 ‘이루다’ 역시 유사한 문제로 다시 세간의 주목을 받게 된다. ‘이루
다’는 실제 연인이 나눈 페이스북 대화 메신저 데이터 약 100억 건을 학
습하였고 그 알고리즘을 기반으로 서비스를 출시하였으나, 사회적 소수자
에 대한 혐오와 차별적 발언으로 문제가 되어 잠정적으로 서비스가 중단
되었다. 한번 이슈가 되었음에도 재차 문제가 발생되는 이유 중 하나는
그만큼 알고리즘의 속성이 방대한 데이터의 학습으로 인한 복잡성과 불투
명성에 기인하기 때문이다. 블랙박스와도 같은 알고리즘은 기업비밀이라
는 명목 하에 쉽게 공개되지도 않을 뿐더러, 설사 공개되더라도 해석하기
힘든 수학적 언어로 도배되어있다. 누구도 알 수 없는 알고리즘은 학습의
기초가 될 데이터에 내재되어 있을지 모를 차별적 속성과 설계자의 편향
2
이 적용되었을 가능성이 배제되지 못한 채 일단 설계되고 나면, 강력한
무기로써 사람들의 실제 삶을 무너뜨리기도 한다. 미국의 데이터 과학자
캐시오닐은 이를 두고 ‘대량살상수학무기(Weapons of Math
Destruction)’로 명명, 수많은 수학적 알고리즘 편향의 잘못된 적용을 고
발했다. 그녀는 자동으로 작동되도록 만들어진 시스템은 효율성이자 수익
창출원의 대명사로 등장하지만, 측정할 수 있고 셀 수 있는 데이터를 기
반으로 만들어진 시스템의 기본 속성 상, 인간의 고유한 권리인 공정성과
평등성은 어떻게 코드화할 것인지에 대해 의문을 던진다. 그녀는 공정성
과 같은 무정형의 정량화하기 어려운 추상적인 개념을 이해하지 못하는
컴퓨터와 공정성을 어떻게 코드화할지 모르는 프로그램 개발자들로 인하
여, 불공정한 시스템들이 대거 생산 되는 현상을 경계한다(Cathy O’Neil,
2016).
미국의 심리학자 로버트 앱스타인은 정치 심리학자 로널드 E. 로버트슨
과 인도에서 검색엔진 실험을 진행했다. 그들은 2014년 총선에 누구를
투표할지 정하지 않은 참가자들을 대상으로 특별히 제작된 검색엔진 ‘카
두들’에 접속하도록 실험을 설계했다. ‘카두들’은 정보를 조작하는 검색엔
진으로 실험 참가자가 ‘카두들’에 접속하면 화면 상단에 특정 후보에게
유리한 링크가 노출되도록 설계되었다. 참가자들은 검색엔진에 노출된 선
거 정보와 편향된 결과를 보고 누구에게 투표할지를 결정했고, 실험을 진
행한 두 심리학자는 왜곡된 검색 결과가 선거 부동층 중 20%의 표심을
변화시켰다고 발표했다. 이는 검색알고리즘이 사람들의 정치적 선호도에
도 영향을 미칠 수 있다는 결과와 함께 정치적 여론을 교묘히 조작해도
아무도 알 수 없는 플랫폼사업자의 막대한 영향력에 대해서도 의구심을
품는 계기를 제공했다(Hannah Fry, 2019).
지금 보고 있는 정보가 전부일 거라 생각하고 진실이라 믿는 판단 오
류, 인간이 가질 수 있는 편협한 사고에 대한 관점은 일찍이 고대철학자
인 플라톤의 동굴의 비유에서 살펴볼 수 있다. 온몸이 묶인 죄수가 동굴
안쪽의 벽면만을 바라보는 상황에서, 죄수들은 동굴 밖 현실 세계의 진짜
사물들은 보지 못한 채 동굴 벽면에 비친 그림자만을 바라보며, 그 그림
자를 진짜라고 믿게 된다. 달리 말하면, 진짜가 아닌데, 한쪽 벽면만 바라
볼 수밖에 없는 환경적 요인으로 인해, 그림자를 전부라고 믿어버리는 상
황이 발생할 수 있는 것이다. 이런 관점은 근대에 와서 프랜시스 베이컨
3
에 의해 다시 언급되는데, 베이컨은 그의 저서 『신기관』에서 인간의 정
신을 피폐하게 만드는 네 가지 우상에 대해 언급했다. 첫째는 종족의 우
상, 둘째는 동굴의 우상, 셋째는 시장의 우상, 마지막은 극장의 우상이다.
이 중 동굴의 우상을 두고, 베이컨은 인간의 고유한 정신에 대해 빗대어
설명한다. 동굴의 우상은 인간 각자가 가지고 있는 고유한 자기만의 세계
를 말한다. 인간은 각자가 읽은 책이 다르며, 경험이 다르며, 존경하는 사
람도 다르다. 또한 마음의 상태도 다르며 선입견과 편견도 다르다. 이렇
게 인간의 정신은 모두 다 제각각이고 다양한데, 그 자신을 둘러싼 동굴
속에서 과학을 찾고 주관적 경향을 객관화시키려 한다. 특히 어떤 주제에
대한 각별한 선호를 비롯하여 비교의 잣대를 들이대고 있지는 않은지, 또
한 편협한 사고의 시선과 특별한 만족감에 도취되어 정작 자기만의 세계
에서 그 자신의 정신이 지배당하고 있는 것은 아닌지 늘 의심해 봐야 한
다고 지적한다. 그렇기에 보다 큰 진리나, 보편성을 놓치지 않도록 인간
은 자신만의 동굴에서 빠져나와 올바른 지성을 선명하게 갖추려 노력해야
한다. 타인의 의견을 존중하고, 바깥세상과의 소통을 통해 사회적인 가치
를 실현해야 한다고 베이컨은 강조했다.
본 연구는 기술의 발달로 인해 사회 각 분야에서 적용이 확대되고 있는
인공지능 알고리즘과 이를 기반으로 설계된 추천시스템에 대한 개념을 살
펴보고, 의제설정자로서의 기능을 담당하는 언론보도가 그 역할을 충실히
이행하고 있는지 보도 동향과 주요내용을 살펴보고자 한다. 또한, 인공지
능 알고리즘 추천시스템에 의해 이미 보고되었고, 발생 가능한 여러 사례
와 이를 분석한 문헌검토를 중심으로 알고리즘 추천시스템에 내재되어 있
는 여러 딜레마적 요인을 살펴보고자 한다. 또한 최종적으로 먼 미래에
일어날 일이 아니라 현재 나타나고 있는 인공지능 알고리즘 추천시스템에
대한 탐색적 시각을 통해 문제의 강화 및 영속화에 대응하고, 이에 대한
책임 있는 태도와 대안이 무엇인지 고찰한다.
지금까지 인공지능 알고리즘 추천시스템에 대한 언론보도 동향을 살펴본
사례가 거의 없었음을 고려해 볼 때, 언론의 역할로서 미디어 생태계의
변화를 어떻게 주목하고 있는지 규명하는 것은 의미 있는 작업이 될 것이
다.
4
제2절 논문의 구성
5
제2장 인공지능 알고리즘 추천시스템
5) 출처: 표준국어대사전
https://ko.dict.naver.com/#/entry/koko/8b8b95a9d8d04942988850d62f6a35d3
6) 중국어방 논증; 방 안에 중국어를 할 줄 모르는 영국인이 있다. 대신 방안에는 중국어
표현에 상응하는 영어표현을 알려주는 규칙지침서가 있다. 방 밖에서 중국어 질문지가
영국인에게 주어지고 영국인은 규칙지침서를 보고 중국어 질문에 대한 답을 찾아 중국
어로 적어 방 밖으로 제출한다. 방 밖에 있는 사람은 방안을 볼 수는 없지만 방 안에
있는 사람이 중국인이거나 중국어를 아는 사람이라고 생각한다. 존설은 이를 빗대어
블랙박스에 있는 인공지능 시스템이 답을 제출하더라도 지능이 있는지 단순히 답변만
을 도출했는지 알 수 없다는 문제를 제기한다.
출처: 두산백과
https://terms.naver.com/entry.naver?docId=3613360&cid=40942&categoryId=31528
6
훨씬 능가하는 형태로 스스로 목표를 설정해 지식을 축적하는 인공지능이
라 구분했다(Nick Bostrom, 2017). (<표 1>참조)
7
<표 2> 인공지능의 다양한 정의
기 술 명 인공지능에 대한 정의
John McCarthy
지능적인 기계를 만드는 엔지니어링 및 과학
(1955)
Charniak and
여러 계산모델을 이용하여 인간의 정신적 기능을 연구하는 것
McDermott (1985)
인간에 의해 수행될 때 필요한 지능에 관한 기능을 제공하는
Kurzweil (1990)
기계를 만들어내는 작업으로 정의
Rich and Knight 컴퓨터가 특정 순간에 사람보다 더 효율적으로 일을 할 수
(1991) 있도록 하는 연구
인간의 지능적인 행동양식에 있어 계산적 과정을 이용해 모방
Schalkof (1991)
하고 설명하는 것에 대한 연구 분야
Luger and
지능적인 행동의 자동화에 관한 컴퓨터 과학의 한 부문
Stubblefield (1993)
인공지능은 특별한 임무수행에 인간을 대체, 인지능력을 제고,
Gartner (웹페이지) 자연스러운 인간의 의사소통 통합, 복잡한 콘텐츠의 이해,
결론을 도출하는 과정 등 인간이 수행하는 것을 모방하는 기술
스마트기기는 인지컴퓨팅(인공지능과 기계학습 알고리즘이
technavio (2014)
적용된)이 임베디드된 기기로 볼 수 있음
BCC Research 스마트기기는 불확실 혹은 다양한 환경 하에서 업무를 수행
(2014) 할 수 있도록 고안된 하드웨어 및 소프트웨어 시스템으로 정의
인공지능은 인간의 학습능력과 추론, 지각, 이해능력 등을
NIA
실현하는 기술
출처: 석왕헌·이광희, 2015: 5-67)
8
로 사용되면서 알고리즘이란 용어의 유래는 인명에 기인한다. 표준국어대
사전에 알고리즘이란 “어떤 문제의 해결을 위하여, 입력된 자료를 토대로
원하는 출력을 유도해 내는 규칙의 집합. 여러 단계의 유한 집합으로 구
성되는데, 각 단계는 하나 또는 그 이상의 연산을 필요로 한다.”라고 정의
되어 있으며, 어떤 문제를 해결하기 위해 설계된 절차이자 방법이며, 순
서도나 수학공식, 자연어, 컴퓨터 프로그래밍 등으로 표현되기도 한다.8)
한국에선 알고리즘의 명확한 법적 정의 규정을 위해 2021년 지능정보화
기본법 개정안이 발의되기도 했다.9)
인공지능의 작동 기반에는 알고리즘이 있으며, 현대의 인간이 사용하는
컴퓨터, 스마트폰과 같은 전자기기 역시 인공지능 알고리즘을 토대로, 사
용 정보가 기록되며, 필요에 따라 전송되고 있다. 1930년대 영국의 수학
자이자 컴퓨터 분야 선구자인 앨런튜링(Alan Turing)10)은 알고리즘에 잠
재되어 있는 지능을 이해하고 있었다, 그는 불특정한 방법을 통해서 데이
터 저장소에 확실한 규칙들을 적용하면, 인간의 질문에 대답하는 일종의
컴퓨터와 같은 ‘신탁기계(oracle machine)’를 생각해냈다. 그는 계산 속도
나 처리데이터의 양에는 상한선이 없을 것이라 가정하며, 알고리즘 시스
템은 빠른 계산을 통해 대량고속처리능력이 가능하다고 생각했다. 실제로
현대에 와서 컴퓨터와 데이터베이스를 통한 시스템은 튜링이 상상했던 모
습을 실현해내고 있다(Nicholas Carr, 2014).
이렇게 알고리즘은 기술의 발전을 바탕으로 다양한 현실 문제를 수학적
사고로 해결하기 위해서 등장하기 시작했으며, 현재의 블록체인 기술에
이르기까지 진화를 계속 거듭하고 있다. (<표 3>참조)
8) IT트렌드연구회(2019), p27
9) 이 개정안에서 알고리즘이란 ‘어떤 문제의 해결 혹은 의사결정을 위하여 입력된 자료를
토대로 결론을 이끌어내는 연산 또는 논리의 집합’ 으로 정의되었다.
서진욱(2021,04,30) 알고리즘 법적 정의…<머니투데이>
https://news.mt.co.kr/mtview.php?no=2021043015293190793
10) 튜링은 인공지능을 두고, 인공지능과 대화하는 상대방이 상대가 사람인지 기계인지 구
분할 수 없을 때 테스트를 통과했다고 보는 인공지능 판별시스템 ‘튜링테스트’를
제안했다 출처:두산백과
https://terms.naver.com/entry.naver?docId=2718940&cid=40942&categoryId=32845
9
<표 3> 기술의 진화와 알고리즘 혁명 연표
기술의 진화 알고리즘의 혁명
농업혁명 BC4500
종이 AD105
263 (중국) 구장산술
820 (알콰리즈마) 대수학서적집필
1736 (레온하르트 오일러) 그래프이론
증기기관 1769
산업혁명 1784
1837 (찰스 베비지) 해석엔진설계
1843 (에이다 러브레이스) 베르누아 알고리즘
전화 1876
진공관 1904
반도체 1930
최초의 연산컴퓨터 콜로서스 1943 1943 (맥컬로지&피치) 인공신경망 개념
1948 (노비트 워너) 사이버네틱스 출간
PC 대중화 1983
인터넷 대중화 1990 1998 (브린&페이지) 페이지랭크 알고리즘
SNS 확산 2006 2006 (제프리 힌튼) 딥러닝 알고리즘
iPhone 판매 2007
2008 (사토시 나카모토) 블록체인 알고리즘
출처: IT트렌드연구회, 2019: 22
10
인공지능 알고리즘 시스템의 등장은 산업과 사회구조 전반에 걸쳐 변화
를 주도하고 있는데, 이는 ‘지능정보화’의 도래를 의미한다. 고도화된 정
보통신기술 인프라를 통해 수집된 데이터와 인공지능이 서로 결합하여,
경제와 사회 모든 분야에 보편적으로 활용된다, 데이터와 지식은 노동과
자본보다 중요해지며, 다양한 서비스 융합으로 산업 간의 경계가 붕괴되
어 지능화된 기계가 지적 노동에까지 확대되는 시대가 도래하고 있는 것
이다.11) 현대의 인공지능 알고리즘의 이용도와 그 가치가 점점 상승하는
이유도 마찬가지로 데이터가 존재하기 때문이다, 일상의 대부분을 인터넷
과 연결해 정보를 교류하고 탐색하는 시대적 상황은 알고리즘의 완성에
있어 절대적으로 필요한 방대한 데이터를 쉽게 수집할 수 있는 최적의 환
경을 제공했다. 이런 환경을 배경으로 인간의 삶에 적용되기 시작한 다양
한 형태의 인공지능 알고리즘은 세계 곳곳에서, 그 범위와 영역의 한계를
뛰어넘어 점차 광범위하게 활용되고 있는 상황이다. (<표 4>참조)
분류 기술명 활용사례
11
SBSS
FICO (Small Business 소상공인 전용 신용평가모형
Scoring Service)
FitBit,애플와치 웰니스 기능 건강관리데이터 추적시스템
미국 워싱턴 IMPACT 교사평가기법(가치부가모형)
US
Education Rankings 전국대학순위모형
NEWS.COM
미국 사법기관 콤파스(COMPAS) 재범예측알고리즘, 재범 위험성 평가모형
뉴욕 경찰 컴스탯(Compstat) 범죄분석 및 예측프로그램
사용자 간의 거리정보를 바탕으로
네스트써모스탯 실내온도관리
온도정보제공
구글과 오픈AI의 텍스트생성
레플리카 인공지능 챗봇
딥러닝 알고리즘
판도라봇의
메타버스형 챗봇 메타버스 세계 아이돌 스타 캐릭터
쿠키
마이크로소프트
소셜 챗봇 사용자의 감성분석, 대화의 맥락에 반응
샤오아이스
취약계층의 건강을 위해
워봇 치료 챗봇
정서적 공감과 지지
출처: 문헌자료를 참고하여 정리
12
리즘 이용에 대한 방침을 발표하였으며,13) EU는 ‘AI를 위한 윤리 지침
가이드라인’을 발표하였다.14) 이는 인공지능에 내포한 여러 가지 문제점
을 대비하기 위한 가이드라인으로서 인간의 편의를 위해 사용되는 기술이
인간의 권리를 침해하거나, 존엄성을 해치지 않도록 최소한의 지침을 제
공하여 인간과 기술이 공존해나가기 위한 개선방안이다.
이제, 데이터는 21세기 원유와도 같은 가치를 띄며, 이를 활용한 인공지
능 알고리즘, 그리고 고도의 자동화시스템은 앞으로도 지속적으로 우리사
회의 변화를 주도할 것이다. 그렇기에, 이에 따른 여러 가지 이슈들과 드
러나는 문제들에 대해서도 기민하게 반응하는 자세가 필요하다.
12) 3대 기본원칙: 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙
10대 핵심요건: 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성,
데이터 관리,책임성, 안전성, 투명성, 출처: 과기정통부, 사람이 중심이 되는「국가
인공지능윤리기준https://www.msit.go.kr/bbs/view.do?sCode=user&mId=113&mPid=
112&pageIndex=&bbsSeqNo=94&nttSeqNo=3179630&searchOpt=ALL&searchTxt
=
13) 미국연방거래위원회, FTC, ‘Using Artificial Intelligence and Algorithms’ (2020)
https://www.ftc.gov/business-guidance/blog/2020/04/using-artificial-
intelligence-algorithms
14) EU, ‘Ethics guidelines for trustworthy AI’ (2019)
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
13
정치 -중국 텐센트의 인공지능 챗봇의 공산당, 정치적 문제
-구글웨이모와 테슬라 자율주행차의 사고
사고
-쇼핑센터에서 경비로봇이 아이에게 상해를 입힘
-수니파 무장단체인 IS의 핵심 테러범을 킬러 로봇이 사살
안전성 공격 -2016년 6월 미국 텍사스주 댈러스에서 5명의 경찰관을
살해한 범인을 킬러로봇이 죽인 사건
14
성화되는 계기를 마련했다. 인터넷 상에 분산되어 있는 각종 정보들은 링
크로 연결되어 세계는 전지구화시대를 맞이하였고, 인터넷은 단순히 문자
뿐아니라, 음성, 화상, 영상 등 다양한 형태로 제공되어 사용의 편의성을
극대화 하였다. 정보 접근이 용이한 시대는 반대로 정보의 홍수시대 도래
와 맥을 같이하는데, 쏟아지는 정보로 인하여 사람들은 어느 순간 선택에
대해 좀처럼 결정을 내리지 못하는 ‘햄릿증후군’15)과도 같은 상황이 발생
하기 시작했다. 이런 상황은 ‘선택장애’16), ‘결정장애’17)와 같은 신조어를
탄생시켰으며, 이제 선택의 문제는 인간이 할 수 있는 고결하고 고유한
행위적 축복이라기 보단 정보의 홍수 속에서 누군가가 대신 선택해 주길
바라는 편의적 욕구를 포함한 형태로 그 특성이 변화되기 시작했다. 이러
한 시대적 흐름이 반영되어, 인터넷의 다양한 플랫폼기업들은 사용자가
수많은 선택지에서 선택해야하는 번거로움과 어려움을 이해하고, 이 문제
를 해결하기 위해 알고리즘을 이용한 추천시스템을 제공하기 시작했다.
2000년 ‘시네매치’라는 이름으로 세상에 나온 넷플릭스의 추천기술은 사
용자의 선호나 취향을 데이터로 읽어 다양한 콘텐츠를 제공하는 플랫폼
서비스였다. 넷플릭스는 2006년 개발자들을 상대로 ‘넷플릭스 프라이즈’
라는 대회를 열어 시네매치 알고리즘의 예측력을 뛰어넘는 추천기술을 만
드는 개발자에게 100만 달러를 주겠다고 선언했다. 넷플릭스는 48만 명
이상의 고객이 부여한 1억 개의 별 평점이 담긴 1만 8,000개 이상의 영
화가 담긴 데이터를 공개하였고, 전 세계 150여개국 2만개 이상의 팀이
답을 제출했다(강정우, 2020). 2009년 6월 벨코어 팀이 10.09% 향상된
추천기술을 선보여 우승을 거머쥐었고, 이 팀의 기술은 지금까지 넷플릭
스의 추천시스템의 기반이 되고 있다. 이 추천 기술의 양대 축은 ‘콘텐츠
기반 필터링’과 ‘협업 기반 필터링’이다. 콘텐츠 기반 필터링은 기준을 ‘콘
텐츠’로 두고 고객이 이미 시청한 영상을 중심으로 선호할 만한 영상을
예측하여 다음 콘텐츠를 노출시킨다. 협업기반 필터링은 기준을 ‘고객’으
로 두고, 고객의 나이와 성별, 선호하는 콘텐츠 분야 등 고객의 기본 정
보를 파악한 뒤, 이 고객과 비슷한 취향을 가질 것으로 예상되는 고객들
15
을 하나의 집단으로 설정한다. 설정된 집단의 콘텐츠 이용 결과를 바탕으
로 다음 영상이 고객에게 추천된다.(<그림 1>참조) ‘넷플릭스 프라이즈’
대회에 참가한 벨코어 팀은 이 두 개의 추천기술을 혼용시켜 고객 특징과
영화 콘텐츠에 대한 분석을 보다 정밀하게 해석하는 ‘하이브리드 추천 시
스템’을 구성하는데, 큰 역할을 했다.
16
방금 전 클릭했던 상품이 기본 검색 페이지에 등장하거나 메일서비스를
통해 지속적으로 구매를 유도하는 추천시스템형태로 제공된다. 또한, 뉴
스 플랫폼 기업들은 미디어 수용자들이 뉴스기사를 클릭한 수를 데이터로
집계하여, 미디어 수용자의 관심도가 많은 뉴스를 검색페이지의 상위에
노출시키거나, 알고리즘을 이용, 관심기사를 추천해주는 서비스를 제공한
다. 플랫폼기업은 수용자의 관심도가 많은 뉴스페이지에 광고를 노출시
켜, 뉴스기사를 본 수용자들이 광고를 클릭할수록 수익을 올리는 구조를
만들었다. 즉, 광고노출빈도는 플랫폼기업과 광고기업에게 주요한 수익창
출시스템의 원천이 되었다. 한 예로, 구글애즈(Google ads)의 경우를 살
펴보면, 2022년도 기준으로 구글애즈는 광고를 집행하려는 기업에게 광
고 타깃 설정 페이지를 제공하는데, 첫 번째로는 위치기반, 두 번째로는
키워드 설정의 지정을 요청한다. 첫 번째, 위치기반 설정은 선택한 위치
에 실제로 거주하는 사용자나 해당 장소에 관심이 있는 사용자가 검색결
과 페이지나 기사를 읽으면, 해당 페이지에 광고를 게재하여 클릭을 유도
하도록 설정된다. 플랫폼기업은 광고기업이 광고를 적절한 사용자에게 노
출될 수 있도록 사용자의 정보를 수집·이용하며, 이는 플랫폼을 이용하는
사용자들의 기기설정과 동작, 위치정보 등 다양한 신호정보를 포함한다.
(<그림2, 3> 참조)
17
(2022년 기준)
(2022년 기준)
스마트 캠페인의 위치 설정
• 선택한 위치에 실제로 거주하는 사용자와 해당 위치에 관심을 보이는 사용자에게 광고가 게재
됩니다. 광고를 게재하지 않을 위치를 선택할 수도 있습니다.
• 위치 설정은 신중하게 선택해 주세요. 설정이 너무 광범위하면 잠재고객이 아닌 사용자와의
상호작용에 대해 비용이 발생할 수 있습니다.
주의사항
위치 타겟팅은 플랫폼에서 사용자의 설정, 기기, 동작 등 다양한 신호를 기반으로 하며 광고주의 위치 설
정을 충족하는 사용자에게 광고를 게재할 수 있도록 Google에서 마련한 기능입니다. 이러한 신호는 다양
하므로 모든 상황에서 100% 정확성이 보장되는 것은 아닙니다.
항상 그렇듯이, 전반적인 실적 측정항목을 확인하여 현재 설정으로 광고 목표를 달성하는지 확인하고 그에
따라 설정을 변경해야 합니다.
18
폼기업의 서비스를 이용하는 사용자의 검색정보에 대한 수집과 이용을 기
반으로 제공되는 기능이다. 키워드까지 설정이 끝나면, 광고기업이 광고
비를 어떻게 책정하느냐에 따라 광고노출빈도가 결정되는데, 시스템에 설
정되어있는 알고리즘에 의해 광고기업이 하루에 사용하는 광고비를 늘리
면 늘릴수록, 플랫폼기업이 사용자에게 광고를 노출시키는 빈도도 같이
상승한다. 즉, 광고비는 곧 사용자의 클릭률을 예측하여 설계된다. 예를
들어, 하루 약 10만원의 광고비 설정은 2,980~4,510회의 클릭률을 예측
한다. (<그림4> 참조)
(2022년 기준)
19
(2022년 기준)
<그림 5> 구글애즈 유튜브 동영상 캠페인 성별, 연령, 자녀유무 상태 설정화면
(2022년 기준)
20
고비를 사용하도록 설정했을 땐 1주당 1.1만~2.9만정도의 노출과
220~470건 정도의 조회수를 예측해 볼 수 있으며, (<그림7> 참조)
21
금액을 열배 늘려, 하루에 20,000원씩 광고비를 사용하도록 설정했을 땐,
1주당 9.6만~25만정도의 노출과 2천~4.7천 건 정도의 조회수를 예측해
볼 수 있도록 설정되어있다. (<그림8> 참조)
앞서 살펴본 바와 마찬가지로 플랫폼기업인 구글의 경우, 광고를 게재
하길 원할 시, 광고기업에 최적화된 형태의 설정페이지를 제공한다. 전혀
관련이 없는 사람들을 대상으로 광고하는 것이 아니라, 플랫폼사용자들의
활용 가능한 정보를 바탕으로 고객을 세분화시켜, 광고의 효율을 높일 수
있도록 알고리즘이 설계되어 있다. 사용자의 관심이 반영된 검색페이지나
기사에 대한 개인정보를 수집하고, 수집한 정보를 기반으로 맞춤광고를
제공하는 시스템은 구글과 같은 플랫폼기업이, 수익원천이 되는 광고수익
을 얻기 위해 사용자 정보를 어떻게 이용하고 제공하는지 여실히 보여주
는 하나의 예시가 될 수 있다.
인공지능 알고리즘 추천 시스템은 사용자의 빅데이터를 기반으로 선택
을 용이하게 하고, 맞춤이라는 특성상 편리성을 제공하지만, 동시에 사용
자의 개인정보를 수집하고 이용하는 문제, 더욱이 정보를 제공하는 사용
자가 알 수 없는 형태로 거래되고 그것이 기업의 직접적인 이윤추구에 있
다는 점에서 다양한 논의를 필요로 한다.
22
제3장 인공지능 알고리즘 추천시스템 미디어 보도
1. 자료수집과 분석
이 연구는 인공지능 알고리즘 추천 시스템에 대한 미디어 보도 동향을
국내 일간지와 방송사 뉴스를 통해 살펴보고자 하였다. 보도량의 증가와
감소여부를 살펴보는 것은 해당 이슈에 대한 중요성을 보여주는 것으로,
특정 이슈나 사건에 관한 보도의 양을 조절함으로써 관련 이슈에 대한 관
심을 확대시키거나 감소시킬 수 있다(신승훈·정혁, 2009). 또한 이러한
논의를 통해 언론의 의제설정기능이 적절히 이뤄지고 있는지 유추해 볼
수 있다.
분석 대상이 되는 뉴스기사는 한국언론진흥재단에서 제공하는 뉴스 빅
데이터 분석서비스인 ‘빅카인즈’를 활용, 빅카인즈에서 제공하는 총 54개
의 언론사19)를 대상으로 진행하였으며, 주제어 검색을 통해 뉴스 보도의
현황을 살펴보았다.
분석기간은 2018년 1월 1일부터 2022년 5월 31일까지 보도된 뉴스로
선정하였다. 최근 5년간의 뉴스 키워드 검색을 통해 언론 보도량을 살펴
보며 키워드 트렌드와 뉴스 보도 성향의 거시적인 지형을 파악하고자 했
다.
연구 대상인 인공지능 알고리즘 추천시스템에 관한 뉴스의 검색어 처리
는 형태소분석을 이용하였으며, 제목 및 본문에 연구자가 키워드를 입력
하고, 그 키워드를 포함하고 있는 경우로 설정하였다. 이 연구에서 검색
23
어는 두 가지 관점에서 지정되었는데, 첫 번째로는 ‘인공지능 알고리즘’의
거시적인 관점에서의 언론 보도량을 살펴보기 위해 ‘인공지능’과 ‘알고리
즘’이라는 검색어를 각각 지정하여, 최근 5년간의 보도 트렌드를 살펴보
고자 하였다. 두 번째로는 인공지능 알고리즘의 세부시스템인 ‘알고리즘
추천시스템’, ‘알고리즘 추천서비스’ 등의 키워드를 포괄적으로 포함할 ‘알
고리즘 추천’이라는 검색어를 지정하여 알고리즘 추천시스템과 관련한 최
근 5년간의 언론 보도량을 살펴보고자 하였다. 거기에 알고리즘 추천시스
템에 내재된 여러 가지 기술적이고, 편리함을 강조한 유토피아적 관점 이
외에 의제설정자로서의 언론의 역할을 살펴보기 위하여 알고리즘 추천시
스템이 가져오는 안티유토피아적 관점의 대표적 키워드인 ‘알고리즘 편
향’이라는 검색어를 설정, 알고리즘 편향에 대한 보도량을 추가적으로 살
펴보고자 하였다. 이어 ‘알고리즘 추천’과 ‘알고리즘 편향’이라는 두 가지
검색키워드에 대한 상대적인 보도량의 비교를 제시하였다.
구체적으로 뉴스 기사 검색을 위해 사용된 4개의 검색어는 다음과 같
다. 1) 인공지능, 2) 알고리즘, 3) 알고리즘 추천, 4) 알고리즘 편향, 이
렇게 검색어를 입력해 언론보도 동향을 살펴보고자 했다.
2. 미디어 보도 동향의 분석 결과
24
< 표 6 > ‘인공지능’, ‘알고리즘’ 검색키워드별 뉴스 보도 건수
(단위 : 건)
년도
2018 2019 2020 2021 2022* 계
검색어
* 2022년도는 1월 1일 ~ 5월 31일까지의 기사 건 수
25
< 표 7 > ‘알고리즘 추천’ ‘알고리즘 편향’ 검색키워드별 뉴스 보도 건수
(단위 : 건)
년도
2018 2019 2020 2021 2022* 계
검색어
알고리즘 추천 1168 1036 1414 1623 675 5,916
* 2022년도는 1월 1일 ~ 5월 31일까지의 기사 건 수
26
(단위 : %)
27
제2절 미디어 보도의 주요 내용
28
되어 출시가 되면, 기술에 대한 기대심과 편리성에 대한 담론을 형성하면
서 고객에게 제공될 새로운 경험과 다가올 편리적 이익에 관심을 집중시
킨다.
인공지능 알고리즘을 내포한 모든 기술들은 세상에 출시 된 이후, 그
기술의 사용범위와 빈도 그리고 효율성에 따라 지속적으로 사용·유지되거
나 혹은 사라진다. 최근 들어 인공지능 알고리즘의 존립여부를 결정하는
가장 큰 요인으로는 알고리즘에 내재된 ‘차별적 관점’과 ‘편향적 관점’이
주요한 원인을 차지한다. “MS 채팅봇 '테이' 차별발언으로 16시간 만에
운영중단”(연합뉴스 2016. 03. 25), “네이버 뉴스 편집 중단···실시간 급
상승 검색어도 첫 화면 자동 노출 금지”(YTN 2018, 05. 09), “페이스북,
차별논란에 연령·성별 따른 타깃 광고 중단”(연합뉴스 2019. 03.20)과 같
은 기사에서 알 수 있듯이 알고리즘을 내포한 기술에 차별과 편향의 문제
가 내포되어 있으면 출시되자마자 사장되거나, 더 이상 사용할 수 없도록
중단된다. 산업적 논리에 따라, 기술의 출시는 편익과 이익에 먼저 집중
된 채 담론을 형성한다. 그러나, 일반적인 기계와 달리, 방대한 데이터 학
습과 딥러닝을 기반으로 한 알고리즘은 설계자나 학습데이터, 그리고 구
조적인 문제와 관련되어 차별과 편향을 학습할 가능성이 존재한다. 인공
지능 알고리즘에 대해 언론보도가 형성하고 있는 또 다른 담론은 사회에
내재된 차별과 편향에 대한 담론이다. 성별, 인종, 젠더와 관련한 차별 담
론은 기존 사회가 가진 문제로서 여전히 발생하는 주요 이슈이자 쟁점이
다. 인공지능 알고리즘에 의해 야기되는 차별의 담론 역시 기존 사회의
반영이며, 이에 대한 적절한 대처와 고찰 없이는 차별의 강화와 영속화에
기여할 수 있기에 사회의 빠른 대응을 요하는 부분이다. “AI 알고리즘이
만든 '확증편향', 생각의 시야를 좁힌다.”(매일신문 2019. 12. 20), “유튜
브서 정치뉴스 보는 고령층… ‘편향적 알고리즘’에 취약”(세계일보 2022.
01. 02), “가족 전화 거절 버튼… ‘내가 보고 싶은 세상’에 갇혀 산다.”(서
울신문, 2022. 01.03) 동영상 재생 서비스를 제공하는 플랫폼기업들은 자
사의 이익이 되는 광고수입을 위해 미디어 수용자들을 대상으로 적극적인
마케팅을 펼친다. 알고리즘 추천시스템은 이런 개인의 선호도를 예측하
여, 기업이윤을 기반으로 설계되었고, 맞춤동영상 재생이라는 새로운 기
술이 가져올 유토피아적 관점은 이내 확증편향의 우려가 담긴 담론을 형
성하게 되었다.
29
소셜미디어에서 자신과 비슷한 사람들끼리 서로 연결되어, 같은 생각이
공유되면, 그 의견과 생각은 메아리처럼 다시 되돌아와 개인의 확증편향
을 강화하게 된다. 미국 하버드대학교 로스쿨 교수이자 법학자인 캐스 선
스타인(Cass R. Sunstein)은 ‘반향실 효과’를 빗대어 소리가 외부로 새어
나가지 않은 채, 내부에서만 맴도는 메아리처럼, 폐쇄적인 공간에서 오는
개인의 확증편향을 두고 에코체임버 효과라고 칭했다. 개인이 선호하는
맞춤형 콘텐츠나 관점에 갇혀 다른 관점을 시야에 둘 기회를 잃거나, 알
고리즘에 의해 필터링된 정보만을 습득하고 소통한다면 점점 편향을 강화
하게 된다. 또한, 에코체임버에 갇힌 채 비슷한 관점에만 노출된다면, 자
신의 의견이 곧 다수의 의견이라 인식하게 되고, 편협한 사고를 보편적
사고로 확증하게 될 위험이 있다(조진형·김규정, 2022).
베이컨이 언급했던 동굴의 우상은 인간의 편협한 관점에 대한 비유였는
데, 마찬가지로 편향성의 우려를 고민했던 엘리프레이저(Eli Pariser)의
‘필터버블’의 정의와도 그 맥락을 같이한다. 프레이저는 그의 저서『생각
조종자들(The Filter Bubble)』에서 알고리즘 추천시스템으로 인해 사람
들은 온라인에서 정보를 얻는 방법이 근본적으로 변화되었다고 주장한다.
플랫폼 기업들이 선택한 알고리즘 정책으로 인해 사람들은 자신만의 틀에
갇힌 채 외톨이가 되며, 이유 없이 헤매고 떠밀리게 되는 상황이 발생되
었으며, 이를 필터버블이 가져오는 현상이라고 정의 내린다(Eli Pariser,
2011). 현대의 알고리즘 추천시스템으로 인해 개인이 비슷한 성향을 가
진 다수와 만나, 그들과 빈번한 상호작용을 통해 ‘그들만의 리그’를 형성
하고, 그들의 의견이 세상의 전부로 인식되는 착시현상이 발생되기도 한
다(김내훈, 2021). 온라인에서 작동되는 알고리즘 추천시스템은 개인이
무심코 남긴 데이터 흔적들을 수집해 무엇을 좋아하고, 무엇을 하려고 하
는지를 끊임없이 예측하고 추론한다. 그리고 개인에게 맞게 필터링 처리
된 정보는 다시 반복적으로 선택되고, 개인은 그렇게 필터링 처리된 정보
들로만 둘러싸여, 거품 속에 스스로를 가두게 된다. 마치 베이컨이 말한
동굴 속에서 자신의 각별한 선호를 바탕으로 정신이 지배당할 수 있는 위
험과도 유사한 형태인 것이다. 언론은 이 편향에 대한 담론을 통해 인공
지능 알고리즘 추천시스템에 내재된 양날의 검과 같은 특성을 기사화하여
보도한다. 자신과 생각이 같은 사람들에게만 둘러싸여, 의견을 확증하고
익숙한 세계에 머물며, 편향적 사고를 강화하는 행위는 올바른 민주사회
30
형성에 역효과를 가져온다. 확증편향의 강화는 사회를 둘로 나누고 분열
시킬 위험성이 내포되어 있으며, 잠재되어 있는 편견을 더욱 증폭시킬 수
도 있기 때문이다.
플랫폼기업의 이윤추구와 건전한 민주사회 형성이라는 두 길 사이에서,
정부의 인공지능 규제방침이 발표되고, 언론은 인공지능 알고리즘에 대한
규제 담론을 형성한다. “AI 오류로 손해 땐 누가 책임지나’…인공지능 규
제정비 로드맵 확정”(한겨레신문 2020. 12. 24), “APPA 포럼 폐막…‘개
인정보보호 원칙 지켜야’…규제환경 변화”(연합뉴스 2021. 06. 18), “또
앞서가는 EU의 AI 규제법안”(뉴스1 2021. 06. 11), 인공지능 알고리즘
시스템을 중심으로 발생되는 여러 차별의 사례, 기회의 불평등, 확증편향
문제 등이 점점 불거져 나오자, 사회는 블랙박스와도 같은 알고리즘 시스
템에 대한 사례연구와 규제, 정책적 대응의 필요성을 절감하기 시작했다.
유럽은 2016년 개인정보보호규정(General Data Protection Regulation,
Regulation (EU))법안을 만들어 알고리즘 규제를 적극적으로 제도권 안으
로 흡수시켰다. 다만, 이 법안은 개인 프라이버시에 관한 권리와 규제를
비롯한 개인정보처리에 관련된 것으로, 인공지능 알고리즘의 차별을 적극
적으로 다루진 않는다. 그러나 언론이 규제의 담론을 제시하고, 시민과
전문가들의 다양한 의견이 오고갈 수 있는 공론장의 역할을 담당한다면,
인공지능 알고리즘 시스템에 내재되어 있는 여러 딜레마를 해소할 가능성
이 보다 명확해 질 것이다.
이익을 추구하는 플랫폼기업의 알고리즘 추천시스템과 의제설정자인 언
론의 기능 사이에서 미디어 생태계는 근본적인 변화가 일어나고 있다. 언
론보도는 늘 새로운 뉴스를 만들어 내고 과거 게이트키핑의 역할은 이제
플랫폼기업이 제공하는 알고리즘 추천시스템이 그 자리를 대신한다. 사회
와 언론이 제시하는 담론들은 다양한 뉴스에 다양한 방식으로 접목되어
노출되지만, 텍스트 해석의 범위는 상호간의 의견 나눔과 소통 없이는 그
저 지면에 담긴 글자로서 자리할 뿐이다. 앞서 살펴본 언론 보도의 담론
들은 새로운 알고리즘 기술 출시에 대한 기대적인 관점에서부터 차별, 편
향의 우려, 규제의 목소리까지 다양하게 담아내고 있었다. 다만, 각각의
담론에 해당하는 보도량을 제각기 비교해 본다면, 기술에 대한 소개와 기
대심리, 새로운 경험이 제공할 편리한 관점에서의 보도 담론이 월등히 많
아, 알고리즘에 내재된 위험성과 편향적으로 사고하게 될 담론 역시 확대
31
되어야 할 필요성이 있었다. 더불어 최근 들어 정부 부처에서 개인정보관
련 지침을 정비하고, 플랫폼기업의 이익보다 다수의 선을 향한 규제 담론
이 형성되는 것은 건강한 민주사회를 위한 고무적인 변화이다.
인공지능 알고리즘 추천시스템의 장밋빛 미래에 대한 보도만큼, 플랫폼
기업의 이익에 좌지우지되며, 비밀리에 사용되는 개인데이터, 차별, 편향
의 가능성을 내포한 알고리즘의 민낯에 대해서도 언론이 비판적인 시각을
담아 좀 더 반복적으로 보도하지 않으면, 블랙박스와도 같은 알고리즘 특
성상 사람들의 편향적 사고를 강화시키는 것에 지휘권을 내어주게 되고,
그 지휘권은 영속적으로 강화될 수 있다는 것을 늘 견지해야 될 것이다.
32
제4장 인공지능 알고리즘 추천시스템의 딜레마
33
리 제시하여 구매를 편리하게 만들고, 최적화된 사용자 경험은 동시에 기
업에 이익을 선사하는 윈윈전략의 알고리즘 구조를 만들었다. 또한, 제품
을 사용한 사람들의 평점과 리뷰를 추천시스템에 반영하여, 유용한 리뷰
를 통해 더 많은 사람들에게 구매기회를 제공하며, 유용한 리뷰를 접한
사용자들은 제품의 추천 성능을 더욱 높였다(LIU FAN. et al, 2022). 아
마존 알고리즘 추천시스템은 적시에 적합한 정보를 제공하고 노출시켜 사
용자에게는 이용의 편익을 제공하고, 기업에게는 이익을 제공한다.
넷플릭스 시네매치 알고리즘 시스템은 사용자가 시청한 시청목록과 같
은 데이터를 기반으로 내가 찾지 않아도 내가 좋아할 만한 콘텐츠를 자동
추천한다. 나를 잘 아는 누군가가 마치 개인 비서처럼 나의 다음 행동을
예측하고 나의 선호도를 파악하여, 사용자 경험을 향상시킨다. 추천시스
템은 기본적으로 새롭고 예상치 못한 것을 갑작스럽게 추천하기 보다는
우리의 기존 욕구에 맞춰 추천을 한다. 실제로 넷플릭스의 추천시스템은
이용만족도와 지속사용의도에 정적인 영향을 미친다(정용국·장위, 2020).
시스템은 우리의 행동을 분석하여, 우리에게 익숙한 형태로 예측 가능한
행동을 제시하는 것이다.21) 또한, 페이스북과 같은 소셜미디어에서 사용
되는 추천시스템은 게시글의 ‘좋아요’ 버튼을 통해 노출의 빈도가 결정되
기도 하며, 추천시스템을 사용하는 다른 플랫폼기업들보다 각 사용자 간
의 상호작용이 더욱 활발히 진행되기 때문에, 기업에서는 더 높은 사용자
만족도를 위해 과거보다 더 많은 사용자 데이터를 통합하려는 시도가 이
뤄지고 있다(M. Eirinaki, 2018).
한편, 알고리즘 추천 시스템은 데이터를 기반으로 작동되기에, 필연적
으로 사용자의 개인정보를 비롯한 검색내역과 데이터 수집을 요하게 된
다. 플랫폼서비스를 편리하게 이용하기 위해서는 개인정보의 수집 및 이
용에 동의해야 한다. 플랫폼기업이 제공하는 사이트를 탐색하면서 남겨진
사용자 데이터엔 개인 활동 정보들이 담겨 있으며, 기업들은 이 데이터
속에 담긴 고객에 대한 정보, 개인적 선호도와 심리를 알아내어, 고객의
만족과 기업 이윤의 확대를 위해 마케팅적인 측면에서 사용된다(구본권,
2014). 즉, 사용자가 온라인상에서 클릭하는 모든 정보들은 암묵적으로
마케팅에 사용되는 주요 공급원이 되는 것이다. 기업들은 이렇게 고객의
34
정보를 파악해 맞춤형 서비스를 제공하는 것이 상호 간의 이익이 된다고
판단하였고, 사용자의 선호도가 반영된 상품이나 영상이 노출됨으로써 고
객들의 접속시간이 증대되어, 이를 바탕으로 이윤을 추구하게 되었다.
인터넷 세상에 남긴 선호도와 흔적들 그리고 패턴들에 의해 사람들은
선택되고 분류된다. 본 논문 제2장에서 살펴봤듯이 이런 세분화된 개인정
보는 합법적인 광고의 토대가 된다. 광고 노출은 꼭 필요한 상품을 소개
한다는 정보성 안내를 목적에 두지만 소외계층이나, 신용불량자들을 대상
으로 하는 약탈적 광고나 악질적인 광고도 있다. 구글애즈를 비롯하여,
대부분의 기업 플랫폼들은 광고를 노출하는 조건에 있어, 사람의 약한 심
리를 파고드는 약탈적 광고에 대한 구분을 하지 않는다. 즉 양이나 질이
냐 상관없이 광고비만 낸다면, ‘이만큼 노출시켜 사람들이 클릭을 할 수
있도록 도와줄게요.’라며 이익과 플랫폼 내 노출공간을 거래한다. 구글의
검색 상위에 노출되는 것은 사람들의 선호도가 반영된 콘텐츠가 될 수도
있지만, 막대한 광고비를 지불한 약탈적 광고회사들에 의해 상위노출을
점령당할 수도 있다. 이것이 문제가 되는 이유는 광고에 노출되는 취약계
층이 그런 취약성을 파고드는 또 다른 광고에 의해 빚이 재생산되거나 오
직 이윤만 추구하는 비양심적인 기업의 희생양이 될 수 있기 때문이다.
약탈적 광고 회사들은 고객의 무지를 타깃으로 하고, 그들의 낮은 자긍심
과 고통에 공감하는 척 감정에 호소하며, 선전물을 제공한다. 게다가 광
고를 게재할 플랫폼기업들이 알아서 세분화된 고객목록을 제공하니, 광고
타깃층을 선별하는 데도 용이하며, 취약계층을 대상으로 하는 약탈적 광
고 회사들은 그 자리를 당당히 차지하고 들어선다(Eli Pariser, 2011).
2016년 미 대선 당시 영국의 데이터 분석업체인 케임브리지 애널리티
카(Cambridge Analytica)는 페이스북 사용자들의 개인정보를 불법으로
수집한 이후, 선거 판가름에 중요한 영향을 미칠 중도층을 타깃으로 추천
알고리즘을 활용, ‘사기꾼 힐러리를 무찌르자’라는 광고에 노출시키거나,
각종 설문조사를 이용, 트럼프 캠프에 유리한 쪽으로 광고를 내보냈다.22)
뿐만 아니라, 케임브리지 애널리티카는 영국의 유럽연합탈퇴 즉, 브렉시
트(Britain+Exit)라는 초유의 사태에 페이스북 사용자의 개인정보를 불법
수집하여 브렉시트 부동층을 대상으로 허위광고를 내보냈다. 케임브리지
35
애널리티카는 데이터와 알고리즘을 이용하여 각 국의 정치적 자문 서비스
를 제공하였는데, 이때 불법으로 수집된 소셜미디어의 개인정보 데이터들
로 인하여, 페이스북 대표 마크 저커버그도 법정에 서게 되었으며, 케임
브리지 애널리티카는 결국 문을 닫게 되었다.23)
플랫폼기업은 서비스를 제공하는 대가로 얻은 고객 개인정보 데이터를
무한히 사용해도 되는지, 데이터에 대한 정보소유권은 어떤 범위로 어떻
게 사용되어야 하는지 논의가 필요하다. 사용자는 편리성을 위해 그에 상
응하는 대가적 의미인 개인정보데이터를 플랫폼기업에게 제공해야만 하는
강제적인 요건에 대해서도(제공하지 않으면, 서비스를 이용할 수 없는)재
고해 볼 문제이다. 이에 대해 영국의 컴퓨터 과학자인 티머시 존 버너스
리(Timothy John Berners Lee)는 2021년 데이터 주권 국제 포럼에서
“나의 데이터가 곧 나의 권리(My Data, My Right)”라 주장, “데이터 주
권시대 진입에 맞춰 개인정보 남용을 어떻게 보호하고, 데이터 산업의 촉
진을 위해 보다 구체적인 플랜을 수립해야 한다.”(전자신문 2021. 09.08)
고 데이터 주권에 대한 관점을 재확립시켰다. 개인정보환경을 둘러싸고,
개인과 플랫폼기업의 상호 간 관계를 놓고 살펴보면, 정보의 비대칭이 발
생하는 것을 알 수 있다(Eli Pariser, 2011). 앞서 언급했던 것처럼 우리
는 거대한 플랫폼기업들에게 개인 정보를 제공하고 있으며, 그 빈도는 점
점 늘어나고 있는 상황이다.
빅토어 마이어쇤베르거(VictorMayer-Schönberger)는 “권력이 없는 자
에게서 권력이 있는 자에게로 정보 권력이 재분배되고 있다”라고 언급했
는데, 정보 권력의 비대칭은 내가 상대를 아는 것보다, 상대가 나를 더
많이 알고 있을 수 있다는 의미이며, 그럼에도 내 정보가 어떻게 이용되
는지 또 누군가가 그 정보를 이용하는지 사용자는 도통 알 수가 없다. 볼
킨(J. Balkin)은 알고리즘이 처리하는 개인정보를 대상으로 정보수탁자
(information fiduciaries)라는 개념을 구상했다.24) 수탁자는 고객의 사무
를 위탁받고 처리하면서, 고객을 대신해 서비스를 제공한다. 그러나 수탁
자와 고객 사이에는 정보처리 능력과 지식 면에서 비대칭의 주요한 간극
36
이 발생하고, 고객은 수탁자가 무엇을 하고 있는지 구조상 쉽게 알 수가
없다. 따라서 수탁자에게 고객개인정보를 보호할 의무와, 임의로 정보에
해를 가하거나, 공개하지 못하도록 법을 적용함으로써 수탁자의 지위도
정보수탁자라고 명명, 고객정보에 대한 권리와 가치에 대해 재고하는 계
기를 마련했다(남중권, 2018).
37
사건이 일어났다. 마을 주민들은 왓츠앱이라는 메신저에 올라온 가짜뉴스
를 보고 행인들을 유괴범으로 오해, 집단 폭행을 감행했다.25) 인도의 마
을 주민들은 자신들의 메신저에 올라온 가짜뉴스를 확증 편향하여 진실을
혼동했으며, 그 결과는 돌이킬 수 없었다. 2021년에는 미국 대선에서 트
럼프의 지지자들이 의사당에 난입한 사건이 일어났다. 트럼프는 지지자들
을 향해 “여러분들이 지옥처럼 싸우지 않으면, 더 이상 조국은 없을 것이
다.”와 같은 발언을 소셜미디어를 활용해 선동했다. 지지자들은 시위현장
에 집결, 결국 의사당에 난입하여 집기를 부수는 일까지 감행했다. 트럼
프는 자신의 지지자들을 위해서 또는 자신의 입장을 표명하기 위해서 소
셜미디어의 ‘좋아요’나 ‘리트윗’ 등과 같은 추천 알고리즘을 활발하게 이
용했으며, 이 발언들은 정치적 논란을 일으켜, 트럼프의 페이스북과 트위
터 계정이 정지 당하는 사태가 발생하기도 했다. 워싱턴포스트는 2021년
1월 트럼프 계정이 정지된 다음날부터 일주일간 소셜미디어 콘텐츠를 분
석해 본 결과 가짜뉴스와도 같은 허위정보가 전주 대비 250만 건에서 68
만 8000건으로 급격히 줄었으며, 트럼프를 지지한 시위대의 의사당 난입
과 연결된 해시태크도 95%이상 감소했다며 소셜미디어 분석기업 ‘지그널
랩스’의 조사결과를 토대로 발표하였다.26) 한 국가 대통령의 중요한 정치
적 행보까지도 소셜미디어와 알고리즘 그리고 빅데이터가 개입한 시대가
도래 했다. 더욱이 이 추천알고리즘을 다루는 플랫폼기업의 이익과 위상
도 기하급수적으로 올라갔기에, 플랫폼기업이 지닌 막대한 데이터 정보와
그 데이터를 기반으로 형성되는 알고리즘 시스템에 대한 영향력도 재고해
봐야한다. 노출되는 게시물에 따른 정치적 편향의 위험성은 이제 단순한
문제를 넘어 권력과 합세해 사람들의 삶을 뒤바꿀 영향력을 행사하는 위
치에 까지 오게 되었으나, 그 견제 시스템은 아직 미비한 실정이다(Eli
Pariser, 2011). 과거에는 사회에서 발생하는 다양한 이슈들과 사건들을
신문과 라디오 그리고 TV라는 전통적인 매체를 통해서 소비했지만, 오늘
날은 급속도로 발전한 인터넷 기술의 영향으로 컴퓨터나 모바일과 같은
개인 디바이스를 통해 실시간으로 정보를 접한다. 전통적인 매체(TV, 신
38
문, 라디오)에서 뉴스를 생산할 때에는 게이트키핑27)이라는 최종 검수를
지나쳐야만 비로소 편집실을 통과한 뉴스가 세상에 빛을 볼 수가 있었다.
그러나 지금 온라인에서 만나는 뉴스는 게이트키핑의 과정의 생략을 거
쳐, 이슈성과 주목성, 신속성만을 고려한 채 자극적인 문구와 클릭을 유
도하는 제목, 그리고 편향적인 시선들로 채워져 제공되기도 한다. 가짜뉴
스의 확산문제는 곳곳에서 발생되고 있으며, 허위정보의 확산은 그 파급
력도 기하급수적으로 퍼지기에 플랫폼기업들의 빠른 대처가 필수적이다.
그러나 플랫폼기업은 다국적 기업들인 경우가 많고, 이에 따른 한계점이
드러나기도 한다. 방송인 A씨는 유튜브에 퍼진 허위정보가 진짜뉴스인
것처럼 엄청나게 퍼져가는 것을 보고, 유튜브에 해당 영상을 차단해줄 것
을 요청했다. 그러나 유튜브 측은 “검토하는 팀이 해외에 있어 시간이 걸
린다.”라며 기다려줄 것을 요청했다. 유튜브는 국내법의 적용을 받지 않
고, ‘유튜브 커뮤니티 가이드라인’에 따라 대응한다. 미국 현지 기준에 따
라 허위정보영상의 차단 및 명예훼손여부를 결정한다는 얘기다.28)
한편 허위정보는 구매 플랫폼에서도 나타나는데, 아마존의 2019년 니
혼게이자이신문의 한 기자는 아마존 구매사이트를 둘러보다가 명품이라며
올라온 상품들의 가격이 저렴한 것을 발견하게 되었다. 이 명품이 모조품
인지 진위 여부는 알 수 없는 상태에서 어느 것이나 정품이라며 소개하고
있는데, 표시가격은 원래 가격의 절반 또는 10분의 1이하로 표기되고 있
었다. 기자는 아마존에서 직접 구매하여 전문가의 검증을 받아보기로 했
다. 그 결과 구매한 제품들은 전부 모조품으로 판명되었다. 아마존 사이
트는 이런 모조품들을 ‘추천상품’이라는 표시로 제품을 띄우기까지 했다.
(아마존은 판매 상품 중에서 특히 추천하는 품목에 ‘아마존 초이스’ 마크
를 붙인다) 기자가 확인한 20개 이상의 모조품에 추천마크가 붙어 있었
다. 업자에게 연락하여 진위 여부에 대한 사실을 확인하고자 연락을 취했
으나, 등록된 업체의 정보 다수가 전화를 받지 않거나 없는 번호로 나오
39
는 등 거짓정보로 확인되었다. 기자는 아마존에 직접 이 문제에 대한 해
답을 얻고자 하였으나, 적극적인 해결을 기대하긴 어려웠다. 다만 반품절
차에 대한 신속성만 확인할 뿐이었다.29)
자극적이고 편향적인 콘텐츠의 제공, 가짜뉴스와 허위상품 검증시스템
미비와 같은 문제를 드러냄에도 불구하고, 플랫폼기업들에 대한 사회적
신뢰는 점점 중요한 위치에 올라서고 있다. 한국언론진흥재단 조사 결과,
2021년 이용자가 뉴스를 접하는 매체로 인터넷*이 43.8%를 기록, TV와
신문 라디오와 같은 전통적인 매체 이용률이 55.9%에 이른 점을 감안한
다면, 인터넷을 통한 뉴스소비도 점점 중요한 위치를 차지하고 있음을 확
인해 볼 수 있다.(<표 8 참조>) 그러나 여전히 미디어 수용자들은 자신
이 보고 읽는 이 콘텐츠가 어떤 알고리즘을 기반으로 자신에게 노출되었
는지, 알고리즘 추천시스템을 통한 선택이 수용자의 사고에 어떤 영향을
끼칠지 그 점에 대해선 알지 못한다. 플랫폼기업들 역시 편향적인 시각
과, 민주사회에 위협이 될 요소를 제공하고 있음에도 불구하고 가짜뉴스
와 정보의 진위 여부를 검토하는 시스템의 개발 부재와 광고 수익을 극대
화하는 맞춤형 알고리즘 추천시스템의 선택지를 쉽게 내려놓을 것으로 보
이지 않는다.
인터 온라 메 이
인터
넷 인 종 신 용 뉴 인공
사례 넷 S 라 계
포털 동영 이 저 한 스 지능
수 TV 뉴스 N 디
/ 상 신 서 적 레 AI
(명) 사이 S 오
검색 플랫 문 비 없 터 스피커
트
엔진 폼 스 음
전
5010 53.9 35.9 5.0 1.4 1.1 1.0 0.9 0.5 0.3 0.0 0.0 100.0
체
*인터넷이용률(인터넷포털/검색엔진+온라인동영상플랫폼+인터넷뉴스사이트+SNS+메신저서비스)
40
제3절 개별화된 맞춤 콘텐츠 추천 vs 정보 편향의 위험
41
도 동시에 얻을 수 있다.
한편, 페이스북 CEO 마크 저커버그는 한 인터뷰에서 “여러분은 단 하
나의 정체성을 가집니다.”라고 발언 했다. 뒤이어, 페이스북 COO 셰릴 샌
드버그의 “사람들은 세상 모든 것에 관심을 두는 것을 원하지 않으며, 자
신들이 보기를 원하고 알기를 원하는 것들에 영향을 미치는 무언가를 원
한다.” 라고 발언 했다. 이 발언은 다시 말해 페이스북에서의 정체성은 하
나의 정체성으로 귀결되며, 그것은 곧 모든 공간에서의 경험을 집약적으
로 표현하게 될 것이라는 의미였다. 이는 각각의 개인적이고 사회적인 데
이터를 통합하여 단일화 플랫폼으로 정립하려는 야심찬 계획이었다. 그러
나 ‘하나의 정체성’으로 귀결되는 과정에서 수집되는 개개인의 수많은 클
릭과 공유데이터가 그 사람의 정체성을 고스란히 대변할 수 있는가에 대
한 근본적 의문이 생긴다. 심리학자들은 ‘하나의 정체성’을 가진다는 저커
버그의 생각을 ‘근본적 귀인오류’라고 명명했다(Eli Pariser, 2011). 사람
들이 세상 모든 것에 관심을 두는 것을 원하지 않는다고 해서 관심 있는
것들로만 노출시키려는 기업의 마케팅 논리는 위험한 문제를 야기할 수
있다. 동영상 플랫폼인 유튜브에서 사용자들은 자신의 마음에 드는 영상
이 있으면 ‘좋아요’를 누르거나 댓글, 공유를 통해 호감을 표시한다. 유튜
브는 이렇게 사용자가 남긴 데이터 속 개별화 정보를 바탕으로 사용자의
관심을 끌만한 영상을 맞춤 추천해 주고, 지속적으로 재생시키며, 유사
콘텐츠의 세상 속으로 끊임없이 안내한다. 이상호 경성대 교수는 “특정
사용자가 특정한 정치 성향을 담은 영상을 오래 보면, 유튜브 알고리즘은
이 사용자에게 유사한 영상을 계속 추천할 것”이라고 지적했다. 인공지능
알고리즘의 문제 중 하나는 사람들의 정치적 정체성에도 영향을 미친다는
점이다. 유튜브 정치 채널은 보수집단에 편향된 내용들로 제작된 영상들
을 중심으로 성장했으며, 보수성향이용자들이 편향된 콘텐츠에 선택적이
고 지속적으로 노출될수록 진보성향의 이용자들을 배척하고 보수 집단을
지지하는 태도가 점점 더 강화되는 경향을 보였다. 이들 영상은 주로 과
격한 용어를 사용하거나 감정적인 호소를 바탕으로 객관적 사실의 검증
없이 편향된 태도로 내용을 전달했고 감정을 자극하는 전달법은 보수 성
향 구성원들의 공감대를 형성해 정치적 양극화를 심화시켰다. 미디어 이
42
용자들이 가진 신념과 일치하는 콘텐츠가 감정적인 호소를 바탕으로 지속
적으로 선택될 때 이용자들의 정치적 정체성과 태도는 점점 고착화될 수
있으며, 이는 각 집단 간의 갈등을 심화시킬 수 있는 요인으로 작용된다
(함민정·이상우, 2021). 2019년 ‘유튜브의 정치편향성’ 관련 세미나에서
주정민 한국방송학회 회장은 “최근 조사결과에 따르면 10명 중 6명이 유
튜브에서 정보를 얻는다.” 라고 하며, “누구나 콘텐츠를 올릴 수 있어 편
리하지만, 정제되지 않은 콘텐츠로 인해 부작용도 커지고 있다.”라고 언급
했다.31) 개별화는 지금 현재 관점의 의견을 강화시키는 것과 새로운 관
점의 의견을 제공받는 것에 대하여 인지적 균형을 깨뜨릴 수 있다. 자신
에게 친숙한 의견만을 제공받는다면, 그 의견에 대해 지나친 확신을 가질
수 있으며, 타인의 의견이나 새로운 의견의 차단은 자극자체에 대한 제거
와도 같은 결과를 초래할 수 있다. 월터리프먼(Walter Lippmann)은 개별
화에 대해 이렇게 경고한다.
43
이 올렸다. 조작된 게시물로 인해 각각의 사용자들은 감정의 변화를 실제
로 일으켰고, 자신도 모르는 사이에 누군가와 동일한 감정을 경험했다.
페이스북의 알고리즘 변화는 사용자의 감정에 까지도 영향을 준다는 결과
였다(Kramer. et al, 2014). 이는 추천시스템의 기술을 보유한 플랫폼 기
업들이 사용자에게 어떤 콘텐츠를 지속적으로 제시하느냐에 따라 사용자
의 심리 까지도 영향을 끼칠 수 있다는 의미를 내포한다.
세상과의 접점이 클릭의 시대가 되고, 더욱이 개별화를 바탕으로 알고
리즘 맞춤 시스템이 도래한 것은 많은 것을 변화시켰다. 사용자 입장에서
는 검색과정의 생략이 불러오는 편의성으로 인해 선택의 문제에서 자유롭
게 되었을지 모르나, 선택의 선택권을 빼앗긴, 아니 선택의 필요조차 느
끼지 못하게 된 최적의 개별화 시스템은 사용자의 관심사와 일치된 콘텐
츠를 ‘맞춤’이라는 이름아래 지속적으로 제공하고, 사용자들은 눈치 채지
못한 채 자신만의 공고한 세계 속으로 끊임없이 빠져들고 있다.
44
반으로 현재도 다양한 산업에 알고리즘 기술이 적용되고 있다.
한편, 넷플릭스의 다큐멘터리 ‘알고리즘의 편견’32)에 등장하는 MIT 연
구원 조이 부올람위니는 안면 인식 소프트웨어 프로그램을 이용하다가 이
상한 점을 발견한다. 이 소프트웨어 프로그램은 흑인이었던 그녀의 얼굴
을 좀처럼 인식하지 못했던 것이다. 백인 남성의 얼굴을 기준으로 설계된
이 알고리즘은 프로그램 개발자의 편향을 그대로 이식했고, 프로그램은
수정을 진행했지만, 이미 백인남성만을 기준으로 삼은 알고리즘의 오류는
노출되고 말았다. 만약 그녀가 이 오류를 단순한 기기이상으로 생각했다
면, 편향성이 내재된 알고리즘은 여전히 베일에 싸여 있었을지 모를 만큼
알고리즘의 체계는 비밀스러운 블랙박스와 같다. 인공지능 알고리즘은 데
이터를 기반으로 학습을 통해 만들어졌기 때문에 그 내부적 체계가 거대
하고 복잡할 뿐만 아니라, 인간의 의사결정에 미치는 영향력을 제대로 예
측하기란 매우 어려운 현실이다. 그렇기에 알고리즘에 사용된 규칙을 발
견하거나, 설계단계나 학습데이터에 내재되어 있는 편향의 문제와 작동기
제의 불공정성을 밝혀내는 데에는 더더욱 어려움이 있다. 설계된 알고리
즘이 계산을 수행하는 과정에서 기존 패턴과 벗어나는 상황이 발생하는
특이한 경우에, 알고리즘은 어디서부터 문제를 찾아야 할지 모를 정도로
부정확한 계산결과를 도출해낼 수 있다. 이로 인해서 알고리즘 시스템의
의존도가 높은 헤지펀드와 증권사들이 과거 심각한 오류33)를 범하기도
했다(Nicholas Carr, 2014). 예를 들어 투자자들이 채권에 투자할 때, 부
실채권에 포함되어 있는 주택담보대출의 건전성에 대해서는 전혀 알 수가
없다. 이는 복잡한 알고리즘의 불투명성 때문이다(Cathy O’Neil,
2016)(p75). 알고리즘에 오류가 생겼을 때, 문제를 적시에 발견하기도
수정하기도 어렵다는 것은, 문제가 영속화될 위험이 있다는 것이며, 만약
알고리즘에 차별과 편향이 내재되어 있다면, 이는 또 다른 사회적 문제로
야기될 수 있다. 또한, 알고리즘이 가진 특별한 위험은 미래를 예측하기
위해서 과거 데이터에 의존하고, 오류에 기민하게 대처하기 어려운 구조
라는 것이다. 그렇기에 수학적 논리를 기반으로 사고한다는 점은 오히려
45
자동화에 대한 치명적인 편향에 빠져들 수 있다. 빅토르마이어 쇤베르거
와 케네스쿠키어는『빅테이터가 만드는 세상 Big Data』에서 말한다.
34) Executive Office of the President, “Big Data: A Report on Algorithmic Systems,
Opportunity, and Civil Rights”, 2016.05,
https://obamawhitehouse.archives.gov/sites/default/files/microsites/ostp/2016_0504_d
ata_discrimination.pdf
46
기업이익을 위해 노출되기로 결정할 뿐이다. 그렇기에 알고리즘의 불투명
한 검색체계시스템 내 각종 의사결정 모델은 편향된 사고와 시스템 오류
가능성과 같은 여러 가지 취약성을 지니고 있다. 닛케이BP가 운영하는
‘닛케이크로스테크’와 니혼게이자이신문 취재반은 일본을 대표하는 대기
업 113곳을 대상으로 인공지능에 관해 공동조사를 실시했다. 73%에 해
당하는 기업이 ‘인공지능 알고리즘 기술은 내부의 체계가 복잡해서, 판단
근거를 제시하기가 어렵다.’ ‘판단이 블랙박스화 된다.’ ‘인공지능 알고리
즘 학습과정을 거쳐 나온 최종출력물에 대해 알고리즘 설계자도 어떻게
그런 결과를 얻었는지 설명하지 못한다.’ ‘경영의 범위에 있어 어디까지
인공지능에 맡길지 고민’한다고 응답했다.35) 이처럼 알고리즘은 객관성과
신뢰를 가지고 있는 동시에 복잡하고 불투명한 특성으로 인하여, 오히려
블랙박스화 될 수 있는 우려와 드러나지 않은 문제에 대한 영속화 우려도
가지고 있다.
47
제5장 결론 및 논의
제1절 연구결과의 해석 및 논의
48
에 위협이 될 수 있는 알고리즘 편향 및 차별과 같은 이면에 대한 보도도
확대되어 언론이 가진 의제 설정자로서의 기능을 보다 충실히 이행해야
할 필요가 있음을 확인해 볼 수 있었다.
국내 미디어 보도 동향과 내용을 포함하여, 다양한 논의가 담긴 문헌들
을 살펴본 결과, 인공지능 알고리즘 추천시스템에 내재된 딜레마들을 확
인할 수 있었다.
첫째, 사용자의 선호도가 반영된 영상콘텐츠의 자동 재생과 이미 구매
한 제품정보를 기반으로 한 구매목록 추천과 같은 알고리즘 기술의 편리
한 서비스는 사용자 경험을 향상시켜 선택을 용이하게 한다. 그렇지만,
플랫폼이 제공하는 추천서비스의 이용을 위해서 사용자는 필연적으로 플
랫폼기업에게 개인 정보 제공에 대한 동의를 진행해야 하며, 그렇게 수집
된 개인 데이터는 사용자 본인도 인지하지 못한 채, 기업의 이익이나 광
고에 사용되기도 한다. 더욱이 그 범위나 한계가 구체화되어 있지 않아
개인정보가 남용될 수 있는 위험이 있다. 즉, 무분별한 데이터 수집으로
인한 개인프라이버시 침해가 발생될 위험이 있는 것이다.
둘째, 다양한 추천정보가 공유되어 집단지성의 이익이 제공되나 가짜뉴
스의 확산과 정보 진위 여부에 대한 판단의 어려움이 있다. 다수의 추천
을 받은 콘텐츠는 노출이 우선 시 되어, 이슈의 공론화와 시민사회에 정
보의 권력이 이양되는 긍정적인 효과가 있다. 하지만, 숨은 의도를 가진
허위정보에 대한 진위 여부를 밝히거나, 가짜뉴스의 이슈화에 대한 확산
통제의 어려움도 동시에 가지고 있다.
셋째, 개별화된 맞춤콘텐츠 제공으로 개인에게 최적화된 정보를 제공하
지만, 제공된 정보에만 둘러싸일 수 있는 편향의 위험이 동시에 존재한
다. 개인의 선호도가 반영된 지나친 개별화는 편향성을 가져올 수 있다.
알고리즘 추천시스템은 지속적인 시청을 유도하고 관심을 끌기위해 끊임
없이 개인의 행동을 미리 예측하고, 사용자의 심리에 대해 연구한다. 알
고리즘 시스템에 내재된 차별과 편향의 관점은 정치와 민주사회에 위협이
되는 주요한 요소이기에 플랫폼 기업의 이익을 위해 제공되는 기술에 내
재된 확증편향의 위험은 늘 경계해야 한다.
넷째, 알고리즘 추천시스템은 신속하고 효율적이며 객관적인 시스템이지
만, 동시에 복잡하고 불투명한 수학적 언어로 설계되어 설계단계가 공정
한지, 차별과 편향이 내재되어 있지는 않은지 문제를 밝히기도, 해결하기
49
도 좀처럼 쉽지 않다. 인공지능 알고리즘은 수학적인 언어로 설계되어 인
간의 사심이나 편견이 배제되었으리라는 객관성을 가정하여, 모두에게 공
정하고 공평하게 적용될 거라 예상한다. 그러나 만약 알고리즘에 설계자
의 편향이 들어가거나, 오류가 발생하면, 불투명성으로 인해 그 문제의
원인을 찾거나 쉽게 수정하기가 어렵다. 더욱이 문제가 수면위로 드러나
지 않는다면, 알고리즘에 내재된 차별과 편향은 영속화될 위험이 있다.
인공지능 알고리즘 기술은 그 편리한 기술적 요소만큼이나 편향성과 같
은 우려 요소도 내포하고 있었다. 더욱이 개인정보를 비롯하여 온라인상
에 남게 되는 개인의 수많은 흔적들이 수집되고 이용되며, 거래된다. 그
럼에도, 현재로서는 그 정보에 대한 소유권을 주장하거나 어디에 사용되
었는지 사용처를 알기에도 요원한 상황이다. 쇼샤나 주보프(Shoshana
Zuboff)는 저서『감시자본주의시대』에서 이렇게 말한다.
50
알고리즘 시스템에 내재된 편향의 위험성을 지속적으로 드러내고 공론
화 하지 않는다면, 사회는 점점 둘로 나뉘게 되고 ‘그들만의 리그’, ‘동굴
속의 그림자’만 사실로 믿게 되는 아찔한 순간을 맞이할지 모른다. 알고
리즘은 한번 설계되면, 인종, 나이, 성별, 종교 등과 관련 없이 대부분의
사람들에게 획일적이고, 광범위하게 적용되어, 결과치가 점수화로 나타나
거나, 구체적인 구분 사유를 알지 못한 채 등급화 되거나, 표적화될 수
있다. 수학적 논리를 기반으로 설계되었다는 객관성이 눈을 가리기에, 설
계단계에서 반영되었을지 모를 편향성에 대한 문제와 심각한 오류가 드러
나지 않으면, 알고리즘은 빠른 속도로 사람들을 데이터화해 처리한다. 그
렇기에 알고리즘에 드러난 차별과 혐오가 지속적으로 문제가 되고 있고,
손상된 학습데이터에 앞서 차별과 혐오문제는 기존사회에서 나타나는 오
랜 담론으로 형성되어 있기에 그 문제의 뿌리도 깊다. 어쩌면 인공지능
알고리즘에 드러난 차별과 혐오문제는 아직 해결하지 못한 사회의 해묵은
숙제를 드러내고 있다고 볼 수 있다. 기존사회에서 명확히 해결하지 못한
차별의 문제가 수학적 설계를 만나면 그 파급력과 피해는 걷잡을 수 없기
에 알고리즘 설계단계에서 공정성은 반드시 필요한 사회적 가치로 대두되
고 있다. 공정성은 기존사회에 존재하는 인종, 성별, 젠더, 계급과 같은
사회문제가 알고리즘 설계자나 알고리즘 학습데이터에 의해 반영될 위험
을 경계한다. 플랫폼기업의 이윤추구를 위한 비도덕적 행위, 약탈적 광고,
차별의 양산 등 발생할 수 있는 문제에 대해 규제적 관점에서 이용되는
요소인 것이다. 과연 알고리즘은 공정한가에 대한 문제에 있어 캐시오닐
(Cathy O’Neil)은 수학적 모형과 관련해서 모형을 누가 만들었는지, 그리
고 개발자가 수학적 모형을 통해, 성취하려는 목표가 무엇인지 알아야 한
다고 의견을 제시했다. 오닐은 알고리즘 모형에 대해, 설계단계에서 대개
개발자의 목표와 가치관, 이념이 반영되며, 설계된 모형들은 수학에 깊이
뿌리내린 지극히 개인적인 의견이라고 주장했다.
그럼에도 다행인 것은 각국은 인공지능 알고리즘이 지닌 여러 가지 윤
리적 문제, 딜레마, 편향의 문제를 인지하고, 시민과 전문가들을 대상으로
공론화하기 시작했으며, 규제가이드나 법안을 마련하는 움직임이 나타나
고 있기 때문이다. 유럽 연합 집행위원회(European Commission)는 거대
플랫폼기업을 규제하기 위해 디지털시장법(Digital Market Act, DMA)
및 디지털서비스법(Digital Services Act, DSA)을 입법 하려 하고 있으
51
며, 이르면 2023년 시행될 예정이다.37) 디지털시장법(DMA)은 디지털
시장에 지배적인 영향을 주는 플랫폼 기업들이 시장경쟁에 미칠 부정적인
영향을 방지하고 공정한 중개자로서의 역할을 위해 의무를 부여하는 법이
다. 특히 플랫폼기업을 게이트키퍼38)로 지정하여 특별히 규제하는 법안
이다. 디지털서비스법(DSA)은 게이트키퍼 기업을 제외한 일반 온라인 플
랫폼기업 및 중개업체의 책임 및 의무사항을 기재해 소비자와 비즈니스사
용자의 권리와 자율성을 강조하는 법안이다.
또한 알고리즘의 불투명성 때문에 오히려 알고리즘은 투명성이 보장되
어야 한다며, AI 알고리즘에 관한 미국 백악관 보고서에도 알고리즘 설계
에 대해 최소한의 투명성과 알고리즘이 산출한 결과가 지속적으로 검사되
어야 한다는 내용이 담겼다.39) 알고리즘의 투명성에 대한 요구는 알고리
즘이 보유한 특성에 대해 기본적으로 ‘블랙박스화’하지 않을 노력과 책임
의 문제임을 다룬다(허유선, 2018). 알고리즘 내부의 의사결정 시스템을
공개하는 것은 기업의 이익과 관련된 문제일지 모르나, 알고리즘의 투명
성을 향한 노력은 지속되어야할 것이다.
엘리프레이저는 저서『생각조종자들(Filter Bubble)』에서 1973년 닉슨
행정부가 만든 ‘공정한 정보 사용 규칙’40)을 언급하며, 개인정보 통제권
37)윤웅희(2022.05.09).EU디지털시장법도입…<코트라 해외시장뉴스>
https://dream.kotra.or.kr/kotranews/cms/news/actionKotraBoardDetail.do?SITE_NO
=3&MENU_ID=410&CONTENTS_NO=1&bbsGbn=242&bbsSn=242&pNttSn=194213
38) 게이트키퍼 기업의 의무 사항과 금지 사항자료 : EU 집행위원회 (2022.03.24)
의무사항
· 제3자 서비스와 게이트키퍼 플랫폼 간 상호 운용 허용
· 비즈니스 사용자가 생산한 IoT 데이터에 접근 허용
· 비즈니스 사용자의 플랫폼 외부 사업 홍보 및 계약 허용
· 해당 플랫폼 이용 광고 업체에 해당 광고업체에 필요한 광고 수행 및 검증자료 제공
금지사항
· 게이트키퍼 자체 제공 서비스 우선순위 부여 금지
· 소비자가 플랫폼 외부 링크로 연결 방지 금지
· 사전 설치된 비필수 소프트웨어 제거 방지 설정 금지
· 타깃 광고를 위해 사용자 동의 없이 서비스 외부 정보 추적 금지
39) 미국연방거래위원회, FTC, ‘Using Artificial Intelligence and Algorithms’ (2020)
https://www.ftc.gov/business-guidance/blog/2020/04/using-artificial-intelligence-al
gorithms
40) 1973년 미국의 닉슨 행정부의 주택, 교육, 복지부가 만든 ‘공정한 정보사용규칙‘, 엘리
프레이저(2011),p327
52
을 사용자에게 되돌려주고, 개인의 행동과 기업의 책임 그리고 정부의 규
제가 결합한다면 미디어의 방향을 바꿀 수 있다고 주장한다.
본 연구자는 알고리즘 추천시스템에 대한 미디어 보도와 다양한 문헌검
토를 통해 알고리즘에 내재된 여러 딜레마적 요인을 살펴볼 수 있었다.
알고리즘 추천시스템은 분명 인간에게 유익을 주며, 신속하고 효율적인
기술이다. 다만, 편리한 이용을 위해 제공되어야만 하는 개인정보데이터
가 기업의 손에 무분별하게 사용되지 않도록 그 범위가 분명히 제한되어
야 하며, 정보 이용 시, 당사자에게 그 내역이 투명하게 공개되어야 하는
것은 물론, 데이터 사용에 대한 거부권도 행사할 수 있어야 한다.
또한, 추천서비스를 통한 집단지성의 긍정적인 면을 확대하려면, 반대로
가짜뉴스나 허위 정보의 진위 여부를 신속하게 확인할 수 있는 시스템이
나 규제, 검증 기관이 있어야 한다. 새로운 정보가 등장했을 때, 누구나
정보에 대한 검증을 요청하고, 허위정보를 즉각 신고할 수 있으며, 정보
에 대한 진실여부를 확인할 수 있어야 한다. 더불어 가짜뉴스의 급격한
확산을 막기 위한 플랫폼 기업의 자체적인 방지시스템이 구현되어 허위정
보로 인해 피해를 입는 누군가가 없도록 해야 할 것이다.
다음으로, 맞춤콘텐츠의 제공은 시청지속시간을 늘려 기업에 이익이 될
수 있으나, 장기적으로 미디어 수용자에게 편향된 시각을 제공하여 민주
시민사회에 악영향을 미칠 우려가 있기에, 정기적으로 맞춤 알고리즘을
뒤섞거나 재설정, 해지하는 등의 방법을 통해 미디어 수용자가 다양한 관
점에 노출될 수 있도록 한다. 마지막으로 알고리즘의 설계단계에서 들어
갈지 모를 편향과 오류에 대해서 알고리즘 설계자의 관점을 명확히 하고,
그들이 만들 기술이 사회에 미칠 영향력에 대한 인식을 강화시킨다. 또
한, 차별과 편향의 오류를 점검하기 위한 알고리즘 사전검토기구나 인증
기관 등을 설치하여, 기술이 인간의 권리를 침해하지 않도록, 잘 어우러
져 성장하는 사회가 되어야 할 것이다.
기술과 사회가 주도하는 변화 속에서 인공지능 알고리즘 시스템의 정
치경제학은 어떻게 움직이고 있는지, 플랫폼기업들의 자유는 반대로 시민
·누구나 자신의 개인 정보를 누가 가졌는지, 어떤 데이터를 가졌는지, 어떻게 사용되는지 알아야 한다.
·누구나 어떤 목적을 위해 수집된 자신의 정보가 다른 목적으로 사용되는 것을 막을 수
있어야 한다. ·누구나 자신에 대한 부정확한 정보를 수정할 수 있어야 한다.
·모든 데이터는 안전해야 한다.
53
권의 약화를 불러오는지, 통제와 자율성, 공정과 편익 중에서 어떤 것을
대의로 두어야 할지, 다양한 관점에 대해 충분한 공론화와 논의를 통해서
해답을 찾아가야 할 것이다. 주지할 것은, 건전한 민주 시민사회를 이루
는 것은 다양한 시민들이 다양한 의견을 자유롭게 서로 소통하며, 공론화
하는 자리에서 그 근본적인 힘이 생기며, 풍요로운 사회를 형성하는 기반
이 된다는 사실이다.
제2절 연구의 한계 및 제언
54
참고문헌
김인식 (In-sik Kim), & 김자미 (JaMee Kim). (2021). 유튜브 알고리
즘과 확증편향. 한국컴퓨터교육학회 학술발표대회논문집, 25(1(A)),
71–74.
신유진 (Yoo Jin Shin), & 이상우 (Sang Woo Lee). (2021). 텍스트 마
이닝 기법을 이용한 유튜브 추천 알고리즘의 필터버블 현상 분석. 한
국콘텐츠학회논문지, 21(5), 1–10.
55
안서원 A. S. (2021). 구매 여정에서 나타나는 고객 평점과 후기의 영향.
마케팅연구, 36(4), 135–155.
정용국, & 장위. (2020). 구독형 Ott 서비스 특성이 이용자 만족과 지속
사용 의도에 미치는 영향: 넷플릭스 이용자를 대상으로. 한국콘텐츠학회
논문지, 20(12), 123–135.
56
정미정 (Mi-Joung Joung), & 백선기 (Seon-Gi Baek). (2011).
한국신문의 영화에 관한 보도담론의 특징과 의미. 한국언론학보,
55(3), 28–53.
함민정 (Minjeong Ham), & 이상우 (Sang Woo Lee). (2021). 유튜브
정치동영상의 선택적 노출과 정치적 태도극화: 정치성향별 내집단 의식
의 매개효과 검증. 한국콘텐츠학회논문지, 21(5), 157–169.
57
E. W. Ayaburi, “Effect of penitence on social media trust and privacy
concerns: The case of Facebook”, International Journal of
Information Management, Vol. 50, pp.171-181, 2020
58
<단행본>
59
IT트렌드연구회, 보이지 않는 힘, 세상을 지배하는 알고리즘, 심포지아
(2019), p27
60
김성태(2021.06.21.), “AI 알고리즘의 딜레마...‘선택의 역설’vs‘에코챔버’·
‘필터버블’” https://zdnet.co.kr/view/?no=20210621135006
<지디넷코리아>,
박지원(2022. 01.02)
유튜브서 정치뉴스 보는 고령층, <세계일보>
https://post.naver.com/viewer/postView.naver?volumeNo=3305
1623&memberNo=15305315&vType=VERTICAL
61
임화섭(2016,03,25). 인공지능세뇌의 위험…<연합뉴스>
https://www.yna.co.kr/view/AKR20160325010151091
최훈진·김주연·민나리·윤연정(2022.01.03.)유튜브 빠져 가족 전화 거절
버튼…<서울신문>https://www.seoul.co.kr/news/newsView.php?id=20
220104008004&wlog_tag3=naver
62
Abstract
63
well as other issues such as the user's convenience and the pursuit
of profits of giant platform operators, are intertwined. Algorithms
seem to operate independently and objectively on the surface as they
are designed in a mathematical language, but the results may vary
depending on the perspective of the algorithm designer. In other
words, the designer's bias is projected to the AI algorithm at the
same time, leaving room for problems of discrimination and prejudice.
Therefore, the person responsible for the bias of the AI algorithm is
also responsible for the response of humans such as the designers.
64