인공지능은 표절 할 수 있는가

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 2

분 반 날 짜

기초글쓰기
학 번 이 름

사설, 칼럼 [전치형의 과학 언저리]

인공지능은 표절할 수 있는가


전치형

글 쓰는 인공지능(AI)이 대학 수업 글쓰기 과제를 무력하게 만들 것인가? 인공지능 연구기업 오픈


에이아이가 지난달 내놓은 언어 생성 모델 챗지피티(ChatGPT)를 사용해본 사람들이 한번씩 해보는
질문이다. 챗지피티는 사용자가 알고 싶은 정보나 쓰고 싶은 글의 주제를 적절한 지시 사항과 함께
입력하면 놀랍도록 매끄러운 텍스트를 생성해서 보여준다. 누군가 챗지피티에 에세이 작성을 요청하
고 그것을 살짝 가공해서 글쓰기 과제로 제출하면 나쁘지 않은 점수를 받을지도 모른다. 이제 학생
들에게 인공지능이 쓴 글을 표절하면 안 된다고 알려야 하는 시대가 됐다.
인공지능이 쓴 글을 그대로 베끼지 말고 정식으로 인용하고 활용하면 해결되는 문제일까. 막상 그
렇게 해보려고 하니 이런저런 질문이 떠오른다. 내가 묻거나 요청한 것에 반응하여 챗지피티가 내놓
은 텍스트를 인용하려면, 그 텍스트의 저자는 누구라고 쓰고 그 제목은 무엇이라 써야 할까? 챗지피
티는 자신이 생성한 글이 인간 저자의 글과 마찬가지로 출처를 밝혀가며 인용되기를 원하기는 할
까? 챗지피티에 물어보니 이에 관한 나름대로 명확한 답을 가지고 있었다. 자신의 답변을 사용해서
글을 쓸 때는 그 부분에 인용표시를 하고 ‘조수’(어시스턴트)라는 저자 이름을 적어 달라고 한다. 이
제 온갖 분야 글들의 참고문헌 목록에 ‘조수’가 쓴 수많은 텍스트가 오르게 생겼다.
그러나 챗지피티의 요청대로 (조수, 2023)과 같이 출처를 표기하고 챗지피티의 글을 인용하려 할
때 우리는 다소 곤란한 문제에 직면한다. 어떤 글을 출처를 밝히면서 인용해야 할 대상으로 간주한
다는 것은 곧 그 글 또한 검증과 비판의 대상으로 삼을 수 있음을 뜻한다. 그 글에 들어간 데이터,
개념, 표현, 문장 등이 사실에 근거하면서 저자의 고유한 생각을 드러내고 있는지 따져볼 가능성이
열려 있다는 말이다. 챗지피티의 문제는 이 ‘조수’라는 저자가 자신이 쓴 글 내용의 검증에 응하거
나 글의 논지를 방어하는 데에 아무런 관심이 없다는 점이다. 챗지피티는 어떤 답변을 생성할 때 활
용한 정보의 구체적인 출처를 제공하지 않는다. 이에 관해 묻자 그저 “내게 주어진 정보를 가공하고
재배치하여 답변을 내놓는 것”이라고만 한다. 수집 가능한 모든 정보를 학습했지만 어떤 답변을 위
해 어떤 자료를 썼는지 특정할 수 없다는 것이다. 그렇다면 챗지피티가 생성한 텍스트를 얼마나 믿
고 써야 할지 알기 어렵다.
의구심이 생긴 나는 챗지피티에 한번 따져 보았다. 네가 내놓은 텍스트가 네가 직접 쓴 것인지,
다른 글을 표절한 것은 아닌지 어떻게 알 수 있냐고 물었다. “주어진 정보를 가공하고 재배치”하는
과정에서 혹시 남의 글을 표절했는지 검증할 수 없는 글을 (조수, 2023)으로 인용하기는 부담스럽기
때문이었다. 챗지피티는 자신에게는 “표절하는 능력이 없다”고 대답했다. 인용표시 없이 기존 텍스
트와 유사하거나 동일한 텍스트를 생성하는 것은 가능하지만, “의도적으로 표절하는 능력은 없다”고
도 했다. “나만의 생각, 감정, 경험이 없으며 인간과 같은 방식으로 독창적인 콘텐츠를 만들지 않는
다”는 것이다. 자신이 생성하는 텍스트는 독창적이지 않으며 그저 정보의 가공과 재배치 결과라고
말함으로써 챗지피티는 표절 혐의를 부인했다. 인공지능은 표절하지 못한다. 글 쓰는 인공지능의 시
대에 비로소 표절은 인간의 고유한 능력이 됐다.
챗지피티와 같은 인공지능은 분명 글을 쓸 수 있다. 글을 쓴다고 말하기가 꺼림칙하다면 적어도
글을 생성한다고는 말할 수 있다. 우리는 그것을 편리한 글쓰기 도구로 활용하게 될 것이다. 이제
고민해야 할 과제는 인공지능이 생성한 텍스트를 기존의 저자와 텍스트의 네트워크 속으로 어떻게

- 1 -
받아들이느냐는 것이다. 챗지피티는 자신이 “전통적인 의미의 저자”는 아니라고 말한다. 그러나 (조
수, 2023)이라며 인공지능의 글을 인용할 때 우리는 인공지능을 사실상 저자로 인정하는 셈이다. 무
척 아는 것이 많지만 항상 신뢰할 수는 없고 검증하기도 어려운 저자다. 또 인간과 달리 표절하는
능력을 갖추지 못한 이상한 저자다. 표절하지 못하는 자, 즉 아무런 의도나 동기 없이 텍스트를 생
성하는 자는 과연 저자가 될 수 있는가. 앞으로 (조수, 2023)이라고 인용 표기된 글을 만날 때마다
계속 묻게 될 것 같은 질문이다.

-전치형, 「인공지능은 표절할 수 있는가」,한겨레신문,


https://www.hani.co.kr/arti/opinion/column/1074600.html(2024.3.30.).

- 2 -

You might also like