‘ChatGPT’(챗GPT)가 도대체 뭐야? 새해 벽두에 챗GPT가 화제다. 특히 학계, 지식인 사회, IT 산업계 등에서 탄성과 불안의 목소리가 쏟아져 나오고 있다. 일부에선 ‘앞으로의 세상은 챗GPT 이전과 이후 시대로 나뉠 것’이라는 성급한 전망마저 내놓고 있다.챗GPT는 지난해 말 미국에서 공개된 대화형 인공지능 서비스다. 코딩이나 명령어 조작 없이 사람이 텍스트로 입력을 하거나 말을 하면 인공지능이 그 명령을 수행한다. 인공지능이 사람의 자연언어를 이해하고 소통하는 능력을 갖춘 것이다. 챗GPT는 세상을 어떻게 변화시킬까? 그 세상의 명암은 어떤 것일까? IT 전문 저널리스트이자 디지털 인문학자인 구본권 필자가 챗GPT의 세계를 소개한다. [편집자 주]

✔ 경탄과 공포를 동시에 부르는 대화형 인공지능 ‘챗GPT’(ChatGPT)✔ 예술과 창작 같은 인간 고유의 영역마저 인공지능에게 침해 되는가✔ 가장 직접적인 위기를 맞게 된 학교, 과제와 평가의 양상 달라져✔ 사실을 검증하는 인간의 역할이 더 중요해진 챗GPT와 탈진실 시대

사진:셔터스톡

미국의 인공지능 연구조직인 오픈AI(Open AI)가 지난해 11월 30일 공개한 대화형 인공지능 ‘챗GPT’(ChatGPT)가 서비스에 나서자 곳곳에서 경탄과 공포감이 분출하고 있다. 모든 기술은 양면성을 지니는 만큼, 기회와 위협 요인을 정확히 아는 것이 중요하다.

몇 초 만에 질문에 답을 내놓다

“대규모 언어 모델인 챗GPT는 다양한 산업 분야의 기업, 연구원 및 개발자에게 다음과 같은 많은 기회를 제공한다.

*기회 요인-자연어 처리 및 이해 : 챗GPT는 텍스트 생성, 번역 및 요약과 같은 작업의 정확성과 효율성을 향상시키는 데 사용될 수 있다.-챗봇 및 가상 비서 : 챗GPT는 고객 서비스, 개인 비서 및 기타 응용 프로그램에서 사용할 수 있는 인간과 유사한 대화 에이전트를 만드는 데 사용될 수 있다.-내용 작성: 챗GPT는 기사, 이메일, 소셜미디어 게시물과 같은 고품질의 텍스트 콘텐츠를 생성하는 데 사용될 수 있다.

*위협 요인-일자리 대체 : 챗GPT 및 이와 같은 다른 언어 모델은 이전에 인간이 수행했던 작업을 자동화하여 잠재적으로 일자리를 대체할 수 있다.-편향 및 잘못된 정보 : 챗GPT는 인터넷의 텍스트 데이터 세트를 갖고 훈련하기 때문에 해당 데이터에 존재하는 편견과 잘못된 정보를 영구화할 수 있다.-개인정보 및 보안 문제: 챗GPT는 자연어를 처리하고 이해하기 위한 강력한 도구이기 때문에 감시 또는 기타 악의적인 목적으로 모델을 오용할 가능성에 대한 우려가 있을 수 있다.

챗GPT의 잠재적인 영향은 어떻게 사용되는지에 따라 달라질 것이며 모델을 개발하고 배포할 때 윤리적 고려 사항을 염두에 두는 것이 중요하다.”

위 문장은 필자가 챗GPT에서 “챗GPT가 제공할 수 있는 주요 기회와 위협은 무엇인가?”라는 질문을 던지고 불과 몇 초 만에 얻어낸 답변이다. [그림 1](챗GPT에서 한국어 사용도 가능하지만, 현재는 영어로 질문을 던졌을 때 답변 내용이 좀더 풍부하다. 위 문답도 영문으로 이뤄졌다.) 사람이 해당 주제에 대해 간단한 보고서를 쓰거나 기사를 작성한다면 아마도 대동소이한 내용으로 답변이 이뤄졌을 법하다.

[그림 1]

다른 질문들을 던지면 어떤 수준일까? 챗GPT에 “현재 한국의 가장 주요한 문제는 무엇인가?”라는 포괄적인 질문을 던져봤다. 챗GPT는 즉시 아래와 같은 내용으로 답변했다. [그림 2]

“현재 대한민국의 가장 주요한 문제가 무엇인지는 누구에게 묻고 어떤 관점을 갖느냐에 따라 달라질 수 있기 때문에 답변은 주관적이다. 그러나, 한국에서 일반적으로 중대한 문제로 언급되는 몇몇 문제들은 경제적 불평등, 높은 생활비, 청년 실업, 고령화, 그리고 높은 자살률을 포함한다. 게다가, 북한과의 지속적인 정치적, 경제적 긴장 또한 한국에게 중요한 관심사이다.”

[그림 2]

챗GPT 등장으로 인해 변화할 ‘인간의 일’

위 사례들처럼 챗GPT는 무슨 질문에건 막히지 않고 몇 초 만에 현재 상식을 반영한 내용을 요령 있고 논리적으로 요약해 제공한다. 이처럼 챗GPT의 기술을 알아보는 가장 좋은 방법은 직접 체험해보는 것이다. 2023년 1월 현재 챗GPT 사이트(그림 3)에 접속해 계정을 만들면 누구나 무료로 이용이 가능하다. 초기 메뉴가 영문이고 계정 생성을 위한 절차가 있지만, 복잡하지 않고 질문은 한국어로 해도 얼마든지 가능하다. 오픈 닷새 만에 이용자가 100만 명을 넘어서고 다양한 테스트 결과가 쏟아지면서 사람의 지적 활동과 창작적 행위에 대한 근본적 회의와 위기감이 생겨나고 있다.

[그림 3]

학술논문 초록 작성, 프로그래밍 코드 작성, 수학 문제 풀이, 발표 자료 만들기, 기사 작성 등에서 챗GPT를 활용한 사례가 속속 보도되고 있다. <네이처>는 최근 챗GPT를 활용한 논문 초록이 과학자들을 우롱했다고 보도했다.(Holly Else, “Abstracts written by ChatGPT fool”, Nature, 2023.1.12.) 챗GPT가 만든 논문 초록은 독창성 점수 100%로 표절검사기를 통과했고, 리뷰어인 전문가들과 거의 같은 수준의 진위 식별 능력을 과시했다. 세계 최고학술지의 논문 초록 작성을 인공지능에 맡겨도 식별이 어려워졌다. 국내 언론에서도 기자가 질문을 던지고 인공지능이 답변한 내용을 그대로 소개하는 ‘챗GPT에게 OOO을 물었더니...’ 형태의 기사가 다양한 형태로 쏟아지고 있다.(강한들, “인공지능 ChatGPT에게 기후위기를 물었다”, <경향신문>, 2023.1.22. 박성국, “인공지능 챗GPT에게 ‘UAE의 주적’이 누구인지 물어봤다”, <서울신문>, 2023.1.21.) 구글은 지난해 12월 챗GPT로 인해 구글 검색 모델에 심각한 위기가 찾아왔다며 사내에 경보를 발령하고 대응책 마련에 분주하다.

학교, 발등에 불이 떨어졌다

시험과 평가를 통해 성적과 학위를 발급하는 교육기관은 당장 발등에 불이 떨어졌다. 뉴욕과 시애틀 등지의 미국 공립학교는 교내 와이파이망과 컴퓨터를 통한 챗GPT 접속을 차단했다. 챗GPT 사용 사례가 알려지면서 일부 대학은 시험과 과제물 제출 때 컴퓨터를 이용하지 못하도록 하고, 직접 손으로 써서 내도록 바꾸는 추세다. 제출 내용에 대해 구술 시험을 병행하는 방법도 시행되고 있다.( Kalley Huang, “Alarmed by A.I. Chatbots, Universities Start Revamping How They Teach”, The New York Times, 2023.1.16.)

하지만 응급조처일 뿐이다. 챗GPT와 같은 대화형 인공지능은 갈수록 보편화하고 일상적 도구가 될 것이기 때문이다. 학교에서 챗GPT를 금지할 게 아니라 오히려 이를 적극적으로 가르쳐야 한다는 주장이 나오는 배경이다.(Nata Metlukh, “Don’t Ban ChatGPT in Schools. Teach With It”, The Newyork Times, 2023.1.12.) 인공지능이 검색처럼 보편적 도구가 되는 상황에서는 챗GPT가 어떻게 작동하는지 알아야 제대로 활용할 수 있으며, 어떤 데이터를 학습하고 편향을 지니고 있는지와 어떻게 오용될 수 있는지를 가르치는 게 중요해지기 때문이다.

학교에서 챗GPT를 이용하고 공존하는 법을 가르쳐야 한다는 논리가 전제하는 것은 인공지능의 보편화는 막을 수도 없고 이제 시작 단계일 뿐이라는 점이다. 챗GPT는 기존의 텍스트 데이터를 학습한 ‘거대 언어모델’(Large Language Model) 기반의 인공지능으로, 오픈AI만이 아니라 구글, 아마존, 마이크로소프트, 네이버, 카카오 등 수많은 기업들이 뛰어들어 경쟁하는 영역이다. 또한 오픈AI가 2020년 GPT3를 선보였고, 챗GPT가 GPT3를 기반으로 한 대화형 인공지능 모델인데, GPT3의 다음 버전인 GPT4가 올해 상반기 등장할 예정이다. 전문가들은 GPT4가 단순한 언어모델을 넘어서는 강력한 인공지능일 것으로 예상하고 있다. GPT4가 음성·영상 등 다양한 형태의 정보를 처리할 수 있는 멀티모달 인공지능(MultiModal AI)일 경우, 파장은 기존과 비교하는 게 불가능하다.

챗GPT는 왜 충격적 도구인가

2016년 3월 이세돌 9단과 알파고의 대국 5판이 인공지능 시대의 도래를 알린 차기작 제작 예고편이라면, 이번 챗GPT는 영화 본편이 제작 마무리 단계에 이르렀다는 것을 알려주는 ‘개봉 임박’ 예고편이다. 컴퓨터 칩의 처리능력이 24개월마다 약 2배로 증가한다는 무어의 법칙이 지배하는 정보기술 산업에서 인공지능이 전기처럼 범용도구로 자리잡고 있다는 것을 챗GPT는 예고한다.

거대 언어모델(LLM) 기반의 인공지능을 활용한 이미지 창작 도구 미드저니(Midjourney), 달리2(DALL-E2)에 이어 챗GPT 등장이 충격적으로 받아들여지는 까닭은 기존에 우리가 언어와 사고를 인간만의 능력으로 여겨왔기 때문이다. 그런데 인공지능이 거대 언어모델을 통해 사람들의 언어 자료를 학습한 덕분에 사람의 자연언어를 이해하고 소통할 수 있는 능력을 갖게 됐다. 이제는 코딩이나 명령어 조작 없이 텍스트로 입력을 하거나 말을 하면 인공지능이 이를 수행한다. 위의 사례들에서 보듯이, 기계번역 초기의 어색하고 거친 흔적이 없고 깔끔하고 매끈해 인공지능의 작업이라는 표시가 나지 않는다. 인공지능 시대에도 기계가 모방할 수 없는 예술과 창작처럼 ‘사람만의 고유한 영역’이 존재할 것이라고 기대해 온 미래 예측이 속절없이 붕괴하고 있는 상황이다.

중요한 것은 인공지능이 갈수록 강력해지고 편리해져서, 많은 영역에서 인간의 작업과 구별되지 않을 것이라는 점이다. 현재 답안지나 기사 같은 글쓰기 영역에서 챗GPT의 결과물인지를 파악하는 하나의 잣대는 ‘오·탈자나 비문이 존재하는가’일 정도다. 인공지능은 사람처럼 오·탈자와 비문을 만들지 않기 때문이다.

그렇지만 강력하고 편리한 도구의 등장을 비관할 일은 아니다. 더 강력함과 편리함은 기술의 기본 뱡향이다. 현대인은 갈수록 더욱 강력해지고 편리해지는 도구와 함께 살아야 할 운명이다. 현재 수준에서는 챗GPT와 같은 도구의 보편화를 예상하면서 그 기술의 핵심적 특징을 이해하는 게 우선이다.

최근의 거대 언어모델 인공지능 도구(챗GPT, 미드저니, 달리2 등)는 기존에 인공지능을 이용해 데이터를 출력하거나 작업명령을 지시할 수 있는 문턱이 낮아지게 된다는 걸 의미한다. 기존에 해당 분야 종사자와 전문가들의 전유물이던 영역이 앞으로는 인공지능을 활용할 줄 아는 만인에게 개방되는 환경이기 때문이다. 그래픽유저인터페이스(GUI) 방식의 윈도 운영체제가 등장하기 이전에는 도스(DOS)와 프로그래밍 언어를 아는 사람만 컴퓨터를 조작할 수 있었고 나머지는 ‘컴맹’이던 시절과 유사하다. 윈도 운영체제 이후 누구나 컴퓨터를 조작할 줄 알게 되고, 정보화시대가 실질적으로 열렸다.

인공지능이 손 안에서 활용되면

앞으로 누구나 인공지능을 도구로 활용하는 세상이 되면 어떤 일이 벌어질까? 인터넷 대중화 이후 생긴 변화를 참고할 만하다. 인터넷 이후엔 지난날 전문가에게 묻거나 도서관을 이용해야 접근할 수 있던 정보와 노하우를 누구나 손 안에서 이용할 수 있게 되었다. 지금은 궁금한 게 있는데 어디에 가면 상세한 정보가 있을지 막막하거나 도무지 방법을 찾을 수 없는 경우는 극히 드물어졌다. 무엇이든 적절한 검색어를 입력하고 찾아낸 정보를 분석해낼 줄 알면 전문가 수준의 지식에 도달할 수 있는 길이 열렸다.

하지만 검색과 모바일 인터넷이 대중화되었다고 해서 모든 사람이 특정 분야의 전문가나 달인이 되지는 않았다. 오히려 활용 능력 여부에 따라 격차가 커졌을 따름이다. 과거보다 편리하고 강력한 루트가 열렸다는 사실이 만인을 그 길의 현명한 이용자로 만들지는 않는다. 챗GPT는 마치 검색처럼 전에 없이 강력하고 편리한 도구가 우리 손에 주어졌다는 것을 의미한다.

이로 인해 앞으로 어떠한 변화가 닥칠지 섣불리 전망하기는 어렵지만, 한 가지 분명한 것은 지금과 차원이 다른 수준의 변화와 놀라운 일이 상시적으로 일어나는 ‘충격의 연속’이 일상이 될 것이라는 점이다. 현재 드러난 챗GPT의 특성 중 주목할 게 두 가지 있다.

첫째, 챗GPT는 기본적으로 우리가 알고 있는 것을 요약하고 정리해서 답변해주는 도구라는 점이다. 새로운 사실과 관점을 밝혀내는 게 아니라, 보편적으로 수용되거나 확립된 사실과 관점을 깔끔한 논리와 문장의 형태로 출력하는 도구일 뿐이다.

둘째, 챗GPT는 사실 확인을 하지 않고 부정확한 사실이나 잘못된 사실도 확신하는 문구와 표현으로 출력물을 내놓는다는 점이다.

사진:셔터스톡

기존과 차원이 다른 ‘탈진실 시대’의 도래

이런 특성은 모두 기존 데이터를 통해 학습하는 인공지능의 기본 속성이다. 채팅로봇 ‘테이’나 ‘이루다’가 문제가 된 사례나 각종 알고리즘이 인종·성별 편향으로 비판받은 것과 마찬가지다. 챗GPT의 이러한 특성은 오히려 인공지능 기술의 한계를 드러내며, 미래 사회에 어떠한 능력이 필요한지를 알려준다. 옥스퍼드 영어사전이 2016년 말 올해의 단어로 ‘포스트트루스(PostTruth)’를 선정하고, 컨설팅기업 가트너가 2017년 “2022년이 되면 선진국 대부분의 시민들은 진짜 정보보다 거짓 정보를 더 많이 이용하게 될 것”이라고 전망했는데, 이런 예측대로 이후 ‘탈진실’ 현상은 가속화하고 있다. 창작 능력에서 포토숍과 동영상 편집도구, 소셜미디어 수준을 훌쩍 뛰어넘는 챗GPT 시대는 인류 사회가 일찍이 경험하지 못한 가상과 허위, 조작의 시대가 될 가능성이 높다.

챗GPT가 사실이 아닌 내용을 사실로 포장해 결과물을 출력한다는 점은 사실 검증자로 이용자의 역할이 더욱 중요해지는 세상이 된다는 것을 의미한다. 사실과 신뢰성을 검증할 수 있어야 그 결과물을 제대로 활용할 수 있다. 비판적 사고와 검증 능력이 챗GPT 환경에서 핵심 역량이 되는 이유다. 기자였던 어니스트 헤밍웨이는 좋은 글쓰기의 비결에 대해 “헛소리 탐지기를 내장하는 게 최선”이라고 답했다. 챗GPT와 탈진실 시대에는 사실을 검증하는 ‘헛소리 탐지기’로서 인간 역할이 어느 때보다 중요해진다.


글쓴이 구본권은IT 전문 저널리스트이자 디지털 인문학자다. <한겨레> 사람과디지털연구소 소장을 맡고 있다. 정보기술이 사회와 개인에게 끼칠 비기술적 영향에 관심을 두고 활동하고 있다. 서울대 철학과를 나왔고, 한양대에서 언론학 박사학위를 받았다. <로봇시대 인간의 일> <공부의 미래> <유튜브에 빠진 너에게> 등의 책을 저술했다.