지난 칼럼에 챗GPT가 질문은 할 줄 모르며 대답만 잘하는 답GPT라 썼다. 백과사전적 모범답안을 늘어놓지만 질문은 할 줄 모르는 한국형 모범생을 닮았다. 주입식 교육의 결과다.
챗GPT가 못하는 한 가지를 더 찾았다. 챗GPT는 '거짓말'을 못한다. 거짓말은 옳지 않기 때문에 챗GPT는 우리보다 도덕적일까? 아니다. 챗GPT는 거짓말을 할 능력이 없다. 그러므로 챗GPT는 참말을 할 능력도 없다. 챗GPT는 자신의 말이 참말인지 거짓말인지 알 도리가 없기 때문이다. 물론 챗GPT에 '거짓말이란 무엇인가'라는 단순한 질문을 던지면 번지르르한 모범답안을 출력한다. 거짓말과 참말의 차이가 무엇이냐는 질문에는 장황한 답을 출력한다. 거짓말도 참말도 할 수 없으면서 거짓말과 참말의 차이는 출력 가능한 챗GPT는 참 묘한 존재다.
우리가 답GPT에 주눅드는 것은 주입식 교육에 길들여져 있던 학창시절에 암기력 부족으로 선생님께 꾸중 듣던 가슴 아픈 '암기력 컴플렉스' 때문이다. 우리는 '주입된 기억력' 이외에 진짜 질문하기를 잃었다. 위키피디아는 출범 10년 만에 244년 전통의 브리태니커 백과사전 인쇄를 끝냈지만 우리의 주입식 교육 숭배는 여전하다.
인공지능(AI) 발전은 역설적으로 그동안 우리가 놓친 더 중요한 근원적인 것들을 알려준다. 아는 척 하는 세련된 말재주와 깊이 체화된 지식의 차이다. 챗GPT는 미국 의사면허시험과 경영학 및 로스쿨 시험을 통과하며 기계적 암기능력 및 번지르르한 말재주를 정신적 능력의 지표로 굳게 믿어 온 주입식 교육에 종언을 고했다. 몇 학교는 챗GPT 사용을 금지했다. 적반하장, 주입식 교육만 제공하겠다는 자백이다. 이제 학생을 간편히 평가해서 서열화하려는 게으름과 입시문제 출제 권력의 남용을 내려놓을 일만 남았다.
챗GPT에게 거짓말을 해달라고 애걸복걸 말을 걸어보자. 챗GPT는 “언어모형인 나에게는(As a language model),... '의식'이나 '의도'가 없고, 상대방의 '의도'나 '감정'을 추정할 능력이 없으며, 말로 표출된 언어의 진실성(veracity)을 검증할 능력이 없어 거짓말을 할 수 없다”고 답할 것이다. 거짓말이 없다면 참말도 없다.
거짓말도 참말도 아닌 챗GPT의 '언어'란 과연 무엇인가. 챗GPT가 정확히 짚은 '언어모형'이다. '언어모형'인 챗GPT가 출력하는 '언어 모사물'은 마치 부조리 연극의 '대머리 여가수'처럼 존재의 의사를 표현하려는 '인간 존재의 언어'와는 완전히 분리되어 있다. 사뮈엘 베케트의 '고도를 기다리며'에는 '고도'도 '기다림'도 없다. 전달하려는 의사가 없으니 소통도 없다.(언어가 과연 인간의 의사를 제대로 표현해 낼 수 있는가에 대한 물음은 논외로 하자)
챗GPT와 달리 우리는 하루에도 몇 번씩 (선한 의도로) 거짓말을 한다. 사람 간 의사소통은 참말과 거짓말 간 경계선 위의 긴장감 넘치는 자각에서 비로소 시작된다. 어니스트 헤밍웨이의 말처럼 훌륭한 작가가 되기 위해서는 '헛소리 탐지기'를 내장해야 한다.
리어나도 디캐프리오의 “잡을 테면 잡아 봐”(Catch me if you can)처럼 챗GPT는 사기꾼에겐 각 분야의 전문가 사칭에 정말 쓸 만한 도구다. 전문용어와 번잡한 지식체계 뒤에 숨은 가짜 전문가들이 설 땅은 이제 없다. 챗GPT의 미국 의사면허시험 합격은 조금도 놀랍지 않다. 언어모형이 모사한 '주입된 헛소리' 탐지능력 없이 더 높은 점수를 주는 출제 매너리즘과 문제은행 때문이다. 서울 강남구 대치동의 학원은 정확히 그 지점을 공략한다. 한편 챗GPT가 기초물리학 시험에서는 꽤 고전하는 것으로 평가된다. 인간의 언어로 물리 세계를 온전히 서술함에 어려움이 있고, 물리 세계와는 분리된 평면적 언어모형으로는 물리법칙 모사에 한계가 있기 때문이다.
서울대 의대 정보의학 교수·정신과전문의 juhan@snu.ac.kr
-
정현정 기자기사 더보기