남아프리카 공화국의 전 남아프리카 여객 철도청(Prasa) 수석 엔지니어였던 다니엘 므팀쿨루는 지난 9월 3일에 자격 위조 혐의로 15년 형을 선고받았다. 최소 5년 동안 Prasa의 엔지니어링 부서를 이끌며, 약 16만달러의 연봉을 받아왔던 그는 해당 기업의 취업 결정에 결정적인 역할을 한 이력서 상의 두 개 대학의 박사 학위를 허위 기재했다 한다. 그는 이 문서상의 거짓을 통해 국영 철도회사에의 취업뿐만 아니라 독일 회사로부터 받은 허위 직책 제안서를 위조해 연봉 인상을 이끌어냈으며, 그렇게 확보한 무형의 조직 내 신뢰를 이용해 스페인으로부터 수십대의 새로운 기차를 구매하는 3200만달러 규모의, 현지 상황에 맞지 않는 프로젝트까지 주도했다 한다.
이 사건은 한 개인의 범죄로 보일 수 있지만, 한편으로는 우리 사회가 오랜 시간 익숙하게 인정해 온 '문자화'와 문서의 진실성에 대한 관대함을 드러낸 사례라 할 수 있다. 즉, 인간이 문자를 통해 정보를 기록해 온 과정이 역사적으로 오랜 시간 신뢰의 상징으로 자리 잡아 왔음을 알려준다. 그리고 우리는 생성형 인공지능(AI)을 일상적으로 사용해 더 담대하고, 더 쉽게 이 '문자화'를 둘러싼 신뢰를 자신의 의도대로 활용하는 제2, 제3의 다니엘 므팀쿨루를 만나고 있다. 2022년 챗GPT-3을 사용한 연구자들 중에는 AI를 이용해 사실은 존재하지 않는 실험 데이터를 바탕으로 신경외과 관련 가짜 논문을 성공적으로 작성한 사례가 있었다. 이처럼 우리의 일상에 들어온 대형 언어 모델(LLM)은 텍스트를 기반으로 인간의 사고와 표현을 자동화한다. 이는 과거 문자와 인쇄술이 정보의 민주화를 가능하게 한 것처럼, 텍스트 생성과 전파를 대규모로 자동화하여 사회적으로 큰 영향을 미칠 수 있는 만큼, 동시에 표현의 자유를 왜곡할 수 있는 위험성도 가지고 있음을 강조한다.
루트비히 비트겐슈타인은 그의 후기 저서 '철학적 탐구'에서 언어가 단순히 사물을 기술하거나 정보를 전달하는 도구가 아닌 사회적 상호작용과 행위를 규정하는 규칙적 활동임을 '언어 게임'(Language games)이란 개념으로 설명한 바 있다. 그는 각각의 언어 게임마다 가지고 있는 규칙과 목적의 다양성, 때로는 암묵적일 수도 있는 언어 게임 참여자들 간에 공유되는 특정 규칙과 규범, 그리고 명령하기, 질문하기, 주장하기, 설명하기 등의 다양한 행위가 사회적 언어 게임의 특징이라 했다.
그리고 현재 LLM은 언어를 생성하고 이해하는 방식에 있어서 새로운 형태의 언어 게임을 형성하거나 기존의 언어 게임을 변화시키고 있다. 우선 LLM은 텍스트를 통한 자동화된 대화를 생성해 기존의 인간 간 대화와는 다른 규칙과 패턴을 경험하게 한다. 그리고 이는 곧 작가, 기자, 블로거 등이 LLM을 통해 다양한 형태의 텍스트를 생성할 수 있게 만들어 새로운 협력적 언어 게임을 만들어낸다. 또 LLM은 정보의 통제와 권력관계에 새로운 변화를 가져와 특정 주제나 시각을 강조하거나 억제하는 방식으로 언어 게임을 조작할 수 있게 한다. 다시 말해 AI로 인해 새로운 언어 게임이 형성되면서, 표현의 자유가 기술적으로는 확장되지만 동시에 왜곡될 가능성이 심각하게 커졌다. 즉 개인의 윤리적 책임감에만 기대하기에는 그 사회적 영향력과 파괴성이 충분히 고려되지 못하고 있음을 뜻한다. 이는 곧 최근 브라질 정부와 X의 대표 일론 머스크 사이의 긴장을 촉발하는 주요 원인이라 할 수 있으며, 독일, 스페인, 브라질 등 여러 국가로부터 받은 범죄 행위에 사용된 텔레그램에 대한 법적 명령 미준수로 마찰을 빚어온 텔레그램 대표의 체포 뉴스와도 연결이 된다.
때문에 이 변화된 언어 게임의 실태를 직접 파악하고 그 영향력의 실체를 구체적으로 조사하는 제3의 역할에 대한 필요가 앞으로 더 절실해질 것이다. 필자는 이를 디지털 현실 중재자(Digital Reality Mediator)라 정의하고자 한다. 이 역할은 AI와 사용자 간의 상호작용을 현장 관찰하고, 사회적 신뢰 유지 및 표현의 자유를 관리하는 데 중점을 두어 플랫폼 기업 내 대표자와 규제 당국 사이의 갈등 요인을 조율하는 역할이라 할 수 있다. AI와 사용자를 분리해서 바라보는 시각이 아닌 이 둘 모두를 새로운 언어 게임 생성의 하이브리드 주체로 이해하고 관찰 조사해 편향되거나 부정확한 정보를 퍼뜨리는 AI 알고리즘 패턴을 분석, 이를 정부와 기업에 제안할 수 있다. 이 같은 알고리즘 감사와 사용자 현실 관찰 조사 결과는 곧 정부 주체의 과도한 규제의 범위를 보다 명확하게 조정하는 데 도움이 될 수 있으며, 이 역할을 고용한 플랫폼 기업의 사회적 책임을 강화한 의미로 받아들여질 수 있을 듯하다.
손병채 ROC(Reason of creativity) 대표 ryan@reasonofcreativity.com