PC 게임을 하다 보면 TV 드라마 대본에서 '지나가는 사람1' 같은 역할을 하는 조연같은 캐릭터들이 꽤 많다. 한 쪽 벽면을 보고 서 있거나, 무언가에 열중하고 있는 이러한 캐릭터들은 비플레이어 캐릭터(Non-Player Character), 또는 약자로 NPC라고 불리운다. 그동안 게임이용자들은 이런 NPC들에게 다가가 클릭을 하거나 농담을 하는 장난을 치곤 했다. NPC들은 보통 손을 흔들거나 인사말을 반복하는 등 매우 정형화된 패턴으로 대응했으며, 이러한 부분은 게임이 실제 현실과는 차이가 있음을 상기시키는 하나의 기제로 작용했다.
그러나 이제 AI기업들은 NPC들에게 감정과 지능을 불어넣기 시작했다. GPU로 유명한 엔비디아사가 발표한 ACE(Avatar Cloud Engine)라는 시스템은 게임안의 NPC들에게 이용자가 말을 걸면 마치 사람처럼 자연스럽게 응답하게 해주는 스피치AI, 어휘선택 및 맥락을 고려한 조리있는 대화 구성을 돕는 거대언어모델(LLM), 그리고 사람과 비슷한 비언어단서(표정과 몸짓)을 가능케 해주는 아바타 등을 복합적으로 활용해 온라인상에서 마치 사람과 소통하는 것과 차이가 거의 없게 느껴지도록 할 수 있는 기술을 보여주고 있다. 예전에도 비슷한 기술은 있었지만, 대용량 데이터를 한꺼번에 처리해야 했기 때문에 화면이 느려지는 등 자연스러운 소통은 어려웠다. 이제 GPU 등 하드웨어와 딥러닝, LLM 등 인공지능의 발달로 난제들이 점점 사라지고 있는 것이다.
국내 게임회사들의 움직임도 기민하다. 예전에는 자연스런 동작 구현을 위해 실제 인간의 동작을 포착하여 저장하는 모션캡쳐라는 기술에 많이 의존했었다. 그러나 이제 엔씨소프트와 같은 한국 게임사들은 첨단 머신러닝과 딥러닝을 활용하여 모션 캡쳐없이도 자연스런 동작과 표정, 사물의 움직임에 대한 현실적 모사를 쉽게 구현할 수있게 되었다. 바닥의 재질에 따라 사람의 걸음거리가 어떻게 달라지는지, 물건의 재료에 따라 벽에 부딪혔을 때 반동이 어떻게 달라지는지, 인공지능은 매우 쉽게 답을 알려준다.
이제 게임안에서 만나는 NPC들이 이용자들과 협업하여 사냥을 함께 하기도 하고, 미션을 함께 수행할 수 있다. NPC들이 이용자들을 교묘하게 괴롭히는 적대적 관계 형성도 물론 가능하다. 더 이상 성우 목소리에 의존하지 않아도 실제 사람과 같은 목소리를 합성할 수도 있게 되었다. 이제 헤드셋으로 들리는 소리가 실제 이용자인지 NPC인지 구별할 길은 없어졌다. 며칠간 함께 플레이를 한 팀원에게 정이 들었다가 사후에야 NPC였음을 알고 배신감을 느끼게 될 수도 있다. 이러한 인간-AI 인터랙션에 대해서는 미리 이용자들에게 고지해야 불필요한 마음의 상처를 줄일 수 있게될 것이다.
지능과 자연스런 감정표현을 두루 갖춘 NPC는 더 이상 비플레이어라고 하기는 어려울 것 같다. 왜냐하면 이용자와의 소통을 다 기억하고 반응하며, 이용자와 팀웍을 이뤄 미션을 수행하고, 때로는 다른 이용자들과의 경쟁에서 이기려고 들 수도 있기 때문이다. 아직 성숙하지 않은 청소년 이용자들이 이런 NPC들과의 관계속에서 불만을 느꼈을 때 보복을 하려들 수도 있을 것이다. 또한 특정 이용자에 불만을 가진 NPC가 이용자를 공격하려 들지도 모른다. 결국 NPC에게 행동과 감정표현의 가이드라인을 주는 것이 필요한데, 그러한 가이드라인은 지나치게 되면 현실감이 떨어질 것이고 너무 느슨하게 되면 이용자에게 오히려 스트레스를 줄 수 있다. 이 부분에서 디테일의 중요성은 매우 부각될 것이며, 인터랙션 전문가, 법률 전문가, 심리전문가, 교육 전문가 등 많은 전문가들의 자문이 필요할 것 같다.
김장현 성균관대 교수 alohakim@skku.edu