행정부, 법원, 지방자치단체, 국회와 같은 공공 조직은 국민의 삶에 지대한 영향을 미치는 공적 의사결정을 수행한다. 이러한 공적 의사결정이 초래하는 크고 작은 영향력을 고려할 때, 전자민주주의, 전자정부, 스마트플랫폼 정부 등으로 불려 온 공적 의사결정 지원을 위한 정보기술(IT) 활용은 앞으로도 중요할 것이다.
인공지능(AI) 기술이 체계를 갖춰가던 1970~1980년대 등장한 전문가 시스템은 특정 영역 전문가의 지식을 데이터베이스에 저장해 두었다가 사용자가 궁금해 하는 문제가 있을 때, 관련 정보를 검색하고 추론해주는 기능을 갖고 있다. 전문가의 지식과 경험을 저장한 지식 데이터베이스, 사용자의 요구에 따라 검색과 추론을 하는 추론 엔진, 그리고 사용자와 시스템이 상호작용할 수 있는 인터페이스가 그 구성요소다. 1970~1980년대만 해도, 전문가의 지식을 보존하고 검색하며 그로부터 추론을 이끌어낼 수 있다는 것만으로도 놀라운 기술이었다. 그러나, 지식 획득과 입력 자체가 쉽지 않고, 흔히 암묵지라 불리우는 전문가의 노하우를 입력하는 데 어려움을 겪었다. 또 전문지식이 아닌 상식에 기반한 추론에 오히려 약점을 보였고, 많은 불확실성을 포함하는 현실세계의 문제를 해결하기에는 한계가 컸다.
이러한 전문가시스템의 한계로 인해 등장한 다양한 대안들이 있는데 그 중 하나가 지능형 의사결정지원 시스템이다. 이 시스템은 AI 기술을 의사결정 지원에 도입하면서 전문가 시스템의 지식중심 접근과 전통적 의사결정 지원 시스템의 데이터분석, 모델링을 결합해 다양한 의사결정을 지원할 수 있다. 초고속 연결망을 이용한 실시간 데이터 분석도 가능하며, 시스템이 출력한 결과에 대한 근거와 추론 과정을 부분적으로나마 설명할 수 있기도 하다. 이러한 지능형 시스템에도 몇 가지 단점은 있다. 시스템을 유지 보수하는 데 드는 비용이 크고, 데이터의 양과 질이 떨어지면 의사결정의 질도 함께 악화된다. 그리고, 딥러닝과 같은 복잡한 AI 연산에 근거한 결과에 대해서 이용자가 쉽게 이해할 수 있도록 설명하는 것은 여전히 매우 어렵다. 다만 최근 '설명가능한 AI' 기술의 발달로 이러한 어려움이 점차 해소되고 있다.
이렇게 날로 발전해가는 IT 기반 의사결정 지원체계에 있어 가장 큰 장애물은 무엇일까? 기술 그 자체? 아니다. 인간의 비합리성이다. 특히 리더십에 문제가 있을 경우, 큰 문제가 된다. 리더가 가족, 친척, 학연, 지연 등 개인적인 인맥을 이용해 그들에게 특혜를 주거나 불공정한 자원 배분을 하는 경우를 우리는 네포티즘(nepotism)이라고 부른다. 폐쇄적인 정보교류로 인한 불신의 확대, 부당한 인사와 그 과정을 곁에서 보는 동료들의 불안감, 리더의 의사결정으로 인한 신뢰 저하, 조직내 루머의 확산으로 인한 가짜뉴스의 범람 등 잘못된 리더와 측근 그룹이 초래하는 문제가 바로 네포티즘이 조직에 끼치는 해악이다. 이러한 조직에 아무리 최신의 지능형 의사결정지원 시스템이 갖춰져 있다고 해도, 네포티즘에 휩쓸린 리더를 비롯한 주요 의사결정자들은 합리적 의사결정을 포기해 버릴 것이다.
AI가 데이터를 기반으로 최적의 답을 제안해 봤자 인간이 그것을 무시해버린다면 별다른 도리가 없다. 아무리 언론에서 비판해도 해외 출장을 빌미로 유람을 즐기는 국민의 대표자들, 법을 자신과 측근의 보위를 위한 도구로 활용하는 리더들, 지역감정을 부추기며 이성적 판단을 마비시키는 사람들이 바로 의사결정의 투명성을 거부하는 사람들이다. 작은 행정 업무에서 대형 국책사업까지, AI와 인간이 많은 협업을 하고 올바른 결정을 많이 하기를 바란다.
김장현 성균관대 교수