생성형 인공지능(AI) 기술은 다양한 분야에서 혁신적인 결과물이 쏟아내며 우리의 삶에 지대한 영향을 미치고 있다. 다만 활용 범위가 민간 영역에 집중된 상황이다. 각국 정부는 생성형 AI를 '게임 체인저'로 인식하고 있지만, 공공 서비스에서 본격적인 생성형 AI 도입은 일어나지 않고 있다.
최근 가트너가 실시한 조사에 따르면 2027년까지 공공 서비스에 실질적으로 생성형 AI를 도입하는 정부와 공공기관 기관 비율은 25% 미만에 불과할 것으로 예상된다. 국내에서도 수년간 디지털 정부 전환이 대두됐지만 실질적 변화를 체감하기는 어렵다.
공공 영역에서 AI 도입 지연 원인으로는 크게 두 가지가 꼽힌다. 첫째는 신기술 도입에 따른 부작용 우려다. 정부 기관은 일부 검증된 AI 기술을 활용하며 효율을 도모했지만, AI의 대표적인 문제로 꼽히는 지능 저하(드리프트)나 환각 현상을 완화하는 제어 수단은 미비한 상황이다. 생성형 AI 채택을 주저할 수밖에 없다.
두 번째는 정책 실패에 대한 두려움이다. 일부 시민은 AI 서비스 필요성에 공감하지 못하거나 그 수준에 실망할 수도 있다. 정치적인 문제로 번질 수 있다는 우려로, 시민 서비스에 신기술 도입하는 속도가 더뎌지는 결과로 이어졌다.
디지털 정부 실현을 위한 해결책은 무엇일까. 우선 정부는 내부 업무 프로세스에 생성형 AI 솔루션을 적극 도입할 필요가 있다. 생성형 AI 도입은 각 기관의 위험 처리 성향에 맞는 속도로 이뤄져야 한다. 초기 단계 시행착오가 정부 서비스에 대한 신뢰를 저하하지 않도록 유의해야 한다.
생성형 AI 기술을 도입하려는 정부 기관이라면, 내부 자원에 가장 큰 영향을 미치는 사용 사례에 집중해야 한다. 이어 시민과 마주하는 공공 서비스에서 발생할 수 있는 위험을 최소화하면서, 생성형 AI 기술 관련 지식과 기술을 구축해 도입 속도를 가속화할 수 있다. 기관 내부에서 개발하거나 외부에서 조달한 AI 기능에 대해 투명한 관리체계와 품질 프레임워크를 마련한다면 기술에 대한 신뢰를 구축할 수 있고 부작용 발생 위험도 완화할 수 있을 것이다.
다만 품질 프레임워크는 객관적이지 않다는 오해를 불러일으킬 수 있다. 그러므로 데이터 프라이버시와 보안 대화 등 공공 서비스 제공 사용 사례와 관련 위험 요소들을 구체적으로 다뤄야 한다. AI 기술 초기 구현 단계 전후로 각 위험 요소를 구체적으로 분석하는 거버넌스 절차 확보가 방법이 될 것이다.
정부 기관은 시민과 내부 직원을 대상으로 하는 AI 솔루션을 도입할 때 사용자의 공감을 얻을 수 있도록 인간 중심 설계 방식을 고민해야 한다. AI 활용이 정책과 내부 업무에 대한 신뢰도로 이어지기 때문이다.
생성형 AI가 지닌 힘은 파괴적이다. 그만큼 신중해야 한다. 정부의 실패는 사회적으로 큰 혼란을 초래할 수 있는 만큼 각 기관의 위험 성향에 따라 생성형AI 기술을 맞춤형으로 도입해야함을 잊으면 안 된다. AI 지배구조 품질 프레임워크 등 안전장치 확보도 염두에 둬야 한다. 이러한 위험 관리와 인간 중심 설계로 '디지털플랫폼정부'를 구축하면서 AI 강국으로 도약하기 바란다.
박동배 가트너 시니어 어드바이저 Dongbae.Park@gartner.com