금융당국이 금융권에서 적용할 수 있는 '설명 가능한 AI(XAI) 안내서'를 이르면 3분기 내에 내놓는다. 신용평가 등에서 확대되고 있는 AI 의사결정에 대한 신뢰성이 높아지는 한편 고객도 보다 쉽게 금융 서비스 결과를 이해할 수 있을 것으로 관측된다.
금융위원회와 금융보안원은 설명 가능한 AI 안내서 작성을 위해 은행, 신용평가사 등과 함께 워킹그룹 운영 중인 것으로 알려졌다. 설명 가능한 AI란 AI의 판단 결과에 대한 이유를 이해할 수 있도록 제공하는 기술을 말한다. AI가 내린 도출 결과에 대한 투명성, 신뢰성, 공정성 등을 높일 수 있는 장점이 있어 최근 금융 분야에서도 활용이 확대되고 있다.
설명 가능한 AI가 금융서비스에 적용되면 신용평가나 보험 청구에 대한 결과의 이유나 금융소비자법상 금융상품 중 설명의 의무가 있는 상품을 고객에게 보다 쉽게 설명할 수 있다. 신용정보법에 기반하면 AI를 통해 신용평가, 보험 가입 등 금융거래와 계약체결 여부 결정 등을 한 경우 설명교구권과 정정요구권이 있음을 고지해야 한다.
안내서에는 특히 딥러닝이나 뉴럴네트워크 같이 복잡한 AI모델들을 설명할 때 준수해야 할 내용이 담길 예정이다. 예를 들어 대출을 위한 신용평가를 진행할 경우 소득, 자산, 직업, 금융거래내역 등을 각각 몇 %씩 반영했는지 등을 고객에게 알릴 수 있도록 금융기업이 준비해야 한다.
금융업계 관계자는 “지금까지는 설명 가능한 AI를 활용하기 위한 기술적인 방법들은 나와있지만 구체적으로 어떻게 해야 안전하다거나 신뢰할 수 있는지 정확한 기준점이 없어 금융회사가 업무 프로세스에 적용하기에 부담스러운 측면이 있었다”며 “안내서가 마련되면 신뢰성 등을 높일 수 있어 금융권에서의 설명 가능한 AI활용도 확대될 수 있을 것”이라고 말했다.
설명 가능한 AI가 확산되면 고객은 대출 결과 등에 대한 이해를 보다 쉽게 할 수 있고, 다음 대출 등에 대비해 부족한 부분을 인지하고 보완할 수 있는 기회를 가질 수도 있다.
더불어 AI예측 실패에 대비한 안전장치도 마련될 수 있을 것으로 기대된다. 예를 들어 로보어드바이저가 주식 매수 추천에 대한 결정을 내릴 때도 포트폴리오 산출 근거를 확인하고, 이를 기반으로 사람이 최종 판단을 내릴 수 있게 된다.
이외에도 사회차별적, 불법적, 성적, 개인정보 침해, 기타 고위험 결정과 같은 AI가 가지는 문제 소지를 조기에 발견하고 조치가 가능해질 전망이다.
다만 지금 막 확산되는 혁신 기술에 관련된 기준점을 마련할 경우 제약이 생겨 오히려 성장에 한계가 있을 수도 있다. 이에 금융 업계가 보다 유연하게 기술을 활용할 수 있도록 안내서에서 규정하는 수위를 적절하게 조절해야 한다는 의견도 제기된다.
정예린 기자 yeslin@etnews.com