생성형 인공지능(AI)이 모든 산업 분야의 혁신을 이끌고 있다고 해도 과언이 아니다. 금융권도 이의 활용 방안을 찾기 위해 골몰하는 분위기다. 그렇다면 생성형 AI가 금융의 업무 효율화와 새로운 가치 창출의 동력이 될 것인가. 이에 대한 이슈와 과제를 짚어보자.
금융권이 생성형 AI에 주목하는 이유는 활용성이다. 방대한 학습을 통한 맞춤형 상품 제공, 실시간 시장 분석을 통한 투자 최적화, 업무 자동화를 통한 비용 절감, 사람의 오류 최소화까지 다양하다. 이처럼 금융업무 곳곳에서 광범위한 활용을 기대할 수 있다.
다만, 기대 효과가 큰 만큼 제도 개선도 시급하다. 특히 망분리 규제와 클라우드 환경 개선, 양질의 데이터 확보는 꾸준히 제기된 이슈다. 망분리는 외부 접속을 원천 차단하기 때문에 금융의 보안성을 강화하는데 기여해왔다. 그러나 이는 외부 데이터 연계 및 클라우드 이용을 제한함으로써 AI의 성능 향상에 걸림돌로 지적되고 있다. 중요도에 따른 망분리의 차등 적용 등 적절한 개선이 요구된다.
생성형 AI는 대량의 데이터 처리와 복잡한 연산을 요한다. 이에 확장성과 유연성이 높고 투자 비용과 시간을 절감하기 위해선 클라우드가 대안일 수 있다. 그러나 국내는 클라우드 이용에 대한 제한이 많다. 보안 수준에 따른 단계적 확대와 명확한 가이드라인 등 제도 개선이 뒷받침돼야 한다.
생성형 AI의 활성화는 학습 데이터의 품질과 양에 달려있다. 마이데이터 및 가명정보 이용 등 데이터 활용이 확대됐지만, 현장에서는 데이터 표준화와 기관 간 연계가 원활치 않은 현상이 나타난다. 보안성 평가 등 인증절차도 복잡하다. 체계적인 데이터 거버넌스 확립과 일관성 있는 정책 수립이 요구된다.
한편 생성형 AI의 리스크에 대한 경계심도 간과할 수 없다. 편향성과 불투명성, 개인정보 침해는 지속적인 위험 요인으로 작용한다. 학습 데이터에 내재된 편견이 알고리즘에 반영될 경우, 특정 계층에 대한 차별적 의사결정으로 이어질 수 있다. 알고리즘의 불투명성도 문제다. AI 모델은 복잡한 연산 과정을 통해 결과를 도출하기 때문에, 의사결정의 근거가 불명확한 블랙박스로 남게 된다. 이는 AI에 대한 불신과 금융사고 발생 시 책임 소재의 불투명으로 이어진다. 개인정보 침해도 중요한 리스크다. 기업들은 AI성능 향상을 위해 대량의 개인정보를 수집하려는 유인이 크다. 그러나 정보주체의 동의나 법적 근거 없이 무분별하게 개인정보를 수집, 활용할 경우 프라이버시 침해 논란을 피할 수 없다.
이러한 부정적 영향을 최소화하고 건전한 AI 생태계를 조성하기 위해서는 기술 및 제도적 보완 장치가 필수적이다. 먼저 데이터의 대표성과 공정성을 확보하고, 모델 개발 과정의 투명성을 높일 필요가 있다. 또 AI의 개발과 활용 전반을 아우르는 법적, 윤리적 규범 정립이 시급하다. EU는 올해 3월 AI법을 통해 위험 기반의 포괄적 AI 규제 체계를 마련했다. 특히, 개인의 행동이나 성격을 기반으로 한 사회신용도 평가, 안면인식 및 지문인식의 무분별한 AI 사용은 전면 금지된다. 또 취약 계층을 대상으로 고위험 상품을 강매하는 등 AI 악용을 금지한 점이 주목할 만하다.
국내 정책당국은 'AI 활성화'와 '안전한 이용 환경 조성'이라는 두 가지 목표를 위해 노력해 왔다. 가이드라인 마련, 개인정보보호 자율점검표 배포 등을 통해 리스크에 부분적으로 대응해 왔으나, 실효성 있는 법적 기반은 미흡한 상황이다. 최근 '금융권 AI협의회' 출범을 계기로 AI 고도화와 제도개선 논의가 본격화될 전망이나, 구속력 있는 법제 정비까지는 다소 시일이 걸릴 것으로 보인다. AI의 오남용을 막고 소비자의 신뢰를 확보하기 위한 법제도는 시급하게 정비돼야 한다. 이를 통해 AI가 금융의 경쟁력을 업그레이드하고, 이용자 편익을 제고하는 기회로 활용되길 기대한다.
송민택 공학박사 pascal@apthefin.com