신기술에 의한 혁신 서비스가 등장할 때마다 사용자가 어떤 기준으로 수용할 지는 기업의 해묵은 고민이다. 뻔한 답이긴 하지만 사용자 수용성을 높이기 위해선 편리함과 효익, 사용용이성 등을 제공해야 한다.
이미 뜨거운 감자가 돼 버린 챗 GPT는 소비자 마음을 홀린 듯하다. 놀라운 속도로 가입자가 증가하고 있고, 월 방문자 기록이 과거 특출한 서비스를 압도하고 있다. 더군다나, 챗 GPT로부터 기회를 엿본 해외 빅테크는 LLM(Large Language Model, 거대언어모델) 기반 유사한 서비스를 앞다퉈 내놓고 있다.
하지만 높은 수용성에도 불구하고 정보보호에 대한 우려의 시선이 높다. 만약 개인정보가 노출되거나 악용된다면 그 파장은 엄청나다. 챗 GPT가 이상거래 탐지나 사기예방을 위해 유용할 것이란 기대와 달리 오히려 악용될 소지도 크다. 운영사가 사용자 정책을 통해 막고 있지만, 단적으로 해킹 프로그램이나 피싱 메일을 만드는 방법까지 사용자에게 알려줄 위험도 도사리고 있다.
민감한 정보가 많은 금융은 더욱 신중한 대응이 요구된다. 그 일환으로 데이터 보안과 개인정보 보호를 위한 최소한의 안전장치로써 법제도에 따라 엄격하게 규제돼야 한다는 목소리도 크다.
이탈리아 및 캐나다에선 챗 GPT 개인정보 수집과 처리에 대해 강한 문제를 제기했다. 동시에 법적 규제를 강화할 추세다. 역설적으로 챗 GPT 운영사인 오픈AI의 CEO, 샘 알트만은 미의회 청문회서 개인정보와 윤리 문제 해결점으로 규제 마련을 피력하기도 했다. 챗 GPT 등 생성형 AI의 학습 데이터가 적절하게 관리되지 않을 때 발생할 수 있는 위험을 스스로 자인한 셈이다.
규제로 인해 기술 개발과 활용이 불편해질 수 있다. 규제와 활용은 마치 동전의 양면과 같다. 이 지점에서 합리적 해결방법을 통해 균형을 모색하는 것이 중요하다.
첫번째 해법은 금융권 자구 노력이다. 강력한 암호화 및 최소한의 정보수집 원칙을 실행하고 개인정보 비식별화 등 보안 기술을 고도화하는 것이다. 차등 프라이버시(Differential Privacy)도 좋은 사례다. 임의로 노이즈를 데이터에 삽입해 개별데이터에 대한 식별이 어렵도록 설계하는 방식이다.
최근에는 합성데이터가 대안으로 부상했다. 합성데이터는 실제데이터의 통계적 특성을 모방해 인공적으로 만든 가짜 데이터다. 데이터 출처가 없기 때문에 개인정보도 보호할 수 있다. 그러나 합성데이터도 생성의 기초인 실제데이터 편향이 반영되기 때문에 완벽하다고 할 수는 없다. 그럼에도 불구하고, 데이터 부족을 해결하고 개인정보의 폐해를 최소화 한다는 점에서 눈 여겨 볼만하다.
두번째는 금융당국의 조정이다. 개인정보 보호를 위한 규제 기준을 설정하고, 금융사가 이를 준수하도록 관리, 감독하는 것은 필수 조치다. 다만, 금융사가 규제 준수를 위한 세부지침 대응으로 인해 기술 개발과 활용이 뒤쳐져서는 안된다. 이를 위해 금융당국은 현장과 긴밀히 협업하고 조율해야 한다. 한편, 유연성을 발휘해 규제의 원칙만을 제시하고 세부 가이드라인은 금융사에 맡기는 것도 필요해 보인다.
생성형 AI가 미래 기술의 핵심으로 부상하려면 혁신과 규제, 활용과 정보보호 사이에서 균형점을 찾아야 한다. 이는 고객 편익 과 안전함을 추구하는 금융 생태계에선 필연적인 조치다.
한편 정책당국과 금융권은 미국이나 EU국가의 챗 GPT에 대한 규제 동향에 주시할 필요가 있다. 발빠른 출시로 시장 선도와 고착화를 원하는 해외 빅테크社 중심으로 국제적 가이드라인이 만들어지는 것은 피해야 한다. 생성형 AI라는 시장의 흐름에 경쟁해야 하는 국내 산업 관점에서도 성장할 수 있는 모멘텀을 만들어야 할 것이다.
송민택 동국대 겸임교수 pascal@apthefin.com