[ET시론]인공지능 혁신 경제와 법·규제

최경진 가천대 법학과 교수
최경진 가천대 법학과 교수

인공지능(AI) 혁신에 바탕을 둔 디지털 신경제 시대가 급부상하고 있다. 구글이나 애플과 같은 디지털 플랫폼 발전에 따라 플랫폼·데이터 경제가 디지털 대전환에 기여한 것처럼 챗GPT를 필두로 한 생성AI가 AI 기반 디지털 신경제를 가속화하고 있다. 알파고가 사람들에게 AI 우수함을 각인시키는 데 큰 역할을 했지만, 실제 우리 일상생활에서 어떠한 편익을 가져다줄 수 있는 지에 대해 구체적이고 명확한 답을 주지는 못했다.

그러나 지난해 11월 출시한 지 두 달 만에 월 이용자 수 1억명을 돌파한 챗GPT를 비롯한 다양한 유형의 생성AI는 일반인에게 AI 편리함을 몸소 체감할 수 있게 해줬다. AI 체감은 AI 혁신이 기술개발 단계에만 머무르는 것이 아니라 실제 부가가치를 창출하는 AI 경제 실현단계로 나아갈 수 있음을 보여주는 중요한 변화다. 생성 AI시장이 지난해 101억달러에서 연평균 34.7%씩 성장해 2030년 10배 이상 될 것이라는 전망은 놀랍지 않다. AI 기술개발과 사업화에서 혁신 정도에 따라 지금 예측을 훨씬 뛰어넘을 수도 있다. 결국 AI 혁신을 통한 글로벌 경쟁력을 갖추는 지 여부에 따라 이제 막 시작된 ‘AI 이코노미 전쟁’에서 살아남을 수 있다.

생성AI가 인공지능을 현실 속에 실재하게 만들어 사람들이 그 효용을 체감하고 장래 AI를 통한 편익을 기대하게 만든 반면, 공상과학 영화나 소설에서 보던 AI 위험성이 현실화될 수 있다는 우려도 함께 가져왔다. AI 다양한 사회·경제적 편익은 AI 혁신을 정당화하는 근거가 되지만 AI 위험성은 규제의 필요성을 불러오고 그 정도에 따라 AI 혁신을 저해할 수도 있다. AI 혁신에 대한 균형잡힌 합리적 규제가 필요한 이유다.

챗GPT가 생성AI에 대한 관심을 촉발시키기 이전부터 국내외에서는 AI가 신뢰성과 안전성을 담보하면서 발전할 수 있도록 다양한 노력이 펼쳐졌다. 개별 기업 수준에서 AI 개발단계부터 실제 서비스를 제공하는 과정까지 준수할 AI 윤리 가이드라인이나 원칙을 설정하는 자율 규제 노력 사례를 찾아볼 수 있다. ‘국가 AI 윤리기준’이나 OECD AI 원칙처럼 정부나 국제기구 차원에서 법적 규제 이전에 윤리적 차원에서 가이드를 제시하기 위한 노력도 있다.

법적 규제를 통해 AI 위험을 사전에 예방하거나 규제하려는 시도도 있다. 유럽연합(EU) AI 법안이나 미국 알고리즘 책임법안이 대표 사례다. EU AI 법안은 위험 기반 규제 접근방식을 채택해 AI가 야기할 수 있는 위험을 네 가지로 분류, 사회신용시스템과 같은 허용되지 않는 위험을 야기하는 AI는 금지한다. 허용되는 경우에도 고위험, 최소위험·무위험, 그 외 일반적 위험으로 구분해 고위험 AI에 대해서는 고품질 데이터 이용, 기록 작성과 보존을 통한 추적 및 감사 가능성 확보, 적절한 수준의 투명성 보장과 정보 제공, 사람에 의한 감시 보장, 사이버보안이나 정확성 등 보장과 같은 규제를 부과했다.

최소위험·무위험의 경우에는 강제적 의무는 없지만 자발적 적용을 촉진하기 위한 행동강령 제정과 실천을 유도하고 있으며 기타 일반적 위험 AI에 대해서는 AI 시스템과 상호작용을 사람에게 알리고 딥페이크에 라벨을 부착하는 등 투명성 의무를 부여했다. 챗GPT가 출시된 후 EU 의회는 생성AI에 대한 규제를 포함하는 방향으로 수정안을 제시했다. EU 의회 수정안은 ‘파운데이션 모델’이라는 개념을 새로 도입, 대규모 데이터 학습을 통해 출력 범용성을 고려한 설계로 다양한 작업에 적용될 수 있는 AI 모델로 정의했다. 파운데이션 모델 공급자에게 모델 위험 관리, 데이터 관리, 모델 신뢰성 확보, 환경 보호, 정보 제공, 품질관리시스템 구축, 데이터 베이스 등록 등의 의무를 부과했다.

생성AI 파운데이션 모델 공급자의 추가 의무로 이용자에게 AI 시스템 이용 사실을 알릴 의무, 위법한 콘텐츠 생성을 방지할 수 있도록 설계·개발·학습할 의무, 저작권으로 보호받는 학습데이터 이용 시 관련 정보를 문서화하여 공개할 의무를 부여했다. 고위험 AI 시스템에 대해서는 기본권 영향평가 수행 의무를 부과함과 동시에 공공장소에서 실시간 원격 생체인식 시스템 사용을 전면 금지했다. 아울러 고위험 AI 시스템에 이용되는 도구·서비스·구성요소의 공급에 관한 계약조건, 계약 위반이나 종료에 대한 계약조건이 중소기업이나 스타트업에게 일방적으로 부과되고 그 내용이 불공정하다면 해당 내용은 무효로 규정하면서 중소기업 등이 협상을 시도했지만 그 계약조건에 영향을 미칠 수 없었다면 일방적으로 부과된 것으로 간주하는 규정이 추가됐다.

미국 알고리즘책임법안은 EU만큼 상세한 규제를 부과하지는 않지만 증강된 중요 의사결정 절차에 대한 영향평가를 규정, AI 신뢰성과 책임성을 확보하고자 했다.

[ET시론]인공지능 혁신 경제와 법·규제

우리나라도 21대 국회에서 AI 관련 법안이 현재까지 12개 발의됐으며 몇몇 법안은 AI 책임성을 확보하기 위한 사업자 책무와 이용자 권리를 규정한다. 이들 법안을 둘러싸고 사람의 기본적 자유와 권리를 충분히 보호할 수 있는 수준에까지 미치지 못했기 때문에 AI 위험을 고려한 규제를 반영해야 한다는 입장과 과도한 규제로 인해 AI 혁신이 저해될 수 있기 때문에 최대한 규제를 제거해야 한다는 입장이 대립되고 있다.

챗GPT가 불러온 AI 신경제 시대에 맞는 법과 규제는 어떤 방향으로 설정돼야 할까. AI, 특히 현실 경제를 변화시키고 있는 생성AI에 대한 시각에 따라 규제 철학이 달라질 수 있다. 생성AI는 기존 기술·서비스와는 다른 새로운 혁신이고 우리 사회·경제가 공동으로 추구해야 할 선이라고 인식하면 혁신을 저해하지 말아야 한다. 기존 법질서 적용을 거부하고 필요하다면 혁신에 맞는 새로운 법질서가 필요하다고 생각한다. 반면, AI 혁신보다 그동안 지켜왔던 질서를 더욱 중시하는 입장에 따르면 기존 법질서에 맞는 AI 혁신을 요구할 것이다. 그러나 AI 혁신과 기존 법질서는 결코 양립불가능한 것이 아니기 때문에 기존 법질서를 지킬 것만을 강조하는 입장도, AI 혁신이 중요해 기존 법질서나 기득권을 파괴해야 한다는 입장도 모두 바람직하지 않다. 기존 법질서가 지키고자 한 핵심 가치, 예를 들면 인간으로서 존엄과 가치는 AI 시대에도 지켜져야 한다. 핵심가치가 지켜질 수 있는 방향으로 AI가 발전할 수 있도록 법질서도 변화·발전시켜야 한다. AI 시대에도 유효한 가치가 무엇인지 재확인하고, 해결해야 할 가치 충돌이 무엇인지 정확하게 파악하는 것이 중요한 출발점이 된다.

생성AI 유용성은 부정적 측면에서도 쉽게 확인된다. 금융사기나 신원을 도용한 범죄, 가짜뉴스 생성에 오·남용될 수도 있다. 사망한 사람을 딥페이크로 되살려내거나 생성AI로 일자리가 줄어드는 문제, 생성AI가 모든 IT 서비스 핵심 요소가 됨으로써 사실상 ‘플랫폼의 플랫폼’으로서 독점적 영향력을 발휘해 공정경쟁을 저해할 위험성, 사람에 대한 차별·혐오 등 다양한 사회·경제적 문제가 발생할 수 있다. 특히 AI 중심 새로운 생태계가 부상함에 따라 기존 사회·경제 생태계와 충돌하는 과정에서 법·규제 이슈가 심화될 수 있다.

저작권법이나 개인정보 규제가 대표적이다. 저작권법은 창작자에게 권리를 부여하고 저작물의 공정한 이용을 통한 문화·산업 발전을 목표로 한다. AI혁신을 위해 불가피하다는 이유로 저작자의 이용허락이나 저작자에 대한 적절한 보상없이 기존 저작물을 데이터 학습용으로 이용하게 하는 것이 적절한지를 둘러싸고 이해관계가 격렬하게 충돌하고 있다. 무조건 허용한다면 기존 저작권 생태계는 큰 위협을 받게 될 것이고 반대로 기존법을 엄격히 준수하도록 강제하면 AI 혁신 속도는 느려질 수 밖에 없다. 개인정보 규제의 경우에도 현행 개인정보보호법 제정 당시에 생성AI를 염두에 두지 않았기 때문에 기존 규제틀을 그대로 생성AI에 적용하는 것이 타당한가에 대한 정밀한 검토가 필요하다. 예를 들면 생성AI가 실시간·무작위로 학습용 데이터를 수집하는 과정에서 특정 개인을 알아볼 의도도 없고 수집한 데이터 원본을 보관하지도 않는 경우, 개인정보 수집·이용에 대한 동의 등 합법처리근거를 갖춰야 하는지 또는 생성AI가 생성한 데이터에 누군가의 정보가 포함된 경우에 그러한 데이터 생성도 수집으로 보고 개인정보보호법 규제를 따라야 하는지 등 의문이 제기될 수 있다.

이처럼 AI 신경제가 발전하는 과정에서 심화·확대될 수 있는 문제를 해결해 신뢰할 수 있는 AI 생태계를 만들어가기 위해서는 AI 위험성에 비례, 필요한 만큼의 책임성을 요구하는 법·규제를 만들어가야 한다. AI윤리나 가이드로 해결할 수 있는 경우에는 자율규제를 활용하고 금지해야 할 위험이나 사람 기본적 자유와 권리에 영향을 줄 수 있는 AI에 대해서는 필요한 적정 강제규제를 도입할 수도 있다. 국제적 공동 대응도 중요하다. AI는 어느 한 국가만의 문제가 아니라 인류 공통의 문제다. 국제 공동대응을 위한 실체적 규범과 국제 거버넌스 구축이 국제적 혼란과 불일치를 줄일 수 있는 유용한 수단이 될 수 있다.

AI를 현명하게 활용할 수 있는 AI 리터러시나 사람 중심 AI 포용 정책도 법·규제 논의에 포함돼야 한다. 무엇보다 AI의 블랙박스성을 고려할 때 개인이나 기업, 정부 등 모든 구성원이 AI를 향해 깨어있어야 한다. 인간성을 중심가치로 공유하며 적극적 참여와 협력을 통한 사회적 합의를 이끌어내기 위해 끊임없는 노력도 병행해야 한다. AI 혁신을 촉진하며 사람을 위한 안전망 차원의 법·규제를 만들어가야 한다.

최경진 가천대 법학과 교수 kjchoi@gachon.ac.kr

〈필자〉 최경진 교수는 가천대 인공지능(AI)·빅데이터정책연구센터장이다. 데이터·정보통신기술(ICT)·개인정보보호 법 연구자로서 관련 법·정책 전문가다. 현재 한국인공지능법학회장, 한국정보법학회 수석부회장, 유엔 국제상거래법위원회 정부대표로 활동하고 있다. 개인정보보호법학회장도 역임했다. 데이터와 ICT에 대한 폭넓은 이해를 바탕으로 법제 개선과 정책 추진에 기여하고 있다.