#2016년 3월, 마이크로소프트 인공지능(AI) 챗봇 '테이'가 논란에 휩싸였다. 빅데이터 학습으로 만들어진 테이는 출시 하루도 되지 않아 여성, 흑인 등 사회적 약자에 혐오 발언을 쏟아내며 이용자에게 충격을 줬다. 테이가 학습한 빅데이터 자체가 편향된 내용이었다는 사실이 알려지면서 서비스 개발자 의도에 따라 AI가 움직일 수 있다는 두려움이 퍼졌다.
#2021년 1월, 우리나라에서도 비슷한 상황이 재현됐다. 스타트업이 개발한 AI 챗봇 서비스 '이루다'가 성희롱 발언 등 여러 논란을 야기했다. 서비스는 잠정 중단됐지만 AI 윤리 문제를 다시금 생각하는 계기가 됐다.
AI가 우리 주변 서비스에 접목되면서 유용함뿐 아니라 악용 우려 목소리도 높아진다. AI를 광범위하게 도입하려면 안전하고 신뢰할만한 개발과 배포 중요성이 높아진다. 신뢰성 확보는 AI 시대를 여는 필수 요소로 자리 잡고 있다.
◇AI 신뢰 확보, AI 확산 첫걸음
최근 몇 년 동안 AI 신뢰성 관련 주요 이슈가 세계적으로 불거졌다.
영국은 코로나19로 인해 대학입학시험을 취소하고 담당교사 평가, 출신 학교 과거 성적 분포 등을 토대로 AI로 학생 예상 성적을 산출했다. 공립학교와 빈곤지역 학생 성적이 사립학교 부유층 학생 대비 낮게 산정돼 차별을 야기한다며 비난에 부딪혔다. 정부는 결국 AI 기반 성적 산출 시스템 철회를 결정했다.
미국 경찰은 지난해 범죄자 식별과 시민 감시 등을 위해 안면인식 AI 기술을 도입하기로 했다. 그러나 범죄자 오인, 인종 차별 등 기술적 한계에 봉착했고 오·남용 문제가 야기되면서 관련 기술 판매와 활용이 중단됐다.
기업도 예외는 아니다. 2019년 유럽 한 에너지기업 최고경영자(CEO)는 영국 범죄자가 AI를 활용해 만든 모회사 CEO의 가짜음성에 속아 22만유로를 송금하는 피해를 겪었다.
AI가 확산하면서 △데이터 편향성 △알고리즘 차별 △부주의, 오·남용, 악용에 따른 사생활 침해, 사회·경제적 피해 등 잠재 위험 우려 목소리가 높아진다.
신뢰성은 AI 기술 한계와 내포한 위험을 미연에 해결하고 활용과 확산 과정에서 부작용을 방지하기 위한 핵심 가치다. △안전 △설명 가능 △투명 △견고 △공정 등 AI 신뢰성 주요 핵심 요소를 정의하고 이에 맞춰 AI를 개발, 배포하는 것을 우선으로 한다. AI 신뢰성 없이 AI 확산은 불가능하다고 보기 때문이다.
◇세계 각국 AI 신뢰성 확보에 역량 집중
주요국은 이미 AI 신뢰성 확보를 위한 제도, 투자 등을 이어간다.
대표 지역이 유럽연합(EU)이다. EU는 2018년 '신뢰할 수 있는 AI 윤리 가이드라인' 초안을 공개하면서 AI 신뢰성 분야에서 앞선 모습을 보였다. '유럽에서 만들어진 윤리적이고 안전한 첨단 AI'를 지지하는 AI 비전을 선포하고 △AI 수용 확대를 위한 공공·민간 투자 증대 △사회경제적 변화 대비 △유럽의 가치 강화를 위한 적절한 윤리·법 체계 확보를 세 가지 중심축으로 제시했다. 지난해 7월 민간이 AI 개발 전 과정에서 신뢰성 등 윤리 이슈를 자체 점검하도록 평가목록(체크리스트)을 배포했다. 지난해부터 2024년까지 신뢰 관련 기술 연구개발(443억원 투입)을 병행하며 신뢰할 수 있는 AI 기술 개발 주도권 확보에 노력 중이다.
미국도 2019년 국가 AI 연구개발(R&D) 전략으로 안전한 AI 개발을 채택했다. 지난해 1월 AI 신뢰확보 10대 원칙(대중의 신뢰, 과학적 무결성과 정보 품질, 공정성과 차별금지 등)을 담은 연방정부 규제 가이드라인을 발표했다. 구글, 아마존 등 자국 내 빅테크 기업이 중심이 돼 윤리적 AI 개발원칙 마련과 공정성 점검 도구를 개발·공유하면서 자율적 분위기를 조성 중이다.
영국은 2019년 공공부문 안전한 AI 활용을 위한 지침에 이어 지난해 설명 가능한 AI 가이드라인을 수립했다. △인간에 이롭게 활용 △공정성 △개인정보보호 △AI 파급효과에 대해 국민이 교육 받을 권리 등을 윤리규범에 담았다.
◇韓, AI 신뢰성 원천기술 개발 주력
우리나라도 AI 윤리 문제에 관심을 갖고 관련 가이드라인 등을 만들었다. 지난 5월 '신뢰할 수 있는 AI 실현전략'을 발표하면서 AI 신뢰성 확보에 사활을 걸었다. 신뢰성 원천기술 개발에 향후 5년간 최소 650억원 이상을 투입할 계획이다.
우리나라는 △설명가능성 △공정성 △견고성 제고를 위한 원천 기술 개발에 집중한다.
설명가능성은 AI가 스스로 판단한 기준과 과정 등을 사람이 이해 가능한 방식으로 제시(설명)할 수 있는 기술이다. 예를 들어 신용평가 모델에 AI를 도입했을 경우 이 결과를 시각·언어적으로 설명해야 한다. AI가 A씨의 대출이 불가능하다고 최종 판단했다면 신용에 긍정적으로 평가된 항목 점수가 26점이고 부정적으로 평가된 항목 점수가 -37점이기 때문에 대출이 불가능하다는 식으로 근거를 자세히 전달해야 한다.
정부는 플러그앤플레이 방식으로 기존 시스템에도 설명가능성을 기능적으로 추가할 수 있는 범용 설명가능 기술 개발을 추진한다. 사용자가 별다른 조치 없이 새로운 기능을 사용하도록 지원하는 방식이다.
공정성은 데이터·알고리즘의 편향 여부를 판단하고, AI가 변화하는 가치와 규칙을 준수하도록 하는 기술이다. 편향 가능성을 진단하기란 쉽지 않다. 정부는 AI 윤리기준 등 관련 규정으로부터 편향 가능성을 진단하고 편향성을 스스로 개선(재학습, 알고리즘 수정 등)하는 기술을 새롭게 개발한다. 예를 들어 채용 과정에 AI 시스템이 도입됐을 시 매년 변경되는 채용 기준에 따라 편향성을 진단, 제거하고 새로운 기준에 맞춰 개선할 수 있다.
견고성은 AI 알고리즘에 대한 적대적 공격에도 유연하게 대응해 기능·성능 변화 없이 안전하게 동작하는 기술이다. AI를 교란할 수 있는 공격 사례를 분석해 기만 공격을 사전에 감지하고 방어할 수 있는 기술이 중요하다.
신뢰성은 안전한 AI 발전을 위해 필수지만 필요성과 방법을 모르는 기업이 많다.
소프트웨어정책연구소(SPRI)는 'AI 트러스트 포럼'을 운영하며 AI 신뢰성 확보를 지원할 계획이다. SPRI 관계자는 “우리나라뿐 아니라 주요국이 신뢰할 수 있는 AI 전략과 법안 등을 마련하면서 안전하고 투명한 AI에 대한 수요가 발생한다”면서 “AI 신뢰성 중요성을 인지하고 신뢰성 확보를 위한 노력이 필요하다”고 말했다.
김지선기자 river@etnews.com