와이즈스톤-KSA, 정부 'AI 신뢰성 인증' 사업 선정…AI 윤리·사회적 이슈 대응 마련

지난 26일 민간 인공지능 신뢰성 시범인증 착수 보고회에 참석한 담당자들의 기념 사진(사진 왼쪽부터 엄신웅 한국표준협회 국제인증센터 연구원, 이장욱 한국표준협회 국제인증센터 센터장, 박진성 한국표준협회 인증본부장, 박지혜 정보통신산업진흥원 수석연구원, 이영준 와이즈스톤 ICT시험인증연구소장, 정세린 와이즈스톤 ICT시험인증연구소 수석연구원)
지난 26일 민간 인공지능 신뢰성 시범인증 착수 보고회에 참석한 담당자들의 기념 사진(사진 왼쪽부터 엄신웅 한국표준협회 국제인증센터 연구원, 이장욱 한국표준협회 국제인증센터 센터장, 박진성 한국표준협회 인증본부장, 박지혜 정보통신산업진흥원 수석연구원, 이영준 와이즈스톤 ICT시험인증연구소장, 정세린 와이즈스톤 ICT시험인증연구소 수석연구원)

와이즈스톤이 안전(Safety)이 아닌 윤리(Ethics) 관점에서 인공지능(AI) 신뢰성(AI Trust) 가부를 다루는 인증 사업을 연말까지 시범 운영한다. 정부는 AI가 산업 전 분야에 확산한 데 따른 사회·윤리적 부작용을 예방하기 위해 민간이 주도하는 시범 인증 사업을 통해 인간 중심 AI 신뢰성 인증체계를 단단하게 구축한다.

와이즈스톤(대표 이영석)은 한국표준협회(KSA)와 공동으로 과기정통부가 '신뢰할 수 있는 AI(Trustworthy AI) 구현 전략' 일환으로 발주한 '민간 AI 신뢰성 시범 인증' 사업자에 선정, 오는 연말까지 수행한다고 29일 밝혔다.

정부는 AI 혜택은 극대화하면서 위험·부작용을 최소화하는 AI 신뢰성 확보 차원에서 인증 체계를 구축하고 AI로 인해 발생 가능한 위험이나 기술적 한계를 해결한다. AI 기반 제품·SW 신뢰성 심사와 시험을 통해 믿을 수 있는 제품임을 인증한다.

'AI 신뢰성(Trustworthy)'이란 AI 기술에 내재한 위험과 한계를 해결하고 AI 확산 과정에서 부작용을 방지하기 위해 준수해야 하는 가치 기준이다. 여기엔 안전, 설명 가능, 투명, 견고, 공평 등이 필수적인 요소이다. 다양한 환경과 조건에서 안정적으로 동작하는 'AI 신뢰성(Reliability)' 개념과는 차이를 두고 있다.

양사는 AI 신뢰성을 평가하는 △검증 절차 △항목 △방법 등 인증체계를 구축하고 시범 인증을 수행한다. 인증체계는 정부가 고시한 '신뢰할 수 있는 AI 개발 안내서' 59개 검증 요구사항과 관련 표준 등을 기반으로 구축한다.

시범인증 대상은 △삼성전자-홈케어 시스템 △삼성전자-AI 식기세척기 △클라썸-교육용 챗봇 △딥 브레인 AI-가상인간 등 4개 제품이다. 시범 인증인 만큼 민간 활용도와 윤리적 이슈 발생 가능성이 높은 제품 위주로 선정했다.

이 밖에도 △지식기반 △자연어 처리 △음성인식 △지능로봇 △컴퓨터 비전 등 모든 AI 제품은 신뢰성 인증을 받을 수 있다. 양사는 시범 인증 사업을 마친 후 AI가 적용된 모든 분야 제품을 대상으로 인증을 민간 주도로 수행할 예정이다. 객관성과 전문성을 확보하기 위해 윤리, 인증 등 전문가가 참여하는 '제3자 검토위원회' 검증도 거친다.

이에 앞서 와이즈스톤과 KSA는 지난 2020년 7월 민간 AI 제품 품질 인증제를 공동 개발하는 등 독자 AI 인증체계를 마련하고 시행, 다수 인증 시험 경험과 노하우를 두루 갖추고 있다.

이영준 와이즈스톤 ICT시험인증연구소장은 “AI 전문가조차 AI의 신뢰성을 검증하는 것이 쉽지 않다고 하지만 와이즈스톤은 이미 AI 시험과 인증 경험을 적지 않게 갖추고 있어 정량적 평가 기준을 세우고 시범 인증을 수행하는 데 어려움이 없다”고 강조했다.

이 소장은 “AI는 우리 주변 어디에서나 볼 수 있지만 'AI를 얼마나 신뢰할 수 있는가?'에 대한 의문은 끊이지 않고 있다”면서 “편향적이지 않은 데이터와 알고리즘, 설명할 수 있는 AI를 실현하는 과정에서 이번 시범인증 사업이 첫걸음이 될 것”이라고 전했다.

안수민기자 smahn@etnews.com