네이버 "AI 개발·이용, 인간 중심 가치 최우선"

English Translation

AI 윤리 준칙 공개…SAPI와 웨비나
사람 위한 개발·다양성 존중·안전 설계
편리성 조화·정보 보안 등 5개 조항 구성
"기업·이용자 함께 지속 논의·발전시켜야"

네이버와 서울대 인공지능(AI) 정책 이니셔티브(SAPI)는 17일 공동 웨비나를 열고 네이버 AI 윤리 준칙을 공개했다. 고학수 서울대 교수(서울대 AI 연구원 부원장)가 환영사를 하고 있다. 박지호기자 jihopress@etnews.com
네이버와 서울대 인공지능(AI) 정책 이니셔티브(SAPI)는 17일 공동 웨비나를 열고 네이버 AI 윤리 준칙을 공개했다. 고학수 서울대 교수(서울대 AI 연구원 부원장)가 환영사를 하고 있다. 박지호기자 jihopress@etnews.com

네이버가 인공지능(AI) 윤리 준칙을 발표하면서 산업계가 AI 윤리의 중요성을 되새기는 계기를 마련했다. 대기업뿐만 아니라 스타트업도 이용자 등과 함께 AI 윤리 문제를 지속 논의·발전시켜야 한다는 의견이 제기되고 있다.

네이버는 17일 서울대 AI 정책 이니셔티브(SAPI)와 '인공지능 윤리:원칙을 넘어 실천으로-현장에서 논하는 AI 윤리' 웨비나를 공동 개최하고 '네이버 AI 윤리 준칙'을 공개했다.

윤리 준칙은 △사람을 위한 AI 개발 △다양성의 존중 △합리적인 설명과 편리성의 조화 △안전을 고려한 서비스 설계 △프라이버시 보호와 정보 보안 등 5개 조항으로 구성됐다. 네이버 개발자뿐만 아니라 아이디어 단계부터 개발, 마케팅에 이르기까지 AI를 활용하는 모든 구성원에게 적용된다.

송대섭 네이버 정책연구실장은 “윤리 준칙 발표는 프로젝트의 시작 단계일 뿐”이라면서 “학계와 계속 협업하고 현장 적용 사례를 축적하는 등 실천 가능한 방향으로 준칙을 구체화하고 개선할 것”이라고 밝혔다.

네이버는 우선 AI를 '사람을 위한 일상의 도구'라고 정의하며 “AI 개발과 이용에서 인간 중심 가치를 최우선으로 삼겠다”고 명시했다. 네이버는 “AI가 우리의 삶은 편리하게 해 줄 수 있지만 완벽할 수 없다는 점을 인식한다”면서 “AI가 사람을 위한 일상 도구가 되도록 지속해서 살펴보며 개선하겠다”고 설명했다.

게티이미지뱅크 제공
게티이미지뱅크 제공

네이버는 '다양성 존중'에 따라 '부당한 차별을 하지 않겠다'는 점을 강조, 합리적 기준 없는 부당한 차별이 발생하지 않도록 노력하겠다는 의지를 피력했다. 네이버는 “AI는 기술을 위한 기술이 아니다”라면서 “누구나 편리하게 AI를 활용하도록 도우며, AI 서비스에 대해 쉽게 이해하도록 사용자 눈높이에 맞춰 설명하겠다”고 밝혔다.

네이버는 안전과 프라이버시 보호에도 중점을 뒀다. AI가 사람의 생명과 신체를 위협하는 상황이 발생하지 않도록 안전을 고려해서 서비스를 설계하기로 했다. AI 개발·이용 과정에서 사용자 프라이버시를 보호하는 한편 윤리 준칙이 단순 구호에 그치지 않도록 실천 방안도 제시했다. 사내 커뮤니케이션 채널을 마련해 프로젝트 진행이나 서비스 개발 시 문의하고, 논의한다.

올해 초 벌어진 AI 챗봇 '이루다'의 논란으로 AI 윤리가 부각됐다. 디지털 경제로 이행하는 상황에서 AI 윤리가 추상적 원칙이 아니라 기업 내부의 구체적 프로세스로 자리 잡는 모범 사례의 필요성이 높아졌다. 성공 사례뿐만 아니라 실패 사례에 대한 공유나 연구도 요구된다. 시간과 자원이 부족한 스타트업은 내부 AI 윤리 준칙이나 프로세스 수립에 어려움을 겪을 수 있다.

네이버는 이루다 사건 발생 전부터 AI 윤리 준칙을 지속 논의했다. 2018년부터 서울대와 협업, 이날 이 같은 결과물을 내놨다. 전문가들은 산업계 차원에서 함께 노력해야 한다고 입을 모았다.

임용 서울대 법학전문대학원 교수는 “네이버 AI 윤리 준칙 발표는 첫걸음이다. 앞으로 어떻게 구체화해서 실천하고 소통하느냐가 중요하다”면서 “선두 기업이 시행착오를 겪어 가며 AI 윤리준칙을 만들면 많은 스타트업이 이를 보고 동참하는 선순환 구조가 만들어질 것”이라고 기대감을 표명했다.

이경전 경희대 교수는 “AI 논란과 관련한 근본 해결책은 규제 강화가 아니라 업계가 스스로 AI 윤리 준칙을 정하고 이를 구체화하며 실행하는 것”이라고 강조했다.

그러면서 “AI를 개발하는 직원 대상 AI 윤리 교육도 꾸준히 진행해 개발자나 종사자 스스로가 AI 윤리를 지키도록 이끌어야한다”고 말했다.

김재환 한국인터넷기업협회 정책실장은 “AI를 무조건 부정적으로 보기보단 업계와 이용자가 윤리, 기술 등을 논의하고 발전 방안을 마련하는 과정을 지속해야 한다”고 역설했다.

김지선기자 river@etnews.com, 김명희기자 noprint@etnews.com