우리나라는 지난해 4월부터 인공지능(AI) 윤리연구반을 운영, 국내외 주요 AI 윤리원칙을 분석하고 이론과 연계해 '인공지능 윤리기준'을 마련해 지난달 최종 발표했다.
우리나라 인공지능 윤리기준은 '사람 중심의 인공지능'을 위한 최고 가치인 '인간성'을 핵심 요건으로 뒀다. 이를 위해 3대 기본원칙과 10대 핵심 요건을 제시했다.
윤리기준은 AI 개발에서 활용에 이르는 전 단계에서 정부·공공기관, 기업, 이용자 등 모든 사회 구성원이 참조하는 기준을 목표한다. 특정 분야에 제한되지 않은 범용성을 가진 일반원칙으로, 이후 세부 규범이 유연하게 발전할 수 있는 기반을 조성한다.
윤리기준은 구속력 있는 법이나 지침이 아니다. 도덕적 규범이자 자율규범으로 기업 자율성을 존중하고 AI 기술발전을 장려하는데 목적이 있다. 또 사회경제, 기술 변화에 따라 새롭게 제기되는 AI 윤리 이슈를 논의하고 구체적으로 발전시키는 플랫폼으로 기능하기를 희망한다.
윤리기준 3대 기본원칙은 △인간의 존엄성 원칙 △사회의 공공선 원칙 △기술의 합목적성 원칙이다. AI 개발부터 활용까지 전 과정에서 3대 기본원칙 요건을 충족해야 한다.
3대 기본원칙을 실천하고 이행하도록 AI 개발부터 활용까지 전 과정에서 △인권 보장 △프라이버시 보호 △다양성 존중 △침해금지 △공공성 △연대성 △데이터 관리 △책임성 △안전성 △투명성 요건이 충족돼야 한다.
정부는 윤리기준 서문에서 모든 AI는 '인간성을 위한 인공지능(AI for Humanity)'을 지향한다고 설정했다.
AI는 인간 정신과 신체에 해롭지 않도록 개발되고 활용돼야하며, 사회를 긍정적으로 변화하도록 이끄는 방향으로 발전돼야 한다고 강조했다. 또 AI가 사회적 불평등 해소에 기여하고 주어진 목적에 맞게 활용되어야 하며 목적 달성 과정 또한 윤리적이어야 한다고 지적했다. 궁극적으로 인간 삶의 질과 사회적 안녕과 공익 증진에 기여 하도록 AI가 개발되고 활용돼야 한다는 점을 분명히 했다.
김지선기자 river@etnews.com
-
김지선 기자기사 더보기