미국에서 트럼프 2기 정부가 들어선 뒤 인공지능(AI) '진흥'이 주목 받고 있지만 국제사회에서는 여전히 AI '신뢰성'과 '안전성'을 중시하고 있다는 의견이 나왔다.
이상욱 한양대 교수는 초거대AI추진협의회 주최, 한국소프트웨어산업협회·전자신문 주관으로 18일 서울 강남구 삼정호텔에서 열린 '제8회 AI 인사이트 포럼'에서 “윤리적인 AI 개발은 디폴트(기본 선택지)고, AI 국제 거버넌스는 11개국의 AI안전연구소 네트워크 등을 통해 AI 신뢰와 안전에 대한 표준을 만들고 있다”며 이같이 밝혔다.

지난달 프랑스 파리에서 열린 'AI 행동 정상회의'에서 미국과 프랑스·유럽연합(EU) 등 주요국이 진흥에 방점을 둔 행보를 보였으나 신뢰할 만한 AI, 안전한 AI에 대한 국제사회 관심이 여전히 높다는 의미다.
이 교수는 AI 산업을 진흥하는 것도 중요하지만 믿고 사용할 만한 AI인지, 사람에 위협을 가하지 않는지 측면에서 연구와 기술 개발, 법·제도 마련 중요성을 강조했다.
그는 “트럼프 재집권 이후 국제 AI 거버넌스 동향이 바뀐 부분은 있지만 큰 틀에서 차이는 보이지 않는다”면서 “미국 연방정부 차원 AI 규제는 없지만 주정부 차원 규제는 있고, 미국 정부도 여전히 AI안전연구소 활동에 무게를 두고 영국·프랑스·독일 등과 주도권 다툼을 벌이고 있다”고 평가했다.
이어 국제사회와 함께 신뢰성과 안전성 원칙을 넘어 행동 규범을 만들어야 할 때라고 강조했다. 프론티어 AI와 같이 고영향·고위험 AI로 분류되는 기술·서비스의 경우 산업이나 일상생활에 지대한 영향을 미칠 가능성이 있기 때문이다.
이 교수는 “문제 상황에 직면했을 때 통제 가능한 AI 활용에 대한 고민이 나타나고 있는데 산업과 윤리 사이에서 균형을 잡으려는 노력”이라며 “AI가 인류를 지원할 잠재력이 있지만 위험성이 있기 때문에 사람의 기본권을 훼손하지 않는 방식으로 개발돼야 한다는 게 보편적 합의”라고 설명했다.

그는 최근 문제가 되는 AI 편향성 문제를 해결하기 위해서는 사회적 합의가 필요하다고 진단했다. 이 교수는 “누구도 편향성 문제를 제기하지 않는 학습 데이터로 AI를 개발하면 초등학교 도덕 교과서 수준의 AI가 개발돼 성인들이 활용하기 적합하지 않다”며 “다양성을 존중하고 극단적 견해는 제거하는 방향으로 가되 어디까지 사회적으로 허용할 수 있는 다양성인지 구성원 간 합의가 필요하다”고 말했다.
박종진 기자 truth@etnews.com