딥페이크를 비롯해 인공지능(AI) 오용과 악용으로 인한 폐해에 체계적으로 대응하기 위한 전담기관인 'AI안전연구소'가 공식 출범했다.
과학기술정보통신부는 27일 판교 글로벌 R&D센터에서 AI안전연구소 개소식을 개최하고 아시아태평양 지역을 대표하는 AI 안전 연구 거점으로 발전시키겠다는 청사진을 발표했다.
AI안전연구소는 AI의 기술적 한계, 인간의 AI기술 오용, AI 통제력 상실 등으로 발생하는 다양한 AI 위험에 체계적·전문적으로 대응하기 위한 전담조직이다. 한국전자통신연구원(ETRI) 산하 부설연구소로 올해 5월 'AI서울정상회의'의 후속조치로 출범하게 됐다.
AI안전연구소는 김명주 초대소장을 중심으로 ETRI의 AI 전문연구원 8명과 한국정보통신기술협회(TTA)에서 파견된 3명의 AI 신뢰성·안전 관련 전문인력을 포함 총 12명으로 출발한다. 앞으로 2년에 걸쳐 30명의 전문 연구원을 확보할 계획이다.
연구소는 글로벌 AI안전연구소 네트워크에 참여, AI 안전 관련 글로벌표준 정립에도 역할을 할 예정이다. 이를 통해 국내 AI 기업이 해외로 진출할 때 AI 위험 등을 최소화하겠다는 것이 목표다.
류광준 과기정통부 과기혁신본부장은 “AI안전연구소는 대한민국 AI 안전연구 허브로서 국내외 정보교류와 연구개발의 플랫폼이 될 것”이라며 “국내 기업이 글로벌 AI 안전 경쟁력을 확보할 수 있는 안전하고 신뢰할 수 있는 AI 기술 개발의 기반이 될 수 있도록 정부가 적극 지원하겠다”고 밝혔다.
김명주 AI안전연구소장은 “AI활용으로 발생할 수 있는 제반위험 평가와 이를 예방·극소화하기 위한 정책·기술을 개발·보급하고, 국내·외 연대를 강화해 나갈 것”이라고 말했다.
주요국이 AI 안전성 강화를 위해 AI안전연구소를 설립하는 가운데 우리나라는 미국, 영국, 일본, 싱가포르, 캐나다에 이어 여섯 번째로 AI안전연구소를 설립했다. 프랑스와 호주, 케냐도 AI안전연구소 설립을 준비하고 있다.
한편, AI연구소는 이날 AI 안전 연구를 위해 국내 대표 기업, 대학, 연구기관과 산·학·연 협력체인 '대한민국 AI안전컨소시엄'도 구성도 발표했다.
대한민국 AI안전컨소시엄에는 네이버, KT, 카카오, LG AI연구원, SK텔레콤, 삼성전자, 코난테크놀로지, 뤼튼테크놀로지스, 이스트소프트, 포티투마루, 크라우드웍스, 트웰브랩스, 라이너 등 기업 13곳과 서울대, 한국과학기술원(KAIST), 고려대, 성균관대, 숭실대, 연세대 6개 대학의 AI신뢰성·안전연구센터, 연구계에서는 TTA, 한국지능정보사회진흥원(NIA), 정보통신정책연구원(KISDI), 정보통신기획평가원(IITP), 소프트웨어정책연구소(SPRI) 총 24곳의 기업·기관이 참여했다. 컨소시엄 참여기관은 추가로 모집할 예정이다.
연구소와 컨소시엄 참여 기업·대학 연구조직은 AI 안전 가이드라인이나 기술, 프레임워크를 공유하고 AI 위험성을 제거하거나 최소화하기로 했다.
이날 개소식에는 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오승필 KT 최고기술책임자(CTO), 오혜연 카이스트 AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장을 비롯한 AI분야 산·학·연 관계자 40여명이 참석했다.
김명희 기자 noprint@etnews.com