'투자의 귀재'로 불리는 워렌 버핏(Warren Buffett) 버크셔 해서웨이 회장은 지난 4일 네브라스카 주 오마하에서 열린 정기 주주총회에서 '인공지능(AI)의 힘은 마치 핵무기와 같다'고 언급하며, 'AI가 좋은 일을 하는 능력을 가졌지만, 해를 끼칠 엄청난 잠재력도 가지고 있다'면서 AI의 위험성을 경고했다.
버핏은 'AI는 알라딘에 등장하는 램프 요정 지니(Genie)와 비슷하다. 우리가 AI를 개발하면서 엄청난 힘을 가진 지니를 램프에서 꺼냈지만, 정작 우리는 지니를 다시 램프 속에 넣는 방법을 모른다'면서 우려를 표시했다.
생성형 AI와 범용 인공지능(AGI:artificial general intelligence)은 70~80년 전의 핵 융합 기술과 너무나도 닮았다. 우라늄과 플루토늄을 활용한 핵 융합 기술이 원자력 발전을 통해 인류에게 효율적인 에너지 자원을 공급하지만, 전 인류를 멸망시킬 수 있는 핵폭탄으로 활용되어 재앙으로 다가올 수도 있기 때문이다. 이런 측면에서 오픈AI의 설립자 샘 올트먼(Samuel Altman)은 2차 세계대전 당시 원자폭탄을 만든 로버트 오펜하이머(Robert Oppneheimer)에 비유되기도 한다.
불과 몇 십년 후엔 영화 '아이언맨' '어벤져스'에서 토니 스타크가 개발한 자비스(JARVIS:Just Another Rather Very Intelligent System)가 우리 주변에서 볼 수 있는 현실의 AI가 될 것으로 전망되고 있다. 그렇다면 AI발 재앙을 막기 위해 우리는 어떻게 대응해야 하는가?
첫째, '착한 AI'(AI for Good)를 정착시키기 위해 각국 정부가 나서서 AI를 통제(alignment)하고, 이를 뒷받침할 국제적 지배구조(governance)를 수립해야 한다. 또, 인류 사회의 가치관과 AI 윤리를 일치시키고, AI 살상무기 제조를 금지하기 위한 논의를 국제 협약 수준으로 발전시켜야 한다.
이를 위해 국제사회에서 AI의 무서운 발전을 감독하고, 위험한 AI의 등장을 막을 수 있는 권한을 가진 국제기구를 신설해야 한다. 이 과정에서 핵무기 확산 방지를 위해 국제원자력기구(IAEA)를 신설하고, 핵확산금지조약(NPT)을 체결했던 사례를 참조해야 한다. AI의 부작용을 최소화하기 위한 국제 협정을 체결하고, 국가 별로 위험한 AI 개발 실태를 점검하고, 사찰할 수 있는 제도적 장치를 마련해야 한다.
둘째, 국가 차원에서 AI 윤리 및 AI 보안과 관련한 체계적이고, 통일성 있는 가이드라인을 제시해야 한다. 이미 여러 국내 기관들은 AI 가이드라인을 발표한 바 있다. 지난해 한국지능정보사회진흥원이 발표한 '생성형 AI 윤리 가이드북', 국가정보원이 발표한 '챗GPT 등 생성형 AI 활용 보안 가이드라인'과 그 이전에 발표된 정보통신정책연구원의 'AI 윤리기준', 금융보안원의 '금융분야 AI 가이드라인'은 적시성 측면에서 최적의 타이밍을 놓치지 않았다.
더불어 개인정보보호위원회가 공개된 정보, 비정형 데이터, 생체인식 정보, 합성 데이터, 이동형 영상기기, 투명성 확보 등에 대한 'AI 단계 별 6대 가이드라인'을 마련한다는 소식은 매우 반가운 일이다. 학습 데이터가 AI 성능을 좌우하고, 개인정보가 데이터의 핵심이기 때문이다. 또, 적합한 개인정보 활용 여건을 조성하는 것이 신뢰할 수 있는 AI 개발의 선행과제기 때문이다.
이제 우리에게 필요한 것은 각 기관에서 제시한 가이드라인을 체계적이고, 통일성 있는 국가 차원의 AI 가이드라인으로 발전시키고, 이를 뒷받침할 'AI 기본법'을 마련하는 것이다. 이와 더불어 민간에서 개발되는 AI 기술의 윤리성, 신뢰성을 검증할 수 있도록 정부 차원에서 AI 신뢰성 인증제도를 활성화할 필요가 있다.
마지막으로 AI 기술로 인한 부작용을 최소화하기 위해 교육 및 인식 개선에 힘써야 한다. 이미 전 국민의 경계 대상이 된 보이스피싱과 더불어 앞으로 피해 규모가 확산될 딥페이크, 저작권 침해로 인한 부작용을 막기 위한 노력이 요구된다. AI에 활용된 데이터와 알고리즘의 편향성 및 환각 현상 극복을 위한 기술 개발을 강화함과 동시에, 신뢰 가능한 AI를 확산하기 위한 공공 AI 교육을 확대해야 한다.
영역별, 세대별 맞춤형 AI 교육 또한 강화해야 한다. 초·중·고등학교 학생에게는 AI 활용능력 강화를 위한 'AI 리터러시 교육'을, 청년에게는 실무 및 현장 경쟁력 강화를 위한 'AI 개발 교육'을, 고령 및 취약 계층에는 다양한 AI 서비스를 체험하고, 접근성을 향상시킬 수 있는 'AI 체험 교육'을 실시해야 한다.
바로 지금이 착한 AI 확산을 위한 거버넌스를 수립하고, AI 윤리와 AI 보안을 강화를 위한 물적, 인적 인프라를 확보할 최적의 시기다.
황보현우 하나은행 자문위원·홍콩과기대(HKUST) 겸임교수