[김형민 변호사의 IT경영법무]〈7〉AGI 시대, 통제할 수 없는 위험이 온다

김형민 “법률사무소 민하” 대표변호사
김형민 “법률사무소 민하” 대표변호사

올해 노벨 물리학상은 인공 신경망의 핵심이 된 '홉필드 네트워크'를 제안한 존 홉필드 교수와 이를 발전시켜 '딥러닝 개념'을 정립한 제프리 힌턴 교수가 수상했다.

노벨 화학상도 단백질 구조 예측 AI인 '알파폴드'를 개발한 구글 딥마인드의 데니스 허사비스 CEO(이세돌 9단과 바둑 대결을 펼친 '알파고'의 개발자)와 존 점퍼 수석 연구원, 단백질 설계 AI인 '로제타폴드'를 개발한 데이비드 베이커 교수에게 돌아갔다.

인공지능 시대를 연 AI 연구자들이 노벨상의 주인공이 되었고 이는 AI가 산업뿐만 아니라 학계에서도 헤게모니를 주도하고 있음을 보여준다.

그런데 노벨 물리학상을 받은 '인공지능의 아버지'라 불리는 두 교수는 수상소감에서 서로 약속이나 한 듯 AI의 위험성을 경고했다.

홉필드 교수는 '인공 신경망 기술이 어떻게 작동하는지 인간이 이해하지 못하고 있어 매우 불안하다'고 말했고, 힌턴 교수는 '인간은 AI와 관련된 치명적인 시나리오를 피하는 방법을 아직 모르기에 이에 대한 연구가 시급하다'고 말했다.

AI는 규모의 법칙(Law of scale)의 적용을 받는다. 즉 컴퓨팅 파워를 많이 투입할수록, 학습데이터가 많을수록, 매개변수가 클수록 AI의 성능은 좋아진다.

그런데 학습 연산량이 10의 22승을 넘어가거나, 매개변수가 1000억개를 넘어가는 순간 '개발자가 예측할 수 없는 새로운 능력(Emergent ability)'이 생긴다. 즉 '양에서 질로의 변화'가 일어나는데 인간은 그 이유를 모른다.

인간은 예측할 수 없는 AI의 새로운 능력이 인간에게 유토피아를 가져올지 디스토피아를 가져올지 모르는 것이다. 그럼에도 인간들은 새로운 시대의 패권을 잡기 위해 또는 뒤쳐질 수 있다는 두려움 때문에 무작정 속도를 내고 있다.

일론 머스크 테슬라 CEO는 최근 인터뷰에서 범용인공지능(AGI) 출시에 대한 질문을 받자 “가장 똑똑한 인간보다 더 똑똑한 AI를 AGI라고 정의한다면, 아마도 내년 말쯤에 나올 것 같다”고 답변했다.

곧 인류는 역사상 처음으로 자신보다 더 똑똑한 존재와 살아가게 된다. 그 존재가 인류의 통제 아래 있을지, 아니면 인류가 지구의 다른 존재들을 통제하려 한 것처럼 인류를 통제하려 들지 우리는 모른다. 다만 이는 '이익'의 문제가 아닌 '생존'의 문제이다.

필자는 이전 칼럼('인공지능 시대, 우린 더 망설여야 한다')에서 '인공지능 시대의 윤리·철학적 문제 나아가 법과 제도적인 문제에 대한 사회적 논의가 미흡하며, 우리나라도 이제 인공지능 시대를 위한 윤리적 기준과 법제 정비를 시작해야 한다'고 주장한 바 있다.

인류 생존의 문제를 더 이상 영리 추구가 목적인 사기업의 손에 맡겨둘 수 없다. 정부나 세계기구가 나서 인공지능 시대의 윤리적 기준과 법제를 정비해야만 한다.

수익자 부담 원칙(이익을 얻는 사람이 비용을 부담해야 한다는 원칙)에 따라 빅테크 기업들에게 AI 안전 연구비용을 강제해야 하며, AGI가 등장하기 전에 이에 대한 통제 방안을 마련해야 한다.

미래학자 케빈 켈리는 '인에비터블-미래의 정체'에서 프로세스(Process)와 유토피아(Utopia)의 합성어인 프로토피아(Protopia)라는 개념을 제시했는데, 이는 더 나은 미래를 향해 지속적으로 노력하는 상태를 의미한다.

인류의 미래가 유토피아인지 디스토피아인지 우리는 알 수 없다. 그러나 우리는 지금 프로토피아를 살아가야 한다.

김형민 법률사무소 민하 대표변호사 minha-khm@naver.com

저자소개:김형민 법률사무소 민하 대표변호사는 정보기술(IT)·지식재산(IP)·소프트웨어(SW) 기업의 리스크관리(RM) 및 경영전략 전문 변호사이다. 교육부·전자신문 IT교육지원캠페인 자문위원, 중소벤처기업부 중소기업인력양성사업 자문위원, 중소기업진흥공단 중소기업인식개선사업 자문위원, 경상북도청 지식재산전략 자문위원, 안동시청 지식재산관리 자문위원, 경상북도문화콘텐츠진흥원 해외투자 및 저작권사업 자문위원 등을 역임했다.