챗GPT 개발사 오픈AI가 새로운 새로운 '안전·보안위원회'를 구성했다고 밝혔다. 같은 날 오픈AI의 안전 연구를 담당하던 전 책임자가 경쟁사로 이직해 눈길을 끌었다.
오픈AI는 28일(현지시간) 자사 블로그를 통해 생성형 인공지능(AI) 기술 개발 과정에 안전과 윤리 문제를 점검하기 위해 새로운 안전·보안위원회를 구성했다고 밝혔다.
새 위원회는 브렛 테일러 이사회 의장과 샘 올트먼 최고경영자(CEO), 애덤 단젤로 이사 등이 이끈다.
오픈AI는 위원회의 첫 번째 과제가 “앞으로 90일동안 오픈AI의 프로세스와 안전장치를 평가하고 더욱 발전시키는 것”이라고 소개했다.
90일이 지나면 위원회는 전체 이사회와 권고사항을 공유하고, 이사회 검토에 따라 채택된 권장 사항에 대한 업데이트를 공개적으로 공유할 것이라고 덧붙였다.
같은 날, 오픈AI 안전팀 공동 책임자였던 얀 레이케는 경쟁사인 앤스로픽에 합류했다.
블룸버그통신은 레이케가 공교롭게도 오픈AI가 새 안전·보안위원회를 구성했다고 밝힌 날, 자신의 소셜미디어 'X(옛 트위터)'에 직접 이러한 사실을 밝혔다고 보도했다.
레이케에 앞서 AI의 장기적 위험을 연구하는 '슈퍼얼라이먼트(superalignment·초정렬)' 팀을 함께 이끌었던 일리야 수츠케버가 이달 초 오픈AI를 떠났다.
초정렬은 미래에 만들어질 초지능 AI를 제어해 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 조절하는 연구를 뜻한다. 즉 AGI의 안전한 활용을 위한 연구를 진행한다.
당시 레이케는 “안전문화와 프로세스가 제품 뒷전으로 밀려났다”며 오픈AI를 비판했고, 그들이 이끌던 팀은 이후 해체됐다. 결국 한 달도 되지 않아 경쟁사로 복귀한 것이다.
레이케는 앤스로픽에서 자신의 업무가 오픈AI에서 맡았던 것과 유사하며 '인간을 뛰어넘는 AI 모델' 제어와 관련된 안전 문제에 초점을 맞출 것이라고 전했다.
김명희 기자 noprint@etnews.com
-
김명희 기자기사 더보기