챗GPT의 등장은 딥러닝 기반 알파고가 세상에 나왔을 때보다 훨씬 더 일상에 깊은 영향을 미쳤다.
인공지능(AI) 서비스 일상화뿐 아니라 인공지능(AI) 분야 연구개발(R&D), 컴퓨터 시스템 변화가 생기는 등 관련 시장 주도권 판도에도 변화가 예측된다.
AI 서비스가 범용적으로 사용되면서 필요한 데이터와 학습량은 상상을 초월하게 커졌다. 거대한 데이터를 처리하고 학습하며, 서비스하는 데 필요한 서버 장비는 점차 대규모화되고 있다.
물론, 전력 소비와 탄소 배출량이 급증하는 문제가 발생했다. 해결할 방법은 기존 시장에서 쓰는 그래픽처리장치(GPU)를 대신할 새로운 기술이 R&D 돼야 한다는 점이다.
그중 하나가 신경망처리장치(NPU)다. NPU는 인간 뇌 구조를 모방한 AI 반도체로 AI 알고리즘 실행을 위한 하드웨어(HW) 가속기'다. 그러나 범용성이 떨어져 그래픽 처리장치(GPU)가 잘 처리하는 그래픽 렌더링 같은 작업은 할 수 없다. 특정 AI 알고리즘을 저전력 고성능으로 실행하는데 특화돼 있다.
챗GPT가 등장하기 전, NPU 분야에서는 범용성이 핵심 요소였다. 즉 지원할 수 있는 다양한 알고리즘 범위가 중요했다. NPU의 범용성을 GPU 수준으로 끌어올리려는 시도가 있었지만 역설적으로 NPU의 독특한 장점을 희석하는 결과만 초래했다.
최근 NPU는 원래 목표를 회복하려는 움직임이다. 특정 서비스에 맞는 AI 알고리즘 성능과 에너지효율을 최우선으로 고려하는 경향이다. 지금까지 AI 기술과 서비스 개발 관점은 특정 모델이 어떻게 효과적으로 학습하는지에 맞춰졌다. 생성 AI 등장 이후로는 추론 과정이 더욱 중요하다는 인식이 점차 높아지고 있다.
챗GPT와 같은 고급 AI 서비스 등장으로 엔비디아(Nvidia)의 시장 지배력이 약화되고 있다는 주장이 있다.
그동안 엔비디아 제품은 고가였지만 대체 수단을 찾기 어려워 그 비용을 감수해야만 했다.
챗GPT와 같이 대규모 사용자를 보유한 생성 AI와 범용 AI 서비스를 지원하는 비용이 지나치게 커졌음에도, 2000년 초부터 엔비디아가 선도해온 개발도구 생태계에서 벗어나는 것은 쉽지 않다. 소프트웨어(SW) 생태계는 개발자들의 20년간 작업 습관과 방식에 깊게 뿌리내리고 있어 그만큼 변화를 수용하는 것은 어렵다.
엔비디아 프로그래밍 개발도구인 쿠다(CUDA)와 비슷한 역할을 NPU에서도 TVM이 수행한다. 그러나 개발자들은 도구가 익숙지 않아 어려움이 많다. 따라서 많은 회사들이 NPU가 GPU에 비해 도입 비용, 열관리, 그리고 전력 효율성 측면에서 매우 뚜렷한 장점이 있음에도 NPU로 대체하는데 곤란을 겪고 있다.
챗GPT 시대에도 회사 경영진들은 엔비디아 GPU 사용에 따른 높은 총소유비용(TCO) 부담, 개발자들의 불만 등을 고려해 여전히 상당한 자금을 엔비디아 제품에 투자하고 있다.
AI 서비스의 구현, 특히 추론 관련 부분은 NPU 적용이 빠르게 이뤄질 것이다. 반면에 학습 관련 부분은 쿠다와 같은 기존 개발환경이 여전히 유용하다. 대다수 개발자가 사용하고 있으므로 당분간 이런 상태가 유지될 것이다.
챗GPT와 같은 대형모델을 효율적으로 운용할 수 있는 칩 개발 또한 중요 이슈다. 앞으로 어느 정도 크기의 모델이 등장할지 예측할 수 없다. 단일 칩만으로는 해결할 수 없는 문제이기 때문이다. 이에 따라 확장할 수 있는 칩 설계와 그에 맞는 연동 기술에 관한 연구가 필요하다. 바로 챗GPT가 AI 반도체 분야에 가져온 변화다.
우리나라에서도 변화에 발맞춰 대기업 및 스타트업을 중심으로 빠른 R&D가 진행되고 있다. 정부 역시 새로운 반도체 시장 창출을 위한 대규모 R&D를 추진 중이다. R&D가 성공적으로 이뤄져 NPU 기반 새로운 AI 서비스가 등장한다면 대한민국이 이 분야를 주도하게 될 것이다.
조일연 한국전자통신연구원(ETRI) 인공지능컴퓨팅연구소장 iycho@etri.re.kr