[스페셜리포트]HBM을 찾는 곳은 누구

가속 컴퓨팅과 생성형 AI를 위한 엔비디아 차세대 GPU 'GH200'. 엔비디아 제공
가속 컴퓨팅과 생성형 AI를 위한 엔비디아 차세대 GPU 'GH200'. 엔비디아 제공

엔비디아·AMD·인텔 등 시스템 반도체 기업의 그래픽처리장치(GPU) 경쟁이 고대역폭메모리(HBM) 시장 확대를 견인하고 있다는 평가다.

챗GPT로 대표되는 생성형 인공지능(AI) 등 AI 서비스 고도화로 대용량 데이터를 빠르게 연산할 수 있는 시스템 반도체 수요가 늘고 이들 성능을 뒷받침할 수 있는 메모리 반도체로 HBM도 증가세다.

실제 엔비디아·AMD 등 글로벌 시스템 반도체사의 HBM 선주문에 삼성전자·SK하이닉스가 HBM 생산능력을 두 배 이상 확대하고 있다.

국내 반도체 석학들은 개인 AI 비서 서비스가 상용화되면 HBM 수요가 지금보다 10배 이상 늘어날 것이라고 보고 있다.

AI 시장을 선점하려는 글로벌 시스템 반도체 기업 간 경쟁이 치열하다. 엔비디아가 90% 가까이 장악한 GPU 시장에 AMD와 인텔이 참전하고, 이에 HBM 수요처 또한 다각화될 것으로 기대된다.

AMD는 올해 대형언어모델(LLM)과 최첨단 AI 모델을 위한 GPU 신제품 'MI300'을 선보이며 엔비디아에 도전장을 내밀었다. 리사 수 AMD 최고경영자(CEO)는 “MI300이 엔비디아가 생산하는 GPU 'H100'과 경쟁하기 위해 설계됐다”며 엔비디아와 본격적인 경쟁을 예고했다.

유사한 성능과 가격 경쟁력을 앞세워 3분기 대형 클라우드 기업과 엔터프라이즈 대기업, AI 기업을 공략하고 4분기부터 MI300 양산을 확대할 예정이다. 수요 대비 공급이 원활하지 않은 엔비디아 GPU 대안으로 자리매김한다는 전략이다.

엔비디아는 이러한 AMD 도전에 가속 컴퓨팅과 생성형 AI에 특화된 슈퍼 GPU 'GH200'을 선보이며 맞불을 놨다. AI 학습뿐만 아니라 추론에도 강점이 있는 GPU로 시장 지배력을 유지하겠다는 복안이다. GPU 최초로 최선단 HBM 'HBM3E' 탑재를 선언했다. HBM3E는 HBM3보다 데이터 전송속도가 50% 빠르며 초당 총 10TB 대역폭을 제공한다.

또 HBM3E 프로세서를 탑재한 GH200 기반 차세대 플랫폼을 구성, 기존 서버 대비 최대 3.5배 많은 메모리 용량과 3배 높은 대역폭을 제공하는 듀얼 구성으로 144개 Arm 네오버스 코어, 8페타플롭 AI 성능, 282GB 최신 HBM3E 메모리 기술을 갖춘 AI 데이터센터 특화 서버를 제공할 계획이다.

인텔 또한 AI 학습용 CPU '가우디2'로 AI 반도체 시장에 출사표를 냈다. 산드라 리베라 인텔 수석부사장은 “가우디2는 반도체 성능 테스트 '엠엘퍼프 벤치마크' 중 언어 학습 부분에서 엔비디아 A100보다 더 뛰어나다는 게 입증됐다”고 밝혔다.

또 엔비디아 대항마를 자처하는 사피온·퓨리오사AI·리벨리온·딥엑스 등 국내 AI 반도체 기업이 자사 신경망처리장치(NPU) 양산을 본격화하면 향후 HBM 시장 성장에 일조할 것으로 기대된다.

반도체 업계 관계자는 “HBM을 필요로 하는 기업이 늘어나면 메모리 반도체 제조사도 특정 기업의 수요에 좌우될 이유가 없다”며 “GPU·AI반도체 경쟁이 심화되면 공급처를 안정적으로 확보하고 가격 정책도 다변화할 수 있어 삼성전자·SK하이닉스 입장에서 긍정적”이라고 전했다.

박종진 기자 truth@etnews.com