슈퍼솔루션이 공급하는 슈퍼마이크로 'AS-8125GS-TNMR2'는 최대 256개 코어와 8개의 AMD 인스팅트 MI300X 가속기로 구동되는 그래픽처리장치(GPU) 서버다.
슈퍼마이크로는 엣지에서 클라우드에 이르기까지 광범위한 시스템 포트폴리오를 갖추고 GPU 시장을 이끄는 회사다. 1U에서 10U에 이르는 GPU 서버 포트폴리오를 보유하고 있다. 슈퍼솔루션은 슈퍼마이크로의 한국 총판이자 서버 및 스토리지 전문 업체다.
제품은 인공지능(AI), 고성능컴퓨터(HPC)용이다. 가장 큰 언어모델에 적합한 추론 성능을 갖췄다. AS-8125GS-TNMR2 시스템은 고급 AI 및 HPC 워크로드용 AMD 인스팅트 MI300X GPU를 탑재했다. 인스팅트 MI300X는 대규모 언어모델(LLM)을 교육, 운영에 쓰이는 AI용 반도체다. AMD가 AI 시장에서 엔비디아의 H100 독주를 막기 위해 이달 출시한 회심작이다.
MI300X의 가속기는 HPC 및 AI 워크로드에 특화한 세계 최초 APU 가속기다. APU는 단일 칩에 GPU와 CPU를 통합한 것으로, 대용량 메모리를 지원하기 때문에 하나의 가속기에 매개변수가 400억개인 팔콘-40과 같은 LLM을 운영할 수 있다.
AS-8125GS-TNMR2는 최대 256개 코어와 8개의 GPU 가속기를 통해 시스템을 구동한다. 가속화된 고성능 컴퓨팅 애플리케이션과 빠르게 증가하는 생성형 AI에 대한 수요 모두에 대해 성능 우위를 제공할 수 있다.
균형 잡힌 시스템 설계로 GPU를 일대일 네트워킹과 연결해 노드와 랙 전체에 걸쳐 고대역폭 메모리를 제공함으로써 추론 성능을 대폭 향상시켰다. 이를 통해 현재 가장 큰 언어모델에 있는 최대 수조 개에 달하는 매개변수를 안정적으로 추론할 수 있다. 아울러 총 소요비용도 절감할 수 있다.
업계 최고인 1.5TB HBM3 GPU 메모리를 갖춘 개방형 표준 플랫폼에서 최대 896GB/s의 이론적 피크 P2P I/O 대역폭을 지원한다. 기본 희소 매트릭스 지원을 통해 전력을 절약하고 컴퓨팅 주기를 낮추며 AI 워크로드에 대한 메모리 사용을 줄인다.
제품은 공기 및 액체 냉각식 랙스케일 설계를 갖췄다. 8랙 규모에서는 가장 까다로운 AI 환경에 대해 1000개 이상의 중앙처리장치(CPU) 코어, 24테라바이트(TB)의 DDR5메모리, 6.1444TB의 HBM3 메모리 및 9728개의 컴퓨팅 유닛을 사용할 수 있다는 게 슈퍼솔루션의 설명이다.
슈퍼솔루션 관계자는 “고객의 필요한 조건을 충분히 만족시키는 신뢰성 있는 생성형 AI 플랫폼을 간편하게 구축할 수 있고, AI 애플리케이션을 제공하는 데 드는 높은 비용을 낮추는 데도 도움이 될 수 있다”면서 “많은 수요가 있을 것으로 예상한다”고 전했다.