“최근 인공지능(AI) 모델이 갈수록 커지면서 RDMA(Remote Direct Memory Access) 기술을 통해 CPU 간섭없이 여러 노드의 GPU서버를 한 개의 거대한 연산장비로 통신함에 따라 GPU성능 뿐만 아니라 네트워크·스토리지 성능도 중요성이 커지고 있습니다.”
RDMA는 고속 네트워크를 통한 메모리 간 데이터 전송용 기술로 CPU를 사용하지 않고 메모리에서 메모리로 직접 원격 데이터를 전송, CPU 부담을 덜어줄 뿐 아니라 호스트 메모리·I/O 버스 경합을 줄여 준다.
김성민 슈퍼마이크로 상무(필드애플리케이션엔지니어)는 지난 10~12일 서울 삼성동 코엑스에서 열린 인공지능(AI)엑스포 코리아 2023에 참가해 AI를 가능케 하는 HW 빌딩블록을 주제로 세미나 세션에서 이같이 밝혔다.
김성민 상무는 “최근 3년동안 언어모델의 파라미터 개수가 약 1만5500배 증가함에 따라 과거 음성인식 수준에서 현재는 대화형 AI 서비스가 가능하게 됐다”면서 “이는 개발 작업을 뒷받침하는 특화된 GPU의 연산코어가 수천개의 작업을 한꺼번에 병렬 처리를 할 수 있기 때문이다”고 설명했다.
이에 따라 그는 “AI 모델이 점점 커지고 있고, 데이터의 양도 늘어나고 있기 때문에 챗GPT 같은 거대한 AI 언어 모델 개발을 필요로 하는 작업에는 데이터 수집, 가공, AI 모델 트레이닝을 거치면서 대규모 저장 공간이 필요하다”고 강조했다. .
그는 또한, 슈퍼마이크로는 서버 개발단계에서 제조를 자체적으로 직접하기 때문에 슈퍼마이크로의 빌딩 블록 아키텍처 솔루션을 바탕으로 최신 CPU나 GPU가 출시되면 경쟁사 대비 가장 빨리 최적화된 서버를 공급할 수 있다고 덧붙였다
슈퍼마이크로는 한국총판 슈퍼솔루션을 통해 골드 스폰서로 참가해 최신 엔비디아 GPU 서버, 8-WAY MP 서버, 리퀴드 쿨드 워크스테이션 등 빅데이터 센터 인프라 도입에 필요한 다양한 서버 제품을 전시했다.
안수민 기자 smahn@etnews.com
-
안수민 기자기사 더보기