인공지능(AI) 영상분석 전문기업 씨이랩의 그래픽처리장치(GPU) 활용 솔루션 ‘우유니(Uyuni)’는 생성형 AI 시대의 파운데이션 모델과 애플리케이션 서비스를 위한 필수 솔루션이다.
우유니는 GPU 사용 효율을 높여주는 솔루션이다. 우유니를 도입했을 때 GPU 사용 효율을 4배 이상 증대할 수 있다. 아울러 개발자에게 표준화된 AI 개발환경을 제공하고 클러스터 모니터링을 제공한다. 생성형 AI 시대에 GPU 운영에 필요한 주요 솔루션으로 자리매김하고 있다.
씨이랩은 생성형 AI 시대 다양한 고객 수요를 반영할 수 있도록 우유니 제품라인업을 리포지셔닝했다. GPU 사용목적과 운영규모에 따라 파운데이션, 클라우드, 어플리케이션 3개 버전으로 세분화해 시장에 출시했다. 각 버전별로 특화된 기능을 제공함으로써 우유니 고객 커버리지를 넓히고 있다.
먼저 하이퍼스케일(Hyperscale) 데이터센터를 운영하거나 초거대 AI 모델을 개발하는 파운데이션 고객에게는 대규모언어모델(LLM)과 같은 거대 AI 모델을 학습하거나 관리할 수 있는 기능을 제공한다.
또 표준화된 개발환경에서 대규모 클러스터 관리가 가능하도록 강력한 클러스터 관리 기능을 제공한다. 고성능 컴퓨팅을 위해 설계된 워크로드 관리자인 ‘슬럼(Slurm)’과 컨테이너 오케스트레이션 솔루션인 ‘쿠버네티스(Kubernetes)’를 지원한다. 이를 통해 다양한 AI 워크로드 구성 및 관리가 가능하다.
하이퍼스케일 데이터센터에서는 여러 IT 인프라가 복잡하게 얽혀 있고 여러 사람이 접근해 작업을 진행해야한다. 이는 간단한 작업일지라도 오랜 시간이 소요되거나 사람이 실수할 가능성이 높아진다는 의미다. 우유니는 쿠버네티스 기반 표준화된 개발환경과 손쉬운 AI 모델 관리 기능을 통해 대규모 인프라의 운영 안정성을 제공한다.
마지막으로 클라우드 서비스를 운영하거나 AI 모델을 이용한 어플리케이션 개발 고객에게는 여러 퍼블릭 클라우드 및 API 마켓플레이스와 쉽게 연계할 수 있는 기능을 제공한다. 이를 통해 생성형 AI를 활용한 어플리케이션 개발 시간을 단축하고 GPU 운영 원가를 절감할 수 있다.
AI 서비스 분야는 최근 많은 AI 기업이 생성형 AI 모델을 활용한 애플리케이션 개발에 착수한만큼 시장 내 치열한 경쟁이 예상된다. LLM과 같은 생성형 AI 모델은 매우 크고 무겁기 때문에 서비스 운영 시에도 많은 GPU 자원을 소모하고 서비스 시간을 지연시키고 있다.
클라우드 인프라를 활용한 AI 서비스 중 GPU 사용료는 인프라 비용 중 가장 높은 원가 비중을 차지한다. 이러한 경쟁상황 속 GPU 효율 향상은 애플리케이션 서비스 원가절감을 가져오며 생성형 AI 시대 어플리케이션 경쟁력으로 작용한다.
우유니는 2018년 출시된 이후 대표 GPU 툴링 솔루션으로 시장을 선도해왔고 생성형 AI 시대를 맞아 또 한 번의 진화를 하고 있다. 생성형 AI가 새로운 AI 생태계를 만들고 있듯 앞으로 우유니 역시 AI 서비스의 필수 솔루션으로 자리매김할 것이 기대된다.
2010년 설립된 씨이랩은 AI 영상분석 전문 기업이다. 대용량 영상 데이터의 분석 및 가공, 활용에 특화된 기술을 인정받아 2021년 2월 코스닥에 상장했다. 주요 사업은 △AI를 통한 실시간 대규모 영상분석△AI 학습용 합성데이터 생성 △GPU 활용 최적화이다. AI 컴퓨팅 분야 선도 기업인 엔비디아 GPU에 자사 솔루션 우유니를 탑재해 판매하는 어플라이언스 사업에서 경쟁력을 확보했다.
김명희 기자 noprint@etnews.com
-
김명희 기자기사 더보기