스노우플레이크, 메타와 협업···코텍스 AI 최적화

[사진= 스노우플레이크 제공]
[사진= 스노우플레이크 제공]

스노우플레이크가 인공지능(AI) 애플리케이션을 대규모로 쉽게 활용·구축할 수 있도록 '스노우플레이크 코텍스 AI'에서 라마 3.1 호스팅을 개시한다.

라마 3.1은 다중 언어 오픈소스 거래언어모델(LLM) 컬렉션이다.

스노우플레이크는 실시간 고처리량 추론을 구현하는 것은 물론 강력한 자연어 처리·생성 애플리케이션 보편화를 증진하는 추론 시스템 스택을 개발하고 오픈소싱한다.

스노우플레이크 고객은 AI 데이터 클라우드에서 메타의 최신 모델에 원활하게 액세스하고 파인튜닝해서 배포할 수 있다.

비벡 라구나단 스노우플레이크 AI 엔지니어링 부사장은 “스노우플레이크 AI 리서치팀은 기업과 오픈 소스 커뮤니티가 라마 3.1 405B 등 최첨단 오픈 모델을 적극 활용해 효율 극대화를 위한 추론과 파인튜닝을 가능하게 한다”면서 “메타의 첨단 모델을 스노우플레이크 코텍스 AI를 통해 고객에게 직접 제공하고, 기업과 AI 커뮤니티 역량을 강화하고 있다”고 말했다.

류태웅 기자 bigheroryu@etnews.com