IT 업계는 물론이고 제조와 소매, 유통, 서비스업에 이르는 다양한 버티컬 시장에서 AI에 대한 관심도가 높아지고 있다. AI가 비즈니스 생산성과 경쟁력을 강화하기 위한 핵심 요소가 될 것이라는 기대감에 AI가 새로운 지평을 열어갈 것으로 기대하고 있으며, 앞으로도 AI의 영향력은 산업군을 가리지 않고 확장돼 나갈 것으로 예상되고 있다.
하지만 많은 사람들이 간과하고 있는 사실 중 하나는 AI의 품질은 데이터가 좌우한다는 것이다. AI의 학습을 위해서는 방대한 양의 데이터가 필요하며, 이런 데이터의 품질이 AI의 편향과 같은 문제를 유발하는 문제가 될 수도 있다. 반면 AI의 도입 이유 중 하나는 기업들이 데이터 경영을 추구하면서 기업이 보유한 데이터를 보다 효율적으로 사용하고자 하는 부분에 기인한다. 이런 데이터를 분석해 인사이트를 얻기 위한 가장 효율적인 방법은 다시 AI로 귀결된다.
따라서 이 두 기술은 서로가 서로를 보완하면서 상호 발전해 나간다고 할 수 있다. 특히 생성AI의 등장은 이런 인공지능의 영향력을 더욱 강화하고 있다. 자연어로 명령을 내리면 이미지를 만들고, 회의 내용을 요약하고, 수많은 데이터를 분석하고 인사이트를 뽑아 리포트를 만들어 주고, 심지어 코드를 생성해 업무를 자동화하고 서비스를 만들어 주기까지 한다.
현재 많은 기업들이 생산성 향상, 그리고 변화에 대한 탄력적이고 유연한 대응, 경쟁력의 확보 등 여러가지 이유로 AI와 빅데이터를 적극적으로 수용하고 있지만, 특히 AI와 관련해 아직도 해결해야 할 과제가 산적해 있다.
특히 실제 비즈니스 환경에 AI를 적용하기 위해서는 인프라 구축에서부터 적절한 AI 서비스, 그리고 LLM의 선택, 그리고 이들의 학습과 AI 애플리케이션 개발, 배포, 관리, 그리고 심지어 인력 충원과 개발자 양성에 이르는 다양한 영역을 아우르는 전략과 실행 방안이 필요하다.
이외에도 생성AI로 인해 드러나고 있는 데이터 보안과 거버넌스 등의 문제에 대한 해결 방안도 필요하다. 서서히 AI와 관련된 법적인 규제나 규정이 제정되고 있는 상황이기에 이에 대한 대비 또한 필요한 것이다. 특히 AI의 품질은 학습 데이터의 품질에 의해 좌우되는 만큼 양질의 학습 데이터를 어떻게 확보하고 활용할 것인가에 대해서도 준비가 필요하다.
AI 관련 기업들은 저마다 신뢰할 수 있는 AI, 책임있는 AI를 외치고 있지만, 신뢰할 수 있고 책임있는 AI가 기존 AI와 어떤 측면에서 다르고, 이를 위해 우리가 준비해야 할 것은 무엇인지 또한 고민해야 할 문제다.
AI를 기반으로 기업의 비즈니스 데이터와 비즈니스 프로세스를 보다 효율적으로 운영하고 경쟁력을 강화하기 위한 MLOps/AIOps는 물론이고, LC/NC(Low Code/No Code)와 같은 셀프 서비스 중심의 데이터 AI를 구현하기 위해서는 무엇보다 이런 신뢰할 수 있는 AI, 책임있는 AI가 급선무이며, 이런 바탕이 확고하게 만들어져야만 이를 기반으로 HR, 마케팅, 영업, 고객 서비스 등 실제 비즈니스 환경에 AI를 적용할 수 있다.
문제는 이런 AI 기술이 아직 초기 개발 단계임에도 불구하고 수많은 영역에 빠르게 적용되기 시작하면서 여러 부작용이 드러나고, 심지어 많은 조직들은 AI를 어떻게 활용해야 할 것인지에 대해 올바른 방향을 잡지 못하고 있다.
아마존(Amazon)은 이미 20년 넘게 AI와 ML(Machine Learning) 기술 개발에 주력해왔으며, 고객이 사용하는 아마존의 많은 기능은 ML을 기반으로 하고 있다. 아마존의 전자상거래 추천 엔진은 ML로 구동되며, 풀필먼트 센터에서 로봇 피킹 경로를 최적화하는 경로도 ML로 구동된다. 뿐 아니라, 아마존의 공급망, 예측, 용량 계획도 ML 기반이며, 프라임 에어(아마존의 드론 서비스)와 아마존 고(Amazon Go)의 컴퓨터 비전 기술은 딥 러닝을 사용한다. 30개 이상의 서로 다른 ML 시스템으로 구동되는 아마존의 AI 비서 알렉사(Alexa)는 스마트 홈 관리, 쇼핑, 정보 얻기와 엔터테인먼트 등 매주 수십억 번에 달하는 사용자의 요청을 처리하고 있다.
이런 경험과 고객의 피드백을 바탕으로, AWS는 AI21 랩스(AI21 Labs), 앤트로픽(Anthropic), 스태빌리티 AI와 아마존의 FM(Foundation Model)을 API를 통해 액세스할 수 있게 해주는 신규 서비스 아마존 베드록(Amazon Bedrock)을 올해 4월 공개했다.
FM을 사용해 생성AI 기반 애플리케이션을 구축, 확장할 수 있도록 지원하는 베드록은 다양한 빌더에 대한 액세스를 제공한다. 베드록은 확장 가능하고 안정적이며 안전한 AWS 관리형 서비스를 통해, 텍스트와 이미지를 위한 다양한 종류의 FM에 액세스할 수 있는 기능을 제공한다.
베드록의 서버리스 경험을 통해, 고객은 인프라를 관리할 필요 없이 익숙한 AWS 도구와 다양한 모델을 테스트하기 위한 '실험'과 FM을 대규모로 관리하기 위한 '파이프라인'과 같은 아마존 세이지메이커 ML 기능과의 통합 등을 사용해, 수행하려는 작업에 적합한 모델을 찾고, 빠르게 시작할 수 있으며, 자체 데이터로 FM을 맞춤화하고 각 애플리케이션에 쉽게 통합, 배포할 수 있다.
더불어 지난 7월에는 개발자가 클릭 몇 번으로 완전관리형 에이전트를 생성할 수 있는 새로운 기능인 아마존 베드록용 에이전트(Agents for Amazon Bedrock) 미리보기를 발표했다. 아마존 베드록용 에이전트는 기업의 IT 인프라에 대한 API 직접 호출을 통해 작업을 관리하고 수행할 수 있는 생성AI 애플리케이션의 제공을 가속화한다. 에이전트는 FM을 확장해 사용자 요청을 이해하고, 복잡한 작업을 여러 단계로 나누고, 대화를 통해 추가 정보를 수집하며, 요청을 이행하기 위한 조치를 취한다.
아마존 베드록용 에이전트를 사용하면 소매 주문 관리, 보험금 청구 처리 등 내부 또는 외부 고객을 위한 작업을 자동화할 수 있다.
최근 초거대 언어 모델을 중심으로 생성형 AI가 각광을 받고 있다. 텍스트의 의미를 정확하게 분석할 수 있으므로 사용자가 질문을 던지면 의도를 파악해서 관련된 답안을 요약해서 대답하는 기능은 검색을 넘어선 질문이라는 패러다임 전환을 가져오고 있다. 이제는 미국뿐 아니라 한국에서도 여러 회사에서 자체 개발한 LLM을 발표하고 있으며, 일반화된 범용 모델뿐 아니라, 다양한 업무 분야별로 특화된 언어 모델도 속속 등장하고 있다.
하지만 LLM을 기업 업무에 그대로 적용할 경우에는 GPU 인프라를 구축한 다음에 기업 내부 데이터를 활용해 파인 튜닝 과정을 거쳐야 하고 제대로 튜닝됐는지 검토하는 동시에 환각 현상을 방지하기 위한 여러 가지 대비책을 마련할 필요가 있다. 따라서 인프라 구축 비용, 데이터 정제 비용, 검수 인원, 모델 서빙 비용 등 자본 투자가 필요하며, 실시간 성격이 강한 데이터를 지속적으로 현행화하는 과정에서 많은 난관을 겪게 된다.
레인보우브레인의 유레카챗(EurekaChat)은 기업들이 내부에서 보유하고 있던 정형, 비정형 문서를 자동으로 초거대 언어 모델이 이해할 수 있는 지식 데이터베이스를 구축하고, 사용자의 자연어 질의를 받아서 가장 연관이 높은 문서의 해당 부분을 찾아서 생성형 AI 기법을 활용해 요약해서 제공하는 솔루션이다.
이 솔루션은 클라우드는 물론이고 온프레미스 환경을 지원하므로, 기업 외부로의 데이터 유출을 차단할 수 있어, 보안이 중요한 문서에 대해서도 적용이 가능하며, 부서별 멀티테넌시를 제공하므로 답변에 포함될 문서 범위를 접근이 가능한 직원으로 제한할 수도 있다.
'유레카챗'은 전통적인 검색 엔진 알고리즘을 대신해 사용자 질문과 문서의 유사도를 파악해 가장 관련이 있는 내용을 가져오기 때문에 문맥과 의미를 고려한 검색이 가능하다는 특징이 있다. 또한 일반적인 검색과는 달리 찾아낸 문서의 출처와 내용을 요약해서 일목요연하게 보여주므로 정보 접근 시간을 대폭 단축하고 환각과 같은 정확성 오류를 피할 수 있다.
레인보우브레인은 '유레카챗' 솔루션을 발판으로 금융/보험업, 법률업, 유통, 제조, 공공 등 기업형 B2B AI 시장 진출을 위한 마케팅과 파트너쉽을 강화하고 있다. 고객을 위한 전문 지식 서비스 분야는 물론 내부 직원이 서로 공유할 수 있는 지식 기반(Knowledge Base)로서 기존의 DMS(Document Management System)나 KMS(Knowledge Management System)의 검색 기능을 생성AI를 적용해 지능화하는 분야에서도 수요를 기대하고 있다. 또한 레인보우브레인은 RPA 기업인 오토메이션애니웨어(Automation Anywhere)의 플래티넘 파트너로서 RPA와 생성AI를 결합한 다양한 하이퍼오토메이션 사례를 고객에게 지속 선보일 계획이다.
2023년 1월, 마이크로소프트는 오픈AI와의 파트너십 확대를 발표한 이후, 2월에는 GPT-4 기반 빙과 엣지를 공개했다. 뒤를 이어 클라우드 서비스인 애저 오픈AI 서비스에 챗GPT와 GPT-4 지원을 추가하고, 다이나믹스 365 코파일럿, 마이크로소프트 365 코파일럿, 시큐리티 코파일럿, 윈도우 코파일럿 등 마이크로소프트의 서비스 전반에 걸쳐 광범위한 사용자를 위한 코파일럿 서비스를 공개해왔다.
부조종사라는 의미의 코파일럿(Copilot)은 LLM을 사용해 복잡한 작업을 지원하는 시스템으로, 마이크로소프트가 코파일럿 개념을 처음 도입한 건 2021년 6월 깃허브 코파일럿을 프리뷰로 공개하면서부터다. 깃허브 코파일럿은 마이크로소프트의 오픈소스 플랫폼 깃허브의 AI 페어 프로그래머로, 자연어를 코드로 변환하는 오픈AI의 코덱스(Codex)를 활용해 존재하는 코드에 기반해 전체 코드를 추론하고 제안한다.
마이크로소프트는 깃허브 코파일럿의 아이디어를 바탕으로, 직업에 관계없이 모든 사람들이 모든 일에 대해 AI 기반 부조종사를 갖게 되는 세상을 만들어 가고 있다.
마이크로소프트는 AI 민주화, 즉 모두가 활용할 수 있는 AI 기술을 개발하고 지구상의 모든 사람과 조직이 더 창의적인 일과 혁신적인 사고를 하기 위한 시간을 확보하도록 돕기 위해 AI를 사용하는 것을 목표이자 AI에 대한 접근 방식으로 삼고 있다.
2023년 3월 공개된 마이크로소프트 365 코파일럿은 LLM과 마이크로소프트 그래프의 비즈니스 데이터, 마이크로소프트 365 앱을 결합해 사용자의 창의성과 생산성, 스킬 향상 등을 돕는다. 마이크로소프트는 두 가지 방식으로 코파일럿을 자사 생산성 도구에 결합한다.
먼저 워드, 엑셀, 파워포인트, 아웃룩, 팀즈 등 일상적으로 사용되는 마이크로소프트 365 앱에 코파일럿이 내장된다. 이를 통해 사용자는 워드에서 더 창의적이고 엑셀에서 더 분석적이며 파워포인트에서 더 풍부하게 표현할 수 있고, 아웃룩에서는 생산적이고 팀즈에서 보다 잘 협업할 수 있게 된다.
코파일럿은 비즈니스챗(Business Chat)으로도 적용된다. 이는 대형언어모델, 마이크로소프트 365 앱, 사용자 데이터(캘린더, 이메일, 채팅, 문서, 미팅, 연락처 등)가 만나 이전에는 할 수 없었던 작업을 가능하게 한다.
마이크로소프트 365 코파일럿은 매일 사용하는 앱에 완벽하게 통합돼, 사용자가 작업 흐름을 유지할 수 있도록 돕고, 당면한 작업에 집중하고 후선 작업에 덜 집중할 수 있도록 한다. 사용자는 코파일럿이 생성한 콘텐츠를 보관할지 수정할지 혹은 완전히 폐기할지를 스스로 결정한다.
마이크로소프트는 기업 내 데이터 보안과 개인 정보 보호에 대한 기존 약속, AI 원칙과 책임 있는 AI 표준, 수십 년의 연구를 기반으로 마이크로소프트 365 코파일럿을 구축했다. 특히 코파일럿의 LLM은 고객 콘텐츠나 개별 프롬프트에 의해 학습되지 않으며, 마이크로소프트의 권한 부여 모델은 사용자 그룹 간에 데이터가 유출되지 않도록 보장한다.
마이크로소프트는 지난 3월부터 셰브론(Chevron), 굿이어(Goodyear), 제너럴 모터스(General Motors), 도우(Dow) 등 20개 기업과 코파일럿을 테스트해왔다. 이들은 코파일럿이 미팅의 판도를 바꾸고 창작의 방식을 전환하기 시작했다고 평가하고 있다. 반면 더 많은 대화형 프롬프트 기반 상호작용 등 사람들이 새 업무 방식에 적응하는 것을 돕기 위한 노력의 필요성도 제시했다.
현재 마이크로소프트는 선별된 고객사 600곳을 대상으로 하는 유료 프리뷰 '마이크로소프트 365 코파일럿 얼리 액세스 프로그램(Microsoft 365 Copilot Early Access Program, Link)'을 통해 더 많은 피드백을 받아 지속적으로 코파일럿을 개선해 나가고 있다.
최근 들어 데이터는 종류와 양적인 양쪽 측면 모두에서 극적으로 빠른 증가세를 보이고 있다. IDC(International Data Corporation)의 '데이터 에이지 2025(Data Age 2025)' 보고서에 의하면 2024년 전 세계 데이터 영역 규모는 120ZB(ZetaBytes)를 넘어설 것으로 전망되는데, 이는 2020년과 비교했을 때, 약 2.4배 증가한 수치다.
이런 상황 속에서 생성된 데이터를 안전하게 보관하고 효율적으로 이용하기 위한 노력도 이어지고 있는데, 대량의 서버와 네트워크 장비를 일정한 공간에 밀집하여 데이터를 저장하고 관리하는 데이터센터(Data Center) 설립과 운영은 이런 데이터의 저장과 관리를 위한 대표적인 방법이다.
다만 아무리 방대한 데이터를 저장할 수 있는 데이터센터라고 해도 한계는 존재하기 때문에 보다 효율적으로 시스템을 운영하고 유지 보수하기 위해서는 고용량·고밀도 스토리지가 필요하다.
씨게이트(Seagate)는 데이터센터에 최적화된 스토리지인 '엑소스 코볼트(Exos CORVAULT)'를 공급하고 있다. 4U 섀시 랙에 하드 드라이브를 106개 내장해 최대 용량 2.12PB(PetaBytes)를 구성할 수 있고 12Gbps Mini-SAS HD 인터페이스를 통해 순차 읽기 속도 14GBps, 순차 쓰기 속도 12GBps, 데이터 액세스 속도 17,680IOPS로 작동한다.
엑소스 코볼트는 이외에도 ADR(Autonomous Drive Regeneration, 자동 드라이브 복구)과 ADAPT(Autonomic Distributed Allocation Protection Technology, 자율 분산 할당 보호 기술)가 적용돼 데이터를 보다 안전하게 보호할 수 있다.
ADR은 하드 드라이브 오류가 발생한 면을 제외한 나머지 용량을 재활용해서 다시 쓸 수 있게 만드는 기술이며, ADAPT는 모든 데이터를 각각의 하드 드라이브에 분산해 효율적으로 데이터를 보호하고 스토리지에 문제가 생긴 경우 성능 저하 없이 빠르게 리빌딩할 수 있는 기술이다.
엑소스 코볼트는 전문적인 연구 데이터를 분석하고 개발하는 기관의 데이터센터에서 유용하게 활용될 수 있다. 예를 들면 VR(Virtual Reality)이나 AR(Augmented Reality) 분야 등이 대표적이다.
VR·AR 콘텐츠를 개발하기 위해서는 고성능 컴퓨팅 장비를 통해 데이터를 시각적으로 분석하고 사람이 체감할 수 있도록 렌더링해야 하는데, 이 과정에서 방대한 데이터가 생성된다. 이를 처리하기 위한 VR·AR 연구용 스토리지는 PB급 저장 용량과 수십 GBps급 전송 속도를 요구하는데, 엑소스 코볼트를 활용한다면 충분히 해결할 수 있다.
시간이 지날수록 데이터의 증가 속도가 가속화되고 있는 가운데, 이로 인해 데이터센터의 역할은 점점 더 커지고 있다. 매년 여러 곳에서 데이터센터가 새롭게 건립되고 있지만 더 중요한 것은 이미 존재하고 있는 데이터센터를 더 효율적으로 운영하는 것이다.
이런 목표를 달성하기 위해서는 유지 보수가 편리한 고밀도·고용량 스토리지가 필수인데 씨게이트의 엑소스 코볼트가 적합한 선택지가 중 하나가 될 수 있을 것이다.
클라우드 데이터베이스 플랫폼을 공급하고 있는 카우치베이스(Couchbase)의 서비스형 데이터베이스인 카우치 카펠라(Couchbase Capella)는 최근 생성AI인 카펠라 iQ를 도입해 개발자 생산성을 크게 향상하고 최신 애플리케이션의 출시 기간을 단축시킬 수 있도록 도울 수 있다.
카펠라 iQ는 개발자들이 SQL+ 업데이트를 작성할 수 있도록 하고 추가 코드 수준의 코드 효율성을 향상시키며, 파운데이션 모델을 사용해 카펠라 개발자 워크벤치 IDE에 인텔리전스를 추가한다.
카펠라 iQ를 사용하면 개발자는 자연어를 사용해 코드, 샘플 데이터 세트, 단위 테스트를 빠르고 쉽게 생성할 수 있다. 또한 인덱스 생성, 검색 구문이나 기타 카펠라에 대한 프로그래밍 방식 액세스에 대해서도 조언한다. 카펠라 iQ를 통해 더 빠르게 애플리케이션을 구축하고 테스트하면 생산성과 품질이 향상됨에 따라 출시 기간을 단축할 수 있다.
카우치베이스는 개발자 환경을 더욱 개선하고 효율성을 높이며 클라우드 데이터베이스 플랫폼을 보다 쉽게 운영할 수 있도록 개발자 경험을 단순화하고, 운영 지능화는 물론 보안과 거버넌스를 강화해 나가고 있다.
카우치베이스는 프론트엔드와 풀스택 개발자들이 선호하는 Vercel이나 IntelliJ IDE 제품군 등과 통합된 개발자 플랫폼 생태계로 카펠라를 확장해 개발자나 개발 팀의 협업을 강화했다.
카펠라 클러스터는 디스크 스토리지와 IOPS를 동적으로 확장해 증가하는 워크로드를 보다 효율적으로 처리할 수 있어, 응답 시간을 향상시키며, 증가된 디스크 IOPS를 통해 카펠라 클러스터는 더 높은 수준의 동시 읽기와 쓰기 작업을 처리할 수 있다. 이를 통해 사용량이 가장 많은 기간에도 애플리케이션의 가용성을 유지할 수 있다.
이외에도 카펠라는 PCI DSS 4.0이나 CSA STAR 레벨 2 규정 준수에 대해 독립적인 검증을 받았다. 이런 향상된 기능은 카우치베이스 카펠라가 이미 달성한 SOC 2 Type II와 HIPAA 규정 준수를 보완해 클라우드 애플리케이션에 대한 광범위한 엔터프라이즈 요구 사항을 충족한다.
카우치베이스는 개발자와 설계자가 어디서나 최신 애플리케이션을 개발, 배포, 실행하는 방법을 단순화하는 것을 목표로, 부정 행위 탐지, 제품 카탈로그 권장 사항, 예측 분석 등과 같은 차세대 애플리케이션을 구축할 수 있는 고성능 확장 가능한 클라우드 데이터베이스 플랫폼을 제공한다.
카펠라 앱 서비스(Capella App Services)는 예측 쿼리 API를 통해 에지 AI를 활성화하고, 이를 통해 모바일 애플리케이션은 훈련된 기계 학습 모델을 사용해 저장된 데이터에 대해 모바일 장치에서 로컬로 예측 쿼리를 실행할 수 있다. 또한 카우치베이스 고객은 파이썬 사용자 정의 함수를 사용해 데이터베이스에 대해 모델을 실행할 수 있다.
카우치베이스는 AI 기반의 미래를 위한 제품 혁신에 투자하는 것 외에도 조직의 AI를 가속화하기 위해 강력한 파트너 에코시스템을 구축하고 있다. 이를 위해 카펠라를 통해 AI 기반 애플리케이션을 보다 쉽게 구축하고 광범위한 AI와 데이터 에코시스템과의 통합을 지원하는 카우치베이스 AI 액셀레이트 파트너 프로그램을 진행하고 이다.
쉐어플렉스는 데이터베이스의 트랜잭션로그를 읽어 데이터 변경분을 복제하고, 타깃 데이터베이스를 실시간 상태로 동기화한다.
이는 시간이 지날수록 실시간 데이터가 필요로 하는 AI와 빅데이터 시대에서 반드시 필요한 요소다. 다양한 환경에서 다양한 목적으로 이용되는 퀘스트 쉐어플렉스(Quest SharePlex) 변경데이터를 추출하기 위해 데이터베이스의 리소스를 사용하지 않고 오라클의 'redo log'에 직접 접근해 추출함으로써, 데이터베이스의 추가적인 부하를 최소화하고 더 빠른 성능과 신뢰성을 제공한다.
또한 다양한 데이터베이스와 플랫폼이 호환되므로 이기종이나 여러 가지 IT 환경에서의 비지니스 요구를 충족시킬 수 있으며, 실시간 데이터 동기화에서 가장 중요한 것은 데이터 정합성 보장을 위한 여러가지 기능을 제공한다. 실시간으로 소스와 타깃 데이터베이스의 데이터 무결성을 검증하고, 휴먼 에러 등 여러가지 이유로 데이터 정합성에 문제가 발생했을 경우, 데이터를 검증하고 보정하는 툴을 제공한다.
데이터 마이그레이션이나 DR(Disaster Recovery) 프로젝트에서 쉐어플렉스를 이용하면, 높은 비용 절감 효과를 기대할 수 있다. 마이그레이션 프로젝트는 최소한의 다운타임으로 정확하게 데이터를 이관해야 한다. 쉐어플렉스는 ASIS 데이터가 이관되는 동안 서비스를 유지하면서 동시에 변경데이터를 추출하고, 초기 데이터 이관이 완료되면 온라인 중에 변경 데이터를 적재해 다운타임을 최소화할 수 있다.
그리고 기존 디스크 미러링을 통한 DR은 동일한 사양의 디스크와 별도 회선이 필요하기 때문에 비용적인 부분이 고려될 수 있지만, 쉐어포인트를 이용할 경우, 동일한 사양과 별도 회선이 필요하지 않기 때문에 비용을 절감할 수 있다.
이외에도 비즈니스 요구에 따라 데이터를 통합하고 분산해 read 분산 효과를 얻을 수 있으며, 데이터 웨어하우스를 구현할 수 있습니다.
따라서 퀘스트 쉐어플렉스는 기업의 비즈니스 요구를 다양하게 충족할 수 있는 다재다능하고 안정적인 솔루션이다. 쉐어플렉스가 제공하는 성능, 호환성, 비용 효율성은 데이터 관리와 통합 프로세스를 최적화하려는 고객에게 최적의 솔루션이라고 할 수 있다.
기업의 IT 담당자의 부담중의 하나가 다양한 애플리케이션의 배포와 운영 관리다. 기업의 인프라 환경이 다양하고 복잡해지면서 이런 부담은 점점 가중되고 있다.
맨텍 아코디언은 쿠버네티스를 기반으로 애플리케이션 배포와 운영을 위한 최적의 환경을 제공하며, 클라우드 네이티브 애플리케이션 실현을 위한 올인원(All-in-One) 통합관리 기능을 제공한다.
아코디언은 애플리케이션을 효율적으로 운영하기 위한 멀티 클러스터 관리 기능을 제공한다. 리소스 모니터링과 알림 기능 등이 멀티 클러스터 환경 관리가 가능한 통합 모니터링 시스템에서 가능해, 운영 중 발생할 수 있는 문제를 빠르게 감지하고 해결할 수 있다. 자동화된 CI/CD 기능은 멀티 클러스터 통합 배포 파이프라인에도 지원된다. 컨테이너를 빌드해 특정 클러스터를 지정해 배포하거나 동일한 환경의 애플리케이션을 여러 클러스터로 배포할 수 있다.
아코디언의 카탈로그 기능을 통해 서비스를 구성하는 방식 외에도 사용자에게 친숙한 헬름차트(Helm chart)를 지원한다. 쿠버네티스 패키지 관리자인 헬름차트를 통해, 서비스 구성에 필요한 쿠버네티스 리소스를 정의해 한 번에 생성할 수 있다. 헬름차트를 통해 정의된 쿠버네티스 리소스는 yaml 파일로 생성, 관리하며, 배포 외에 버전 관리와 업그레이드 작업에도 사용할 수 있다. 사용자는 아코디언의 헬름차트 레포지터리(Helm chart repository)에서 제공하는 차트를 이용해 애플리케이션을 배포할 수 있으며 이외에도 작성된 차트를 저장하거나 써드파티 레포지터리(3rd party repository)를 추가할 수도 있다.
아코디언은 클러스터를 중앙집중화해 실시간으로 모니터링할 수 있으며, 멀티 클러스터의 원활한 운영을 지원한다. 통합된 매트릭을 수집하고, 수집한 데이터의 중복 제거와 장기적인 데이터 보관을 통해 가용성과 확장성을 제공한다. 이를 통해 클러스터나 애플리케이션 단위의 메트릭 데이터를 수집하고 모니터링해 서비스 병목 현상과 문제점을 쉽고 빠르게 발견할 수 있다. 또한, 수집된 데이터를 사용자가 한눈에 확인할 수 있도록 대시 보드로 시각화해 보여준다.
[알림] GTT KOREA와 전자신문인터넷은 오는 9월 20일 수요일 오전8시 30분부터 오후 5시 30분까지 인터컨티넨탈 서울 코엑스 하모니볼룸에서 “Next AI & BigData Summit(NABS) 2023”을 개최한다. 이 행사에서는 총 20개 세션과 전시 부스를 통해 AI와 Big Data 최신 기술 트렌드를 조망하고, 현재 기업과 조직이 처한 과제 및 해결 방안을 공유하며, 산업별·조직별 맞춤형 AI & Big Data 활용 전략이 제시된다.
전자신문인터넷 유은정 기자 judy6956@etnews.com