양자컴퓨팅 기술이 새로운 인공지능(AI) 발전 동력으로 떠오르고 있다. 실제 기술 활용에 상당한 시간이 걸리고, 아직까지 기존 컴퓨팅보다 성능이 떨어지는 영역도 있다. 궁극적으로는 AI 성능이 '퀀텀 점프'를 이뤄 발전하는데 핵심 기반이 될 것으로 기대를 모은다.
양자컴퓨팅은 중첩·얽힘·결맞음 등 양자역학 현상을 이용하는 연산 기술이다. 강력한 연산 성능으로 AI 발전에 큰 도움이 된다. 기존 컴퓨터는 2진법을 기본 비트로 사용하지만 양자컴퓨터는 연산에 0과 1 사이 무수히 많은 조합을 한 번에 이용한다. 비트 증가에 따라 연산능력이 기하급수로 늘어난다.
일부 영역에서는 양자컴퓨팅이 슈퍼컴퓨터 성능을 능가할 수 있다는 '양자 우위성'을 확인했을 정도다. 구글이 지난 10월 53큐빗(퀀텀비트) 양자컴퓨터를 동작시켜 가능성을 보였다. 더욱이 양자컴퓨팅은 아주 작은 전력으로 구동해 AI 고도화 핵심 기반으로 작용할 수 있다. 현재 체계로는 지구상 모든 전기를 사용해야 인간 수준 지능을 구현할 수 있다는 예측이 나온다. 양자컴퓨팅으로는 3억분의 1 수준 전력으로 이를 가능하게 한다. 물론 개발이 쉽지 않다. 연구가 고난도여서 학계 및 연구계, 산업계에서도 실제 양자컴퓨팅이 AI 발전에 얼마나 기여할 수 있을지 입장이 분분하다.
핵심은 '양자기계학습 알고리즘'을 구현하는 것이다. 이는 양자컴퓨터 시스템에 특화된 알고리즘으로 병렬처리 연산을 활용한다. 기존보다 적은 훈련 샘플로도 문제 유형에 대응하는 모델을 찾아낼 수 있다. 국내에서는 '한국과학기술원(KAIST) AI 양자컴퓨팅 인력양성연구센터(ITRC)'가 AI와 양자컴퓨팅을 연결하는 연구를 주도하고 있다.
비트 조합 구성 정보인 '패러티 데이터 패턴'을 찾아내는 양자기계학습 알고리즘을 제시했다. 또 다양한 이런 알고리즘이 효율적으로 수행되도록 하는 양자 오퍼레이팅 시스템(OS) 알고리즘도 개발 중이다. 그동안 불가능한 것으로 여겨졌던 '양자 정보 복제'를 부분 복제해 양자컴퓨터 성능을 높이는 방법도 제시했다. 지난달 QTML(Quantum Techniques in Machine Learning) 국제학술대회 등에서 발표해 학회 이목을 끌었다.
하드웨어(HW) 측면에서도 원자 포획 큐비트 방식을 중심으로 기술 개발에 나서고 있다. 이준구 센터장(KAIST 전기 및 전자공학부 교수)은 “양자컴퓨터 HW가 충분한 성능을 발휘하지 못하지만 이미 슈퍼컴퓨터를 앞설 수 있다는 가능성을 보이고 있다”면서 “HW와 SW를 통해 AI 성능을 극대화하는 연구에 많은 노력을 기울이고 있다”고 말했다.
방정호 고등과학원(KIAS) 계산과학부 연구원 역시 양자기계학습 전반을 연구하고 있다. 아직 양자컴퓨터가 충분히 고도화되지 않은 상황에서 실현가능한 양자기계학습을 구현하는 연구에 힘쓰고 있다. 역으로 AI를 활용해 양자컴퓨터 현실화를 앞당기는 연구도 있다. 김태현 서울대 컴퓨터공학과 교수는 현재 AI를 활용해 양자컴퓨터에서 발생하는 에러를 줄이고, 성능을 최적화하는 연구를 수행하고 있다.
대전=김영준기자 kyj85@etnews.com