KAIST(총장 신성철)가 영상 콘텐츠 시청자의 이용 습관을 반영, 다양한 부가 기능 구현 기술을 개발했다. 스트리밍과 영상 플레이어 서비스의 편의성을 크게 높여 줄 것으로 기대된다.
KAIST는 김주호 전산학부 교수가 사용자의 영상 콘텐츠 시청 패턴을 콘텐츠에 활용하는 '집단지성 기반 맞춤형 인공지능(AI) 영상 플레이어 기술'을 개발, 상용화를 위한 협력 모델을 모색하고 있다고 6일 밝혔다.

KAIST가 이번에 개발한 기술은 시청자의 '집단지성'에 기반을 둔다. 수많은 시청자가 영상을 시청하며 내린 '명령 정보'를 빅데이터로 활용했다. 반복 재생, 영상 건너뛰기와 같은 명령 로그 데이터를 AI 알고리즘으로 분석해 패턴으로 만들었다. 반복 재생이 많은 부분은 '주요 구간', 건너뛰는 경우가 많은 곳은 '비주요 구간'으로 분류하는 식이다.
여기에 콘텐츠 자체를 분석·요약하는 영상 기술을 더했다. 움직임이 격해지거나 특별한 행동이 나오는 경우, 특정 '키워드' 음성이 반복되는 경우를 AI로 분석해서 주요 구간으로 간주한다.
김 교수는 이렇게 분류한 사용자 시청 패턴과 콘텐츠 자체 정보를 융합, 똑똑한 영상 활용이라고 할 수 있는 다양한 부가 기능을 추가할 수 있도록 했다.
이 기술을 활용하면 시청자가 원하는 영상 구간을 자동으로 찾거나 반복 재생할 수 있다. 덜 중요한 부분은 생략하거나 일부만 재생하는 것도 가능하다.
연구팀은 이 기술을 교육용 강의 영상 스트리밍 플랫폼을 비롯해 다양한 상업용 영상 스트리밍 플랫폼, 영상 재생 플레이어 프로그램으로 활용할 수 있을 것으로 전망했다. 영상 외 분야에서는 데스크톱, 모바일 웹 브라우저에서 이용자가 많이 보는 페이지 구간을 분류해 낼 수 있다.
연구팀은 앞으로 상용화를 위한 협력 모델 창출에 매진할 계획이다. 김 교수는 “영상 콘텐츠 시청자의 행동을 기반으로 진정한 의미의 맞춤형 부가 기능을 구현할 수 있는 영상 플레이어 기술을 개발했다”면서 “계속 수요가 늘고 있는 영상 기반의 서비스에 새로운 발전 기회를 제공할 계획”이라고 말했다.
대전=김영준기자 kyj85@etnews.com