한국과학기술원(KAIST)은 김주호 전산학부 교수가 이끄는 연구팀이 지난 4월 30일부터 5월 6일까지 열린 미컴퓨터협회 인간-컴퓨터 상호작용 학술대회(ACM CHI 2022)에서 최우수논문상(Best Paper Award)과 우수논문상(Honorable Mention Award)을 받았다고 19일 밝혔다.
ACM CHI 학술대회는 인간-컴퓨터 상호작용(HCI) 분야 세계 최고 권위 학회다. 구글 스칼라 h-5 인덱스 기준 HCI 분야 저널과 학술대회를 통틀어 1위에 올라있다. 최우수논문상은 전체 논문 중 상위 1%의 논문에, 우수논문상은 상위 5%의 논문에 주어지는 상이다.
김주호 교수는 이번 ACM CHI 2022 학술대회에 총 7개 논문을 발표해 발표 논문 수로 전 세계 연구자 중 공동 1위에 올랐다. KAIST 소속 논문은 총 19개로, 전 세계 기관 중 5위에 올라 KAIST 세계 수준 연구 역량을 증명했다.
KAIST 전산학부 김정연 연구원(제1 저자, 석사과정 졸업), 최유빈 전기및전자공학부 석사과정, 멍 시아 박사(전산학부 박사 후 연구원; 현재 미국 카네기멜론대학교 박사 후 연구원)로 구성된 김주호 교수 연구팀은 'Mobile-Friendly Content Design for MOOCs: Challenges, Requirements, and Design Opportunities'라는 제목 논문으로 CHI 2022 학술대회 최우수논문상을 받았다.
이 연구는 모바일 환경에서 영상 기반 학습 콘텐츠를 시청하는 학습자가 겪는 어려움을 분석하고 이를 해결하기 위한 가이드라인을 제시했다. 연구팀은 134명의 학습자를 대상으로 한 설문과 21명을 대상으로 한 인터뷰를 분석해 너무 작거나 과밀한 텍스트가 영상 콘텐츠의 가독성을 떨어뜨리는 것이 주요 문제임을 밝혔다. 또한 조명, 소음, 주변 환경의 잦은 변화로 인한 학습상황의 장애 또한 중요한 문제임을 밝혔다.
이런 분석을 토대로 101개 영상 강의 속 4만1722개 영상 프레임에 대한 모바일 환경 적합도를 분석한 결과 전반적으로 낮은 수준의 적합도를 보인다는 것을 확인했다. 예를 들어 텍스트 크기의 경우 불과 24.5%의 영상 프레임만이 모바일 환경에서의 학습에 적합한 것으로 나타났다. 연구팀은 이러한 문제를 극복하기 위해 영상 콘텐츠의 가독성을 높이고 모바일 학습 상황에서 발생하는 장애를 극복하기 위한 가이드라인을 제시했다.
이 기술은 다양한 영상 기반 학습 플랫폼이나 컨텐츠 제작 환경에 적용될 수 있다.
KAIST 전산학부 김태수 박사과정(제1 저자), 최다은 석사과정, 최윤서 박사과정 연구원으로 구성된 연구팀은 'Stylette: Styling the Web with Natural Language' 라는 제목의 논문으로 CHI 2022 학술대회 우수논문상을 받았다.
연구팀은 전문용어를 모르는 비전문가가 음성으로 웹사이트의 스타일을 수정할 수 있도록 지원하는 새로운 인터페이스 기술을 개발했다. 사용자 자연 언어 기반 음성 입력을 AI가 파악해 가장 의도에 부합하는 새로운 스타일을 자동으로 추천해 준다.
언어 측면에서는 대규모 언어모델이 사용자 일상언어로 표현된 의도를 적절한 스타일 요소로 변환해 준다. 시각 측면에서는 컴퓨터 비전 AI가 170만 개 기존 웹 디자인 요소 데이터와의 비교를 통해 현재 웹사이트에 적절한 수준의 스타일을 추천해 준다. 40명의 일반인을 대상으로 진행한 실험에서 이번 시스템을 사용한 사용자는 대조군과 비교해 두 배 이상 높은 성공률로 35% 적은 시간에 디자인 수정을 완료할 수 있었다.
김영준기자 kyj85@etnews.com
-
김영준 기자기사 더보기