검색 지존 네이버? 비결은 따로 있다는데…

2010년 1분기 검색 시장에서 네이버 위상이 흔들렸다. 검색 점유율이 60% 근처까지 내려가면서 위기감이 높아졌지만 네이버는 전화위복에 성공했다. 점유율은 다시 반등했다. 지난해 8월 이후에는 지속적으로 70%를 웃돈다. 여러 가지 요인이 있지만 일등공신은 `빅데이터` 활용이다.

NHN은 검색 알고리즘 `FAS`를 개선했다. 검색 결과에 대한 사용자 피드백과 로그 분석 등 빅데이터를 분석해 검색 결과를 높였다. 하루에 쏟아지는 검색 로그만 3테라바이트에 달했다. 검색 로그를 다각적으로 분석하며 사용자의 의도에 다가갔다.

검색어 특성과 사용자 분석 등으로 블로그·뉴스·지식인 등 여러 통합검색 카테고리 중 적절한 분야를 상단에 올리고, 카테고리 안에서도 사용자가 원하는 결과가 우선 노출되도록 조정했다. 결국 검색 만족도가 높아지면서 네이버 검색 점유율은 70%를 회복했다. 데이터베이스를 쌓고 분석하는 기술과 플랫폼을 개발해 온 네이버식 `빅데이터` 노하우의 성과다.

이윤식 NHN 검색본부장은 최근 개최한 `NHN 커넥트데이` 행사에서 “네이버의 가장 큰 기술적 경쟁력은 대용량 데이터와 트래픽 처리 기술”이라며 “빅데이터가 화두가 되기 전부터 이미 검색과 게임 서비스를 위해 엄청난 양의 데이터를 처리하며 빅데이터 세상 안에 있었던 셈”이라고 말했다.

서비스를 개선하고 사용자 변화에 대응한다는 과제를 해결하기 위해 끊임없이 데이터를 놓고 고민해 왔다는 설명이다. 이 본부장은 “빅데이터는 플랫폼과 프로세스뿐 아니라 문제까지 고려해 가치를 찾는 것”이라고 말했다.

문제를 먼저 인식하고 이를 해결하기 위해 데이터를 활용하는 방안을 찾아야 한다는 권고다. 김동욱 NBP·커머스 개발센터장은 “해결해야 할 문제가 있는데, 이를 위해 처리해야 할 데이터가 클 뿐”이라며 “데이터를 단순히 모아놓는다고 가치가 생기진 않는다”고 말했다.

실시간 급상승 검색어, 연관 검색어와 네이버 트렌드, 음악 추천 서비스 뮤직 라디오 등 다양한 네이버 서비스가 이런 빅데이터 기술에 기반한다. NHN은 방대한 데이터를 보다 꼼꼼하게 분석하는 기술을 계속 발전시켜 나간다.

김유원 데이터정보센터장은 “빅데이터의 핵심은 방대한 데이터를 보다 밀도 있게 분석하는 것”이라며 “데이터를 분석해 현상을 이해하고 이를 근거로 실행 계획을 만드는 과정을 대폭 줄여 데이터 발생과 동시에 관련 사항을 분석하고 결정을 내릴 수 있게 될 것”이라고 말했다.

한세희기자 hahn@etnews.com