네이버가 이미지 검색(비주얼 서치) 서비스를 작년부터 꾸준히 업그레이드하고 있는데요. 비주얼 서치는 사진을 찍어 네이버 앱에 올리면 그것과 유사한 사진을 찾아주는 기술입니다.
비주얼 서치 관련 네이버의 인공지능(AI) 기술인 스코픽(SCOPIC)을 기반으로 스마트 렌즈, 쇼핑렌즈 등의 서비스를 제공 중이죠. 스마트 렌즈는 이미지로 이미지를 검색할 수 있는 것이고, 쇼핑 렌즈는 이미지로 쇼핑 정보를 검색할 수 있는 서비스입니다.
가령 제가 에펠탑 사진을 올리면 다른 사용자가 촬영한 에펠탑 사진을 검색 결과로 보여주는 것이죠. 길을 가다가 발견한 음식점 사진을 찍으면 해당 음식점의 정보와 메뉴 등을 알아볼 수 있고, 집에서 영화를 보다가 주인공의 가방을 촬영하면 관련 정보도 찾을 수 있지요.
얼핏 보면 재미있는 서비스 정도로 보이고 별것 아닌 것도 같은데, 자세히 알아보면 더욱 신기하고 어려운 기술입니다.
우선 어떤 원리로 비슷한 사진을 찾는지 알아보겠습니다.
앞서 말씀드린 인공지능 스코픽을 기반으로 특정 이미지의 전체 또는 일부를 피처(feature·특징)로 파악하고 피처 스페이스(특정 공간)에서 ANN(Approximate Nearest Neighbor) 검색을 진행해 비슷한 이미지를 찾아준다고 합니다.
이게 무슨 말인지 바로 이해하기 어려운데요.
예를 들어 꽃의 특징에 따라 꽃1은 0.123으로, 꽃2는 0.073, 꽃3은 0.055 등 중학교 수학 시간에 배운(저는 기억이 안 나요. ㅜㅜ) '실수'(real number)로 표현합니다.
그리고 이런 실수를 특정 차원의 공간에 점으로 찍습니다. 각각의 점들은 서로 비슷하면 가까워지고 안 비슷하면 멀어지는 식이죠. 따라서 우리가 꽃1을 네이버에 올려 검색하면 네이버는 꽃1의 특징을 파악해 가까운 곳에 있는 점들을 보여준다는 겁니다.
단 데이터가 너무 많으면 차원 속에서 점과 점 사이의 거리를 표현하는 데 어려움이 있고, 데이터가 너무 적으면 정확도가 떨어지는 단점이 있다고 합니다.
▲ 스마트 렌즈의 꽃 검색 결과 [사진=네이버] |
예컨대 500종의 꽃 사진 데이터가 있으면 유사한 꽃을 찾기 어렵지 않을 겁니다. 500종 가운데 유사한 종을 찾으면 되니까요. 그렇지만 네이버가 꽃 종류 데이터를 10종 정도만 가지고 있으면 별로 닮지도 않은 꽃을 검색 결과로 보여줄 수도 있겠죠. 그러니 기본 데이터를 풍부하게 확보하는 게 관건이라고 합니다.
반대로 사용자가 생수와 같은 상품 사진을 올리면 세상에 너무 많은 종류의 생수가 있고 서로 비슷해 똑같은 걸 찾기가 참 어렵다고 하네요. 그러니 이런 건 인공지능과 사람이 함께 머리를 굴려 좀 더 학습을 해야겠죠.
지금까지 비주얼 서치의 원리를 아주 간단히 설명해봤습니다.
그렇자면 네이버는 왜 이런 걸 할까요.
네이버는 우리나라에선 인터넷 검색 서비스의 최강자지만 글로벌 시장으로 눈을 돌리면 작은 회사입니다. 구글이 세계를 장악하고 있죠. 시장조사 업체인 스탯카운터에 따르면 작년 말 기준 전세계 검색엔진 시장 점유율 1위는 구글입니다. 그것도 92%에 달하는 압도적 지위입니다.
그런데 비주얼 서치의 경우 대부분 업체들이 초기 단계가 머물고 있어 네이버도 기회를 노리는 겁니다. 이런 텍스트 검색과 달리 비주얼 서치는 언어의 장벽도 많이 없지요.
또 비주얼 서치의 시장성도 매력 포인트입니다.
앞서 언급한 쇼핑 렌즈를 이용하면 사용자들의 쇼핑 니즈를 쉽고 재밌게 충족시킬 수 있기 때문입니다.
거칠게 표현해 네이버 매출의 절반은 쇼핑 검색이고 절반 가까이 차지하는 게 일본 라인 등 글로벌 플랫폼입니다. 비주얼 서치는 검색과 글로벌 시장 둘다 할 수 있으니 괜찮은 미래 먹거리라고 할 수 있겠습니다.
네이버의 비주얼 서치 어떤가요.