미래에는 음성인식 기능과 구글의 번역기를 결합한 실시간 대화 번역 제품도 기대하고 있습니다. 이렇게 되면 유엔의 동시통역사를 모든 사람이 이용하는 시대가 될 것입니다! 음성인식을 통한 휴대폰 사용에 관한 소개도 있습니다. 그러나 우리는 이제 막 시작 단계에 돌입했을 뿐입니다. 위치를 통한 검색 사용자는 대개 휴대폰을 갖고 다니기에 휴대폰과 사용자는 늘 동일한 장소에 있습니다. 그래서 휴대폰은 그 어떤 PC보다 개인적인 기기라고 할 수 있습니다. 이러한 친밀성이 위치 기반 검색 서비스의 바탕이 됐습니다. 구글이 내위치(My Location), 실시간 교통정보(real-time traffic), 턴바이턴 내비게이션(turn-by-turn navigation)에 투자를 지속하는 점도 이러한 맥락에서입니다. 구글은 현재 아주 간단하지만 쉽게 답할 수 없는 검색어에 도전하고 있습니다. 그것은 바로 "여기는 어디인가요?"라는 검색어입니다.
어린이의 픽업을 위해 학교에 일찍 도착한 상황, 약속보다 일찍 식당에 도착한 상황, 호텔에 방금 체크인을 끝낸 상황들을 가정해봅시다. 십중팔구 남는 시간에 뭘 해야 할지 모를 것입니다. 어디에서 시간을 때울지 생각해보지만 가고자 하는 주소를 입력해 관심지점(Point of Interest)을 찾는 게 귀찮게 느껴집니다. 그래서 그냥 주변을 서성이고 맙니다. 이 때 여러분의 위치는 저희에게 검색어가 됩니다. 구글은 이런 상황을 충분히 파악해 위치 기반 검색을 고안했습니다. 이번에 새롭게 발표하려고 하는 모바일 관련 서비스는 안드로이드 폰의 구글 지도에서 "주변 볼거리"를 찾아주는 기능입니다. 화면에 나오는 지도 위의 한 장소를 길게 눌러주기만 하면 됩니다. 그러면 해당 지점에서 가장 가까운 식당, 가게, 기타 관심지점(POI) 10곳을 자동으로 찾아서 검색결과를 보여줍니다. 간단한 질문에는 간단히 답해주면 되는 것입니다. (몇 주 후에 아이폰이나 안드로이드폰에서 볼 수 있는 "Near me now" 기능도 동일한 경험을 선사할 것입니다.)
물론 저희가 생각하는 미래는 장소 검색 그 이상의 내용을 담고 있습니다. 새해에는 검색결과에 현지에서 판매되는 상품의 재고도 볼 수 있을 것으로 기대하고 있습니다. 그리고 구글 추천검색어(Google Suggest)에도 위치 특성을 반영한 검색 조건이 추가될 것입니다. 이 모든 기능이 강력한, 인터넷 접속이 가능한 모바일 덕분입니다. 이미지를 통한 검색 사용자가 휴대폰을 클라우드(cloud) 데이터센터와 연결하는 순간 카메라는 세상을 보는 눈이 되고 이를 통해 검색을 하게 됩니다. 세상을 보는 것은 사용자의 시각과 같이 작동하지만, 동시에 여러분이 할 수 없는 방식으로 세상의 정보를 이용한다는 점에서 다릅니다. 하지만 이 같은 기능을 이용하면 시각적 검색에 대해서도 답을 할 수 있습니다. 해외에서 휴가 중인데 마침 시야에 들어오는 기념물에 대해 알고 싶은 상황이 있을 수 있습니다. 혹은 현대미술관을 방문해 자신의 앞에 있는 그림 작품에 대해 알고 싶은 상황이나 저녁식사 중 마시고 있는 와인병의 라벨을 보고 정보를 더 알고 싶은 상황이 있을 수 있습니다. 이런 상황에서는 검색어 자체가 텍스트도, 위치도 아닌 보고 있는 것 그 자체가 됩니다.
바로 이런 니즈에 기반하여 소개하는 실험적 기능은 안드로이드폰에서 이미지를 통한 검색 기능입니다. 이 서비스의 이름은 구글 고글스(Google Goggles) 입니다. 고글스는 간단히 말이 아닌 이미지를 통해 검색하는 기능입니다. 휴대폰으로 사진을 찍으면 고글스가 이를 인식하고 사진과 관련 있는 검색결과를 보여주는 것입니다. 현재 고글스는 유명한 랜드마크, 예술작품, 상품 (및 기타 등등)을 인식합니다. 이처럼 "사물은 물론 해당 사물의 정보까지 보는(see further)" 기능은 강력한 컴퓨팅, 인터넷 접속, 클라우딩의 융합에 기반을 두고 있습니다. 이 시스템의 원리는 이렇습니다. 먼저 사용자가 찍은 이미지를 구글 데이터 센터로 전송합니다. 이후 컴퓨터 시각 알고리즘을 통해 전송된 이미지는 기호화되며, 이는 이미지 인식 데이터센터에 있는 모든 알려진 이미지들과 대조됩니다. 이를 통해 매칭이 얼마나 일어나는지를 계산한 뒤 이용할 수 있는 메타 데이터와 랭킹 신호에 근거해 하나 이상의 검색결과를 보여줍니다. 이 같은 과정은 수 초 만에 처리됩니다. 여러분 중에는 이러한 알고리즘, 이미지 집합, 메타 데이터에도 불구하고 왜 아직 실험적 기능이라고 부르는지 의아해할 수도 있습니다. 가장 큰 이유는 이러한 기술이 이제 막 시작됐다는 점이고, 또한 저희의 기대수준과는 아직 차이가 있다는데 있습니다. 센서를 통한 검색과 마찬가지로 컴퓨터 시각 또는 여전히 걸음마 수준입니다. 현재 고글스는 특정 카테고리의 특정 이미지만을 인식하는 정도입니다. 그러나 우리의 목표는 어떠한 이미지라도 고품질의 검색결과를 보여주는 것입니다. 현재 이미지를 통합 검색은 일일이 사진을 찍어야 가능하지만 미래에는 사물을 손가락으로 가리키는 것만으로도 검색이 가능한 시대가 올 것입니다. 실제 세계를 마우스로 눌러 보는 것이라고 할 수 있습니다. 여하간 우리는 앞으로 할 일이 많습니다. 여러분도 안드로이드 마켓에서 고글스를 다운로드 받아 이용해 보시길 바랍니다. 시작을 위한 시작 오늘 발표한 모바일 기능들은, 예를 들어 일본어 음성 인식 지원에서부터 새로운 버전의 구글 지도, 그리고 구글 고글스 까지, 여러분의 휴대폰이 막강한 센서 기능을 갖추고 클라우딩이 지원된다는 것을 전제로 한 사례입니다. 우리는 이제 막 포스트 PC 시대를 맞이했기 때문에 가까운 미래에는 답변 보다는 질문이 더 많을 것입니다. 하지만 지금까지 변화가 있었습니다. 컴퓨팅도 변화해왔습니다. 그리고 우리는 이러한 많은 가능성을 보고 깊은 영감을 받고 있습니다.
작성자: 엔지니어링 부사장 빅 군도트라(Vic Gundotra)
Google
취재 문의 이메일 주소: skr-google@ketchum.com 미디어 취재 문의가 아닌 경우 응답해 드리지 않습니다. 다른 문의사항이 있는 경우 Google 도움말 센터를 방문하시기 바랍니다.