오늘은 지구의 날입니다!
지구의 날은 지구환경문제의 위기를 극복하고 함께 뜻을 모으기 위한 전 세계 시민들의 축제 입니다. 한국을 포함한 세계 184개국 약 50,000여개의 단체들이 지구의 날 행사에 참여하고 있으며, 매년 4월 22일 지구의 날에 각 국의 환경, 사회 상황에 맞게 자유롭게 지구를 위한 행사를 진행하고 있습니다. 세계 각 국에서 약 5억명 이상의 시민들이 참여하는 역사상 최대 규모의 글로벌 네트워크를 통한 환경행사가 바로 지구의 날인 것입니다.음식 남기지 않기, 휴지 줍기와 같은 작지만 큰 실천으로 지구를 사랑하는 하루가 되시길 바랍니다.
작성자: 구글 블로그 운영팀 날짜: 2008년 4월 18일 금요일
한국 최초의 우주인인 이소연씨가 10일간의 우주생활을 마치고 귀환합니다. 한국 우주인의 무사귀환을 기원하며 우리나라가 이로써 전세계 36번째 우주인 배출 국가가 되는 것을 축하하기 위해 18일부터 21일간 유튜브코리아 메인 페이지에서는 모두 12개의 우주 관련 동영상을 추천 동영상으로 소개하는 “스페이스 코리아 데이”를 진행합니다.유튜브는 세계 최대의 동영상 사이트로 우주와 관련된 동영상도 다양하게 검색해 찾아 볼 수 있습니다. 이번에 소개드리는 추천 동영상에는 방송에 소개되지 않았던 이소연씨와의 인터뷰, 소유즈 우주선의 발사 시뮬레이션 화면 뿐 아니라, 닐 암스트롱이 달에 착륙한 화면, 우주인들이 식사를 하고 이발을 하는 등의 다양한 우주 관련 동영상이 포함되어 있습니다.
작성자: 구글 R&D 센터 소프트웨어 엔지니어 변정근 날짜: 2008년 4월 17일 목요일
먼저 blogsearch.google.co.kr 검색창에 blogurl:'나의 블로그주소'를 입력합니다. 예를 들어 구글 코리아 블로그(http://googlekoreablog.blogspot.com)의 글들을 찾아보시려면 검색창에 blogurl:googlekoreablog.blogspot.com을 입력합니다.
내 블로그 글이 없다면 핑 서비스를 이용해보세요. 핑 서비스는 새로 작성된 블로그 글을 검색 엔진에 알려주는 서비스입니다. 새로운 주소의 블로그가 만들어졌거나 새로운 글이 작성되었을 때 검색 엔진이 바로 수집하는 것은 쉽지 않습니다. 그래서 새롭게 작성된 블로그 글을 검색 엔진에 직접 알려주어 가능한 빠른 시간내에 검색 가능하도록 하는 것이 핑 서비스입니다.
블로그 사이트나 설치형 블로그 저작 도구에 핑 서비스가 제공되는지 확인합니다.
• 핑 서비스가 제공되는 경우:관리자 설정 페이지에 명시적으로 구글로의 핑 서비스 제공 여부를 선택할 수 있는 경우가 있습니다. 그렇지 않은 경우 해당 업체에 문의합니다.• 핑 서비스가 제공되지 않는 경우:새로운 글을 작성하신 후, http://blogsearch.google.com/ping 에서 블로그 주소를 입력하고 'Submit Blog'버튼을 누릅니다.
핑이 완료되면 다음과 같은 메시지가 출력됩니다.
Thanks for the ping.
검색 허용
핑 서비스는 블로그 검색에 새로운 글이 작성 되었음을 알려주는 방법입니다. 핑 서비스를 이용하는 것이 곧 검색 결과에 포함되는 것을 의미하지는 않습니다. 특히 블로그 사이트의 기술적인 문제로 검색이 허용되지 않는 경우도 있으므로 블로그 사이트의 검색 수집 설정 및 정책을 확인하시는 것이 바람직합니다.
웹 페이지를 검색 엔진이 검색해도 되는지를 명기하고 검색엔진이 이를 지키도록 하는robots.txt라는 파일과 이와 관련된 사항들이 있습니다. 현재 구글 블로그 검색은 다음의 세 항목이 모두 검색 허용되어 있는 경우에 한하여 검색 수집을 하고 있습니다.• 블로그 URL: 블로그 HTML 페이지가 존재하는 주소예를 들어 http://blog-searchable.blogspot.co.kr/robots.txt에는 다음과 같은 내용이 있습니다.
User-agent: Mediapartners-GoogleDisallow:
User-agent: *Disallow: /searchDisallow: /
위 예제의 내용은 모든 검색 엔진이 이 블로그 안의 모든 글을 수집할 수 없다는 의미입니다.• 피드(Feed) URL: RSS나 ATOM이 존재하는 주소피드에 대한 수집 정책은 별도로 명시하지 않는 경우가 많습니다. 이 경우 피드를 검색할 수 있습니다.• Permalink: 블로그 글 각각의 주소 및 해당 HTML 페이지robots.txt뿐 아니라 소스의 NOINDEX, NOFOLLOW 관련 메타 태그도 없어야 합니다. 예를 들어 http://blog-searchable.blogspot.com/2008/04/blog-post.html의 HTML 원문을 보시면 < content="'NOINDEX,NOFOLLOW'" name="'robots'/">와 같은 메타 태그가 있어 검색 수집이 불가능합니다.
일부 국내 포털의 경우 블로거가 해당 블로그 또는 블로그 글을 검색 가능하도록 설정하더라도 블로그 URL과 메타태그를 검색 허용하지 않는 경우가 있사오니 위 내용을 확인해 주시기 바랍니다. 피드 URL만 검색 허용하는 경우 다음과 같은 이유로 정상적인 검색을 구현할 수 없습니다.• 피드 내용과 본문 내용이 일치하지 않는 경우, 블로그 검색이라기 보다 피드 검색 결과를 출력함.• 피드에 블로그 글의 부분 공개만 이루어지는 경우, 전문 내용과 이미지 등을 검색 결과에 반영할 수 없음.• 최신 글들에 의하여 피드에서 제외된 글의 변경된 내용을 검색에 반영할 수 없음.
보다 자세한 기술적 내용은 다음의 문서를 참조하시기 바랍니다.• Google Blog Search Pinging Service• Google Blog Search Pinging Service API
작성자: 자나니 라비, 소프트웨어 엔지니어날짜: 2008년 4월 2일 수요일
구글 워드프로세스팀은 어떻게 하면 사용자들이 이동 중에도 구글 문서도구(Google Docs)를 좀더 편리하게 사용할 수 있을까에 관해 많은 고민을 합니다. 여러분들은 구글 문서도구가 언제 어디서나 쉽게 사용 가능하다는 사실을 이미 알고 있을 것입니다. 뿐만 아니라 구글 문서도구를 통해 이메일로 자신에게 파일을 보내거나 드라이브에 백업 파일을 저장하지 않아도 된다는 것이 얼마나 편리한지, 또한 얼마나 쉽게 다른 사용자들과 공동으로 작업을 할 수 있는지를 경험했을 것입니다.물론 구글 문서도구 사용을 위해서는 인터넷 연결이 필요하다는 작은 문제가 있었습니다. 그러나 이제 이러한 제약이 없어졌습니다. 구글 문서도구 블로그에도 공지되어 있는 바와 같이 오늘부터 오프라인상에서도 편집이 가능한 서비스를 제공하고 있습니다. 이제 사용자들은 인터넷에 접속하지 않고도 좋은 생각들이 떠오르면 언제든지 작업할 수 있게 되었습니다. 비행기나 카페에서도 자동으로 언제든지 자신의 컴퓨터에 있는 구글 문서도구를 사용하실 수 있습니다. 오프라인 상에서의 구글 문서도구 사용법을 확인하고 싶으신 분들은 관련 동영상을 참조하시기 바랍니다.
작성자: 구글 Search Quality팀 석인혁, Chao Ma 날짜: 2008년 4월 2일 수요일
검색엔진은 자신의 사이트를 많은 사람에게 알릴 수 있는 가장 좋은 방법 중 하나입니다. 이를 활용하기에 앞서 고려해야 할 것은 여러분들의 사이트에 있는 정보를 얼마 만큼 외부에 제공할 것인가를 설정하는 일입니다.
만약 여러분의 사이트에 검색엔진을 통해 색인이 생성되지 않도록 하려는 콘텐츠가 있다면, robots.txt 파일을 사용하여 웹을 색인하는 검색엔진 로봇(이하 "검색봇")을 차단하거나 필요한 부분만을 검색엔진에 나타나게 할 수 있습니다. 검색봇은 자동으로 작동하며, 한 사이트의 하위 페이지에 접근하기 전에 먼저 특정 페이지에 대한 접근을 차단하는 robots.txt 파일이 있는지 여부를 확인합니다. 이번 기회를 통하여 여러분들에게 올바르게 robots.txt를 사용하는 방법을 제공하고자 합니다.
robots.txt 의 배치
robots.txt는 HTML 파일이 아닌 일반 텍스트 파일로 도메인의 root에 있어야 하며 반드시 'robots.txt'로 저장되야 합니다. 검색봇은 도메인의 root에 있는 robots.txt 파일만을 체크하기 때문에 하위 디렉토리에 있는 파일은 유효하지 않습니다.
예를 들어 http://www.example.com/robots.txt는 유효한 위치이지만, http://www.example.com/mysite/robots.txt는 유효하지 않습니다.
robots.txt 사용 예제:User-agent: *Disallow: /cgi-bin/Disallow: /tmp/Disallow: /~name/
전체 웹사아트를 검색엔진이 색인하도록 허용하고자 할 때에는 다음과 같이 robots.txt 파일을 추가합니다.User-agent: *Disallow:또 다른 해결 방법으로는 단순하게 robots.txt를 사이트로부터 제거 하는 것입니다.
검색엔진에서 사이트를 삭제하고 향후 어떤 검색봇도 접근하지 못하게 하려면 robots.txt 파일에 다음 내용을 추가합니다. User-agent: *Disallow: /주의) 이 경우 검색봇이 차단되어 사이트가 더이상 검색엔진에 나타나지 않게 됨으로 검색엔진을 통해 들어오게 되는 사용자들에게 불이익을 제공하게 됩니다.
각 포트에는 전용 robots.txt 파일이 있어야 합니다. 특히 http와 https 모두를 통해 사용자들에게 콘텐츠를 제공하려면 이 두 가지 프로토콜에 대해 각각의 robots.txt 파일이 있어야 합니다.
예를 들어 검색봇을 통해 https 페이지를 제외한 모든 http 페이지에 대한 수집을 허용하려면 다음 robots.txt 파일들을 각각의 프로토콜에 사용해야 합니다.
http 프로토콜의 경우(http://yourserver.co.kr/robots.txt): User-agent: *DIsallow:
https 프로토콜의 경우(https://yourserver.co.kr/robots.txt): User-agent: *Disallow: /
예를 들어, 검색봇이 특정 디렉토리(예: board )의 모든 페이지를 검색하지 않도록 차단하려면 다음과 같이 robots.txt를 사용 하시면 됩니다.User-agent: *Disallow: /board/
Googlebot이 특정 형식(예: .gif)의 파일을 모두 검색하지 않도록 차단하려면 다음과 같이 robots.txt를 사용 하시면 됩니다.User-Agent: GooglebotDisallow: /*.gif$
Googlebot이 ‘?’가 포함된 URL 즉, 도메인 이름으로 시작되거나 임의의 문자열 또는 물음표로 구성된URL 검색을 차단하려면 다음과 같이 하시면 됩니다. User-agent: GooglebotDisallow: /*?
구글은 웹마스터 도구의 일원으로 robots.txt 분석 도구를 사용자들에게 제공하고 있습니다. robots.txt 분석도구는 여러분의 robots.txt 화일을 검색봇이 읽는 그대로 인식하여 그 결과를 여러분들께 제공하고 있습니다. robots.txt의 올바른 사용으로 사이트 방문자들에게 보다 쉬운 접근 방법을 제공하는 동시에 필요한 부분을 보호, 차단할 수 있기 바랍니다.
작성자: 구글코리아 마케팅팀 날짜: 2008년 4월 1일 화요일
혁신적인 검색 기술로 최적의 사용자 경험을 제공하기 위해 노력하는 저희 구글코리아가 이번에는 구글 사투리 번역 서비스를 런칭했습니다.구글코리아 R&D센터는 지난 10개월 동안 총 7개의 지역 언어를 기본으로, 여러 사투리 조합에 대한 통계 번역 시스템을 독자적으로 개발하였습니다. 현재 Google 번역 및 Google 토크와 Gmail을 통해 서비스되고 있습니다.구글 사투리 번역 서비스를 한번 사용해 보시지 않겠습니까?늘 저희 구글코리아를 사랑하시는 여러분께 다시 한 번 감사드립니다.앞으로도 많은 관심 부탁드립니다.
작성자: 구글 블로그 운영팀 날짜: 2008년 3월 27일 목요일
유튜브의 제품 매니저인 트레이시 첸은 유튜브에 올린 그의 동영상이 처음으로 조회수 100을 넘었을 때를 기억하고 있습니다. 그 당시 그는 자신이 올린 동영상을 100명 이상 시청했다는 놀라움 보다 그 외의 새로 생긴 궁금증들이 더 컸습니다. 도대체 어떤 사람들이 내 동영상을 본 것일까? 내 동영상을 어떻게 알고 찾아왔지? 그들은 어디로부터 온 것일까?동영상을 올려본 사람이라면 누구나 이와 같은 궁금증들을 가지고 있을 것입니다.오늘 유튜브는 이러한 질문들에 답을 줄 수 있는 무료 동영상 트래픽 분석 툴, 유튜브 인사이트 (YouTube Insight)를 발표했습니다.유튜브 인사이트는 사용자, 파트너, 광고주를 포함해 유튜브에 동영상을 올리는 모든 사람들이 자신의 동영상에 대한 통계자료를 무료로 확인할 수 있는 서비스입니다.동영상 제작자들은 유튜브 인사이트를 통해 어떤 사람들이 어떤 동영상을 찾고 또 선호하는가와 같은 동영상 트렌드를 파악할 수 있습니다. 동영상 제작자에게 이러한 통계는 보다 많은 사람들이 즐겨 찾을 수 있는 인기 동영상을 만드는데 중요한 정보가 될 것입니다.또한 유튜브 파트너사들은 사용자들이 어떤 동영상을 시청하는지 알게 됨으로써 그들이 타겟으로 하는 사용자들의 성향을 보다 정확하게 파악할 수 있을 뿐만 아니라 보다 적합한 콘텐츠를 준비할 수 있게 됩니다. 광고주들의 경우에도 동영상에 대한 통계분석을 통해 그들의 마케팅 활동을 보다 성공적으로 발전시켜나갈 수 있으며, 그들이 원하는 고객들에게 보다 정확하게 다가갈 수 있습니다.유튜브 인사이트의 이러한 노력들이 유튜브를 세계에서 가장 큰 온라인 커뮤니티인 동시에 가장 큰 포커스 그룹 중 하나로 발전할 수 있도록하는데 기여할 것입니다.유튜브 인사이트 서비스에 대한 보다 자세한 내용은 유튜브 블로그(www.youtube.com/blog)에서 확인할 수 있습니다.
작성자: 더글라스 메릴, 엔지니어링 부사장 날짜: 2008년 3월 26일 수요일여러분이 알고 계시듯이, 구글은 우리의 삶을 보다 효율적으로 만들 수 있는 제품 개발을 위해 많은 시간을 보내고 있습니다. 이메일 정리, 사진 공유, 실시간 문서 공동 작업 등을 더욱 편리하게 해주는 제품들이지요. 여러분이 모르는 부분이 있다면 그것은 아마 이러한 제품들에 들어가는 보안을 위해 구글이 더 많은 시간을 쓰고 있다는 것입니다. 즉, 여러분과 여러분의 개인 정보를 보호할 수 있는 보안장치에 상당한 노력을 기울이고 있습니다. 혹 여러분이 평생 겪지 않을 수도 있는 가능성일지라도 구글은 보안에 관한한 매우 철저하게 대처합니다. 이를 위해 구글은 세계 최고의 엔지니어들과 함께 정보를 안전하게 지키기 위한 활동을 하고 있습니다. 물론 이런 활동 대부분은 회사내 기밀사항이지만, 저희가 여러분의 데이터를 어떻게 보호하고 있는지 그 내용의 일부를 공유하고 싶습니다.먼저 저희가 비밀 정보를 어떻게 다루는지에 대해 여러분이 알아야 할 몇 가지가 있습니다:철학: 우선 우리의 철학입니다. 구글에서 말하는 보안은 연속적인 과정입니다. 우리는 단순히 제품을 런칭하기 전에 보안 "검사"만을 하지 않습니다. – 우리는 제품이 만들어지기 이전부터 보안을 생각하고 있습니다. 그리고 제품 개발의 전 과정을 통해서 보안 체계를 구축합니다. 또한 우리 철학에서 중요한 것은 다중 보호 시스템을 강조하는 것입니다. 이는 집에 대한 보안시스템과 비슷합니다. 여러분은 가장 중요한 개인 정보를 금고에 보관할 것입니다. 집에 있는 금고는 잠금장치나 경보장치로 보안을 유지하게 됩니다. 그리고 이웃을 지켜주는 주택 경비 시스템을 설치하거나 경찰의 감시 서비스의 도움을 받을 것입니다. 이는 구글에서도 유사합니다. 우리의 가장 민감한 정보(금고)는 사람들이 찾아내거나 접근하는 것이 쉽지 않습니다. 우리의 네트워크와 시설(주택)은 첨단 기술과 기존 방법을 모두 사용해 보호되고 있습니다: 암호화, 경보, 기타 시스템 보호 기술과 함께 시설에 대한 강력한 물리적 보호 장치를 한 것이지요. 그리고 마지막으로, 보안은 커뮤니티 차원(이웃)에서 가장 잘 유지된다는 것을 알게 됐습니다. 우리는 잠재적인 문제나 솔루션을 파악하는데 모든 사람들이 우리를 도와줄 수 있도록 하고 있습니다. 전세계 보안 기술 관련 기업에서 일하는 전문가들은 끊임없이 인터넷에서의 보안 문제를 탐구하고 있으며 우리는 이러한 커뮤니티와 긴밀히 협력해 잠재적인 보안 문제를 찾고 해결하고 있습니다.
기술: 이러한 다중 보호 시스템은 세계 최고의 보안 기술을 바탕으로 만들어져 있습니다. 우리는 보안 커뮤니티 안에서 다른 기업들이 만든 제품을 사용하지만, 우리 스스로가 수많은 보안 기술을 개발하고 있습니다. 우리가 개발한 보안 아키텍쳐 중에서 가장 획기적인 내용은 우리 보안 시스템이 자동화(automation)와 규모(scale)에 중점을 두고 있는 것입니다. 이는 우리가 매일 수 백만 명의 사용자를 위한 검색, 이메일, 기타 활동을 다루고 있기 때문에 매우 중요합니다. 우리의 보안 프로세스가 항상 한발 앞선 상태에 있도록 하기 위해, 혹시 모를 보안에 관한 취약성에 대비해 소프트웨어를 검사하고 있습니다. 그리고 보안상의 공격 가능성에 대비해 시스템을 모니터링하고 있는데 이를 위한 방식은 모두 자동화하고 있습니다. 또한 우리는 사용자의 데이터를 보호하고 동시에 뛰어난 사용자 경험을 유지하기 위해 암호나 기타 기술적인 대책을 사용하는 더 많은 방법들을 끊임없이 모색하고 있습니다.
프로세스: 구글에서는 기술적인 것 이외에 우리가 어떻게 비밀 정보를 보안처리하고 또 누가 그것에 접근할 수 있는지를 보여주는 일련의 과정이 있습니다. 우리는 어떤 종류의 비밀 정보든 이에 대한 접근을 신중히 관리합니다. 매우 민감한 데이터인 경우 이에 대해 접근하는 구글 직원은 거의 없습니다. 이는 결코 가볍게 볼 일이 아닙니다. 왜냐하면 우리가 그 같은 접근을 제공할 이유가 없기 때문이지요. – 대부분의 프로세스는 자동화되어 있고, 인간의 관여를 필요로 하지 않습니다. 물론 민감한 데이터의 출입 권한을 받은 제한된 수의 사람들은 특별 허가를 받아야 합니다. 그리고 이에 대해 구글은 스스로에게 매우 높은 기준을 적용합니다. 우리의 프로세스가 업계 표준에 맞게(많은 경우 표준 이상으로) 하도록 하고 있습니다. 이러한 프로세스는 사베인-옥슬리법, SAS 70, 신용카드 데이터 보안 표준인 PCI의 준법규정 등을 제대로 지키는가를 보기 위한 외부 감사를 포함합니다. 수백 만개의 각기 다른 회사에 요구되는 매우 엄격한 기준들이 지켜지는지를 평가하는 사외 감사원들과 함께 일함으로써, 우리는 보안 프로세스의 견제와 균형을 위한 또 다른 보안층을 스스로 강화하고 있습니다.
인재: 보안에 대한 우리의 자세 중 가장 중요한 부분이 인재입니다. 구글은 세계에서 가장 우수하고 명석한 보안 전문가를 고용하고 있습니다. 많은 구글 엔지니어들은 은행, 신용카드 회사, 대형 유통업체 부분에서 보안 기술 개발 경험이 있으며, 보안과 소프트웨어 공학에서 박사학위를 취득하고 특허를 보유하고 있습니다. 다른 구글러들(구글 직원의 애칭)과 똑같이 이들 엔지니어들은 명석하고 호기심이 많으며, 업계의 보안의 이상 문제나 베스트 프랙티스에 대해서는 항상 눈고 귀를 열어두고 있습니다. 우리 엔지니어들은 수 백 권의 학술지를 통해, 악성코드를 만드는 다운로드 드라이브(drive-by downloads that install malware) 혹은 적대적 버츄얼 환경(hostile virtualized environments)과 같은 세부적인 주제들을 발표하기도 했습니다. 이들 논문의 일부는 이곳에서 볼 수 있습니다. 더욱이 우리는 구글의 모든 엔지니어들이 서로 보안에 대해 공동으로 연구하는 문화를 만들고 있습니다. 이를 통해 누구든 암호 형태로 된 코드 리뷰 프로세스를 통과하도록 요구합니다. (이는 구글에서 쓰이는 코드 유형과 소프트웨어상의 문제를 막기 위한 것으로 이들 프로그램이 어떻게 사용되는지를 알고 통제할 수 있게 합니다). 그리고 구글의 모든 코드를 다수의 엔지니어가 검토할 수 있게 하고 있습니다. 이는 우리의 소프트웨어와 보안을 위한 기준을 충족시키고 있습니다.
저희도 구글 제품을 사용하고 있습니다. 이는 저희가 회사의 이메일과 문서를 보호하는데 사용하는 똑같은 보안 시스템을 통해 구글 사용자의 정보를 보호하고 있음을 말합니다. 저희는 제품 혁신과 함께 보안 기술에서의 혁신도 지속할 것입니다. 구글의 보안에 관한 접근방식에 대해 더 알고 싶으신 분들은 다음 링크를 방문하시기 바랍니다.http://www.google.com/corporate/security.html.
날짜: 2008년 3월 26일 수요일
지난 3월 11일에 블로그에 올렸던 구글 서머 오브 코드(Summer of Code) 행사 포스터가 나왔습니다. 관심있으신 분은 아래 이미지를 클릭하시면 보다 자세한 내용을 확인하실 수 있습니다.
작성자: 구글 블로그 운영팀날짜: 2008년 3월 26일 수요일
소셜 애플리케이션 구축에 필요한 오픈소셜 스펙의 중립성과 장기 운영에 대한 의지 피력
작성자: 에릭 슈미트 구글 회장 겸 CEO날짜: 2008년 3월 22일 토요일
오늘은 구글이 더블클릭 인수를 마무리 지었다는 소식을 기쁜 마음으로 전해드리고자 합니다. 우리 두 회사가 온라인 광고시장에 줄 이익을 생각하면 지난 4월 인수 계획을 처음 발표한 뒤 약 1년 정도가 아직까지도 결코 흥분이 가라앉지 않고있습니다.그 동안은 당국의 합병승인을 기다려야 했기 때문에, 통합 이후 세부적인 운영 계획을 세우는 데에는 법적인 제한이 있었습니다. 하지만 이제부터는 본격적인 통합 계획을 만들 수 있게 됐습니다. 비록 당장 자세히 말씀드릴 내용은 없지만, 우리 두 회사의 통합이 진척되는 과정에 대해서는 여러분들과 정기적으로 의견을 주고 받을 것입니다.앞 으로 몇 주간 우리가 결정해야 하는 사안들은 쉽지 않을 것입니다. 왜냐하면 구글과 더블클릭의 사업을 예비 검토해본 결과 통합 법인으로 운용하는 게 더 효과적이라는 결론이 나와, 이에 따른 어려운 입장을 정리해야 하기 때문이지요. 우리는 다음 달 초까지 미국 더블클릭 직원들의 거취를 결정할 계획입니다. 하지만 아직 정확한 감원 목표는 정하지 못했습니다. 다른 나라에 있는 더블클릭 직원들을 구글에 통합시키는 조치들은 현지 규정에 따라 직원 대표들과 같이 협의를 통해 진행할 계획입니다.단기간에 어려운 결정을 내려야 하지만 이 같은 결정을 통해 합병이 디지털 시장에 가져다 줄 이익의 속도는 더욱 빨라질 것입니다. 우리와 함께 일하는 광고주, 광고 게시자, 에이전시들은 구 글의 검색기능과 콘텐츠 기반의 텍스트 광고를 더블클릭의 디스플레이 광고 능력과 보완할 것을 오랫동안 요구해왔습니다. 더블클릭은 구글에게 디스플레이 광고를 위한 최고의 플랫폼을 제시하고 있기 때문에 우리가 기술과 인프라에서 시장 접근을 가속화할 경우, 광고주, 광고 게시자, 에이전시가 얻는 디지털 미디어의 효과와 측정, 그리고 성과는 극적으로 향상될 것입니다.또 구글과 더블클릭의 결합은 더욱 우수하고 신뢰할 수 있는 디스플레이 광고를 제공할 것이기 때문에 사용자들도 한층 향상된 온라인 경험을 누릴 게 될 것이라고 기대합니다. 우리가 가진 규모와 기술 인프라를 통해 사용자들은 로딩 페이지를 기다리는 시간이 더욱 줄어들 것입니다. 궁극적으로는 제품 홍보를 위한 더블클릭의 디스플레이 광고와 구글의 광고 네트워크를 결합하고, 디스플레이 광고 사업에 자원을 투자함으로써, 광고 게시자와 광고주들이 더 많은 수익을 올릴 수 있을 것이라고 믿고 있습니다. 또한 이로 인해 보다 풍부하고 다양한 콘텐츠들이 더욱 빠르게 생겨나 전세계 인터넷 사용자들을 맞이할 것입니다.
작성자: 구글 블로그 운영팀날짜: 2008년 3월 21일 금요일
유튜브가 사용자들이 장소에 구애를 받지 않고도 대용량 동영상을 검색하고 공유할 수 있는 최신 유튜브 API와 툴을 발표했습니다. 이번 발표를 통해 유튜브는 광범위한 동영상 라이브러리에 전세계의 사용자들이 보다 쉽게 접근하고 공유할 수 있게 할 뿐 만 아니라, 유튜브를 구동시키는 동영상 호스팅 및 스트리밍 인프라도 제공하게 되었는데요. 이로써 유튜브는 인터넷 브라우저의 울타리를 뛰어넘기 위한 발판을 마련하게 되었다고 평가하고 있습니다.
유튜브의 최신 API를 사용하면 인터넷에 접속해 웹사이트나 소프트웨어 애플리케이션을 개발하는 사람들은 누구나 유튜브에 동영상을 바로 올릴 수 있게 됩니다. 이를 통해 사용자들은 동영상에 대한 댓글을 남기고 즐겨찾기 설정을 할 수 있으며, 동영상을 재생하는 플래시 플레이어(Flash player)를 원하는 대로 설정 또는 조정할 수 있을 뿐만 아니라 다른 사이트에 올라온 동영상을 보거나 유튜브 내에서 동영상을 검색할 수 있게 해주는 기존 API와도 연계하여 사용할 수 있게 되었습니다.
이번에 발표된 최신의 유튜브 API와 툴은 무료로 제공되고 있으며, 무엇보다 사용이 편리해서 유튜브 사용자들이 언제 어디에서나 동영상을 쉽게 접하고 보다 활발하게 유튜브 커뮤니티에 참여할 수 있게 도와줍니다.
그 밖에도 이번 API와 툴을 활용하여 개발자들은 사이트의 트래픽과 노출을 증가시키고, UGC(User Generated Content) 기능을 보다 쉽게 추가할 수 있는 등 사이트 내에서의 사용자 활동을 개선시킬 수 있게 됐다는 점도 눈길을 끌고 있습니다. 유튜브의 다양해진 기능들을 활용함으로써 개발자들은 사용자들이 모바일 기기를 통해 좀 더 혁신적이고 참신한 콘텐츠를 만들고 또 공유하는 것을 가능하게 만들었습니다..
관련 정보 및 동영상 링크는 유튜브 블로그(www.youtube.com/blog)에서 확인할 수 있으며, 해당 툴의 다양한 활용 사례도 확인할 수 있습니다.
날짜: 2008년 3월 11일 화요일 지난 2007년, Google Summer of Codetm 프로젝트에 90여개 국가, 900여명의 학생들과 1,500여명의 멘토들이 참여하여 130개 이상의 오픈 소스 프로젝트를 만들었습니다. 올 2008년에도 구글은 최고의 Summer of Code를 함께 만들어 갈 멘토들과 학생들을 기다리고 있습니다. 구글은 3개월 동안 각자의 코딩 프로젝트에 대한 열정을 응원하고자, 우수 학생 참여자들에게 4,500달러의 장학금을 지급할 예정입니다.구글 Summer of Code 프로그램은 우수한 학생들의 오픈 소스 개발 참여를 유도하기 위한 뜻 깊은 행사입니다. 2005년부터 시작된 이 행사는 다음과 같은 목표를 지니고 있습니다.- 젊은 개발자들의 오픈 소스 개발 참여 유도- 여름 기간 동안 컴퓨터 공학 및 관련 분야의 학생들에게자신들의 전공 분야와 연관된 실제 업무 기회 부여- 학생들에게 실제 소프트웨어 개발 환경에 대한 유익한 경험 제공(예: 분산 개발, 소프트웨어 라이센싱, 메일링 리스트 에티켓 등)- 모두에게 도움을 주는 오픈 소스의 보다 많은 개발- 오픈 소스 프로젝트에 대한 이해를 돕고 새로운 개발자와 위원회 발굴2008년 3월 3일부터 12일까지 오픈 소스 프로젝트의 신청을 받습니다.학생부문의 신청은 3월 24일부터 31일까지입니다.Google T-Shirt 신청 및 참여방법에 관한 자세한 사항은 아래 홈페이지를 참조하세요.http://code.google.com/soc/
작성자: 구글 할 바리안, 수석 경제학자 날짜: 2008년 3월 11일 화요일 우리는 사용자 데이터를 어떻게 다루고 프라이버시를 보호하는지에 대해 종종 이 공간을 통해 논의하고 있습니다. 우리가 수집한 데이터를 어떻게 활용해 사용자에게 우리 제품과 서비스를 향상시키는지를 논의하기 위한 시리즈를 아래 포스트를 통해 시작하고자 합니다. 먼저 데이터가 검색 기술의 발전에 얼마나 중요한 것이었는가를 설명하는 포스트부터 시작하는 게 적절할 것 같습니다. – 편집자주.더 좋은 데이터가 더 나은 과학을 만듭니다. 정보 검색(information retrieval)의 역사는 이 같은 원리를 잘 보여줍니다.이 분야의 작업은 컴퓨터 초창기 때부터 시작됐습니다. 당시에는 텍스트 파일에 있는 단어와 구문에 맞는 질의어(querie)에 기초해 단순한 문서 검색이 이루어졌습니다. 새로운 데이터 소스가 활용되면서 알고리즘은 진화했으며 더욱 복잡하게 발전했습니다. 웹의 출현은 검색에 대한 새로운 도전이었습니다. 지금은 웹의 링크나 관련 표시를 나타내는 다른 많은 방법을 통해 정보를 얻는 것은 흔한 일이 되었지만 말입니다.오늘날 웹 검색을 위한 알고리즘은 수십억 개의 기존 검색 질의어 기록(로그)에서 도출된 “대중의 지혜”를 통해 상당한 정도로 훈련을 받고 있다고 할 수 있습니다. 이처럼 검색의 역사를 간략히 돌아보면, 데이터의 사용이 구글 사용자들에게 구글 검색을 보다 가치 있게 만드는 데 꼭 필요한 것임을 알 수 있습니다.검색 기술의 약사(略史)오늘날 같이 특히 웹을 광범위하게 사용하는 시대에는 검색이 화두입니다. 문서 검색의 역사는 1950년대로 거슬러 올라갑니다. 그런 옛날에도 검색엔진은 존재했습니다. 하지만 이들 엔진의 1차적인 사용은 문서의 정적인 수집을 찾아내는 것이었죠. 60년대에는 연구소를 중심으로 기사의 요약을 디지털화해 새로운 데이터를 수집하는 방안이 나왔고, 이로 인해 60~70년대 검색 기술 분야가 빠르게 발전했습니다. 하지만 80년대 후반까지 이 분야의 진척은 크게 늦춰지게 되었습니다.정보 검색에 관한 연구를 활성화하기 위해 미 국립표준기술연구소(NIST)가 1992년 TREC 프로젝트(텍스트 검색 컨퍼런스, Text Retrieval Conference)를 만들었습니다. TREC는 새로운 데이터를 텍스트만 있는 문서의 형태로 소개했고, 인간의 판단을 통해 특정한 문서가 일련의 질의어와 관련이 있는지 여부에 따라 문서를 분류했습니다. 그들은 이런 데이터의 샘플을 과학자들에게 제시했고, 과학자들은 새로운 일련의 질의어와 관계된 문서를 찾기 위해 자신들의 시스템을 훈련시키고 향상시켰습니다. 그리고 자신들의 결과를 TREC를 통해 인간의 판단은 물론, 다른 과학자들이 만든 알고리즘과 비교하게 했습니다.TREC 데이터는 정보 검색에 관한 연구를 활성화시키는 데 기여했습니다. 표준적이고 광범위하게 이용할 수 있고 신중하게 만들어진 일련의 데이터들은 이 분야에서 새로운 혁신이 나오게 하는 기반이 되었습니다. 연례적으로 열린 TREC 컨퍼런스는 협업, 혁신, 측정할 수 있는 경쟁량(그리고 우쭐해 할 수 있는 권리)을 가져왔고 이를 통해 더 나은 정보 검색을 가져왔습니다.새로운 아이디어는 빠르게 퍼졌고 알고리즘은 향상됐습니다. 하지만 매번 새로운 향상이 있을 때 마다 1년 전 향상된 기술에 또 다른 향상을 더하는 것은 해가 갈수록 힘든 일이었고, 이에 따라 결국 검색 기술의 발전 속도는 다시 쳐지게 되었습니다.이 때 웹이 나타났습니다. 웹의 초기 단계에서는 과학자들이 TREC 연구에 기초한 업계 표준의 알고리즘을 사용해 웹에서 문서를 찾으려고 했습니다. 결국 더 나은 검색 기술의 필요성이 대두됐습니다. – 지금은 단순히 과학자뿐만 아니라 일상의 사용자들을 위해 이런 필요성이 제기되고 있죠 - 그리고 웹은 링크의 형태로 새로운 많은 데이터를 가져 다 주었는데 이 같은 링크가 새로운 발전 가능성을 제시한 것입니다.이에 대한 발전은 두 가지 차원에서 진행됐습니다. 상업적 차원에서는 일부 기업들이 웹 검색 엔진을 제공하기 시작했지만, 어떤 비즈니스 모델이 제대로 작동할지는 아무도 확신하지 못했습니다.순수 연구 차원에서는 미 국립과학재단(National Science Foundation)이 "디지털 라이브러리 프로젝트(Digital Library Project)"를 출범시켜 일부 대학에 기증했습니다. 컴퓨터 사이언스를 전공한 스탠포드 졸업생 래리 페이지와 세르게이 브린이 이 프로젝트를 담당하게 되었습니다. 그들은 여기서 웹 문서의 특별한 연결 구조를 사용하면 기존의 검색 알고리즘을 극적으로 끌어올릴 수 있다는 것을 발견했고 이렇게 해서 태어난 것이 페이지랭크(PageRank)였습니다.구글의 데이터 이용 원리페이지랭크는 웹페이지의 관련성을 키워드뿐만 아니라 연결된 사이트의 양과 질에 따라 서열화 시킴으로써 기존 알고리즘을 획기적으로 향상시켰습니다. 내가 만일 월스트리트 저널, 뉴욕 타임즈, 미 하원과 같은 사이트로부터 6개의 링크를 얻었다면, 나와 같은 학교 친구들이 우연히 열어본 웹페이지를 통해서 관련 링크가 20개 이상으로 증가하게 되는 것입니다.래리와 세르게이는 처음 자신들의 알고리즘을 새로 만들어진 일부 웹 검색 엔진에 라이센스를 주려고 했지만 아무도 관심을 보이지 않았습니다. 자신들의 알고리즘을 팔 수 없자 그들은 스스로가 검색엔진을 만들기로 결정했습니다. 이후의 이야기들은 잘 알려져 있죠.해를 거듭할수록, 구글은 검색 기능을 더 잘 만들기 위해 투자를 지속해 왔습니다. 우리의 정보 검색 전문가들은 이용자 질의어와 관련, 웹사이트의 관련성을 결정하는 알고리즘에 추가적으로 200개가 넘는 신호를 더했습니다.그렇다면 그들 200개의 신호는 어디서 온 것일까요? 다음 단계의 검색은 무엇이고 더욱 관련성이 있는 정보를 온라인에서 찾기 위해 우리는 무엇을 해야 할까요?우리는 알고리즘을 갖고 매주 단위로 이리 저리 조절하는 실험을 지속적인 실험을 시행하고 있습니다. 이를 통해 사용자들이 더욱 관련성이 있고 유용한 결과를 얻을 수 있도록 하는 것입니다.하지만 새로운 문서 서열화 기술을 개발하기 위해, 그리고 사용자들이 이 기술을 유용하게 보고 있는지 평가하기 위해, 우리는 검색 기록을 저장하고 분석해야 합니다. (우리 로그에 실제로 어떤 데이터가 저장되어 있는지 보려면 비디오를 클릭하세요.) 사람들은 어떤 결과를 클릭하는지, 우리가 알고리즘의 차원을 바꾸면 사람들은 어떻게 행동을 바꾸는지, 로그에 기록된 테이터를 사용하면, 여러분이 유용한 정보를 찾도록 하기 위해 우리가 지금 얼마나 잘하고 있는지를 일년전과 비교할 수 있습니다. 만약 역사를 기록해 두지 않으면 우리의 진척과 향상을 평가하는 방법은 없어지고 말겠지요.간단한 예를 들어보면 이렇습니다: 구글 철자법 검사는 우리 로고에 저장된 사용자 검색의 분석에 기반을 둔 것이지 사전이 아닙니다. 마찬가지로, 사용자 질의어 데이터를 사용해 지리적인 위치 정보를 향상시켜 더 나은 현지 검색을 가능케 해왔습니다.사용자 검색의 로그를 저장하고 분석하는 것이 바로 구글의 알고리즘이 여러분에게 더 유용한 결과를 제공하는 방법인 것입니다. 데이터의 이용이 과거 검색의 발전을 이룩했듯이 우리 검색 로그에 있는 데이터는 미래의 돌파구를 만드는 중대한 요소가 될 것입니다.
Google
취재 문의 이메일 주소: skr-google@ketchum.com 미디어 취재 문의가 아닌 경우 응답해 드리지 않습니다. 다른 문의사항이 있는 경우 Google 도움말 센터를 방문하시기 바랍니다.