메인 메뉴 바로가기
구글코리아 블로그

AI

인공지능(AI): 5개 영역으로 살펴 본 구글의 관점, 중점 영역 및 원칙적 접근 방식



이 글의 원문은 이곳에서 확인하실 수 있습니다. 
구글이 AI에 대해 바라보고 접근하는 방식을 다음과 같이 5개의 항목으로 요약해보았습니다. 구글이 혁신을 이뤄내고 여러 연구와 경험, 활용사례 및 커뮤니티에서 많은 것을 배워감에 따라 각 영역은 더욱 발전하게 될 것입니다. 

1. 구글이 AI를 개발하는 이유

머신러닝(ML) 등과 같은 AI 기술은 가장 기초적이고 혁신적인 기술입니다. AI를 통해 기존의 툴, 제품, 서비스를 더욱 새롭고 혁신적으로 활용할 수 있으며, 기업, 정부 및 기타 조직 뿐만 아니라 매일 수십억 명의 사람들이 이러한 AI를 사용하고 있습니다. AI는 일상적인 작업에서 과감하고 상상력을 발휘해야 하는 일들에 이르기까지 거의 모든 분야에서 사람들을 돕고 보완하며 지원하고 영감을 줄 수 있습니다. AI는 새로운 과학적 업적을 이루고 기회를 활용하도록 지원할 수 있으며 현재와 미래에 인류의 가장 중요한 도전 과제를 해결하는 데 도움이 될 수 있습니다.

많은 연구에서 강조된 바와 같이, 구글은 AI가 다음과 같은 분야에서 혜택을 줄 수 있는 잠재력을 가지고 있다고 생각합니다: 

  • 더 많은 사람이 어디서나 정보를 더 유용하게 사용할 수 있는 환경을 구축하여 접근성, 장애 및 언어를 비롯한 장벽을 극복하도록 지원
  • 사람과 기업들이 일상 및 조직 내에서 의사 결정을 내리고 문제를 해결하며 생산성및 창의성을 높일 수 있도록 지원
  • 더 많은 사람과 기업을 위한 새롭고 유용한 제품 및 서비스로 이어지는 혁신 실현 
  • 공중 보건 위기, 자연재해,기후 변화, 지속 가능성과 같은 현대의 시급한 문제 해결 지원
  • 사회적 편향과 구조적 불평등(예: 사회경제적, 사회인구학적 및 지역적 불평등)의 파악 및 완화 지원
  • 인류의 가장 중요한 미래 기회와 과제(예: 의학적 진단, 신약 개발, 기후 예측)를 해결하기 위한 과학 및 기타 혁신 지원

과거에는 AI 기술로 여겨지지 않았던 제품 및 서비스를 비롯해 인프라, 툴, 소프트웨어, 하드웨어, 디바이스도 앞으로는 AI를 활용하여 구동하는 혁신 과정을 거치게 될 것입니다. 구글의 서비스로 예를 들면 구글 검색, 구글 지도, 구글 포토, 안드로이드 휴대폰 등이 AI를 통해 이미 혁신을 통해 발전하고 있습니다. AI는 이러한 제품 및 서비스의 유용성을 크게 높이고 사람들에게 그 가치를 배가하여 제공할 것입니다. 또한 새로운 범주의 보조 툴, 제품 및 서비스로 이어지며 획기적인 성능을 제공할 것이며, 이는 오직 AI를 통해서만 가능할 것입니다. 일례로, 더욱 포용적인 언어 번역기, 대화형 AI 및 어시스턴트, 생성형 및 다중 모달 AI(multi-modal AI), 자율주행차 등이 해당되며, 이것은 아직 시작에 불과합니다. 


2. 목적

구글과 알파벳의 목표는 AI 기반의 유용한 혁신 기술을 통해 사람과 사회에 기여하는 것입니다. 최첨단 기술 발전은 곧 AI 역량을 확대하고 발전시켜 궁극적으로 많은 사람의 삶을 지원하고 개선할 수 있는 혁신을 제공하게 됩니다. 동시에 지속 가능한 가치를 창출하여 획기적인 혁신에 계속 투자할 수 있게 됩니다. 
구글은 아래와 같이 다양한 방면으로 선순환을 이루고자 노력하고 있습니다:

첫째, AI로 사람과 사회에 도움을 줄 수 있도록 최첨단 기술 발전을 이뤄냅니다.

둘째, 유용하고 혁신적인 AI 기반 인프라, 제품 및 서비스를 더 많은 사람, 기업, 조직, 경제 사회에 제공합니다.

  • 대규모 AI 생태계 육성 및 활성화: 개발자와 파트너로 구성된 대규모 AI 생태계를 성장시키고 활성화함으로써 , API 등의 프로비저닝을 통해 그리고 경우에 따라 유용한 혁신 기술의 공동 개발 및 공동 배포를 통해 더 많은 AI 애플리케이션을 구축하고 전 세계의 더 많은 사용자, 부문 및 지역에 제공합니다.
  • 선도적인 비즈니스 및 기업 설립 위한 AI 활용: 자율주행차(Waymo) 및 신약 개발(Isomorphic Labs)에서 로봇 공학(Intrinsic, Everyday Robots)에 이르기까지 다양한 분야에서 AI의 강력한 기능을 통해서만 가능한 선도적인 비즈니스 및 기업을 설립하는 데 노력합니다.

셋째, 구글은 AI를 적용해 현재와 미래에 사회의 가장 중요한 과제를 해결하고 기회를 모색할 수 있도록 많은 이해관계자들과 협력합니다.

넷째, 구글은 AI 혁신을 통해 지속적으로 기업을 개선하고, 고객, 정부, 비정부기관을 포함한 각종 기관들과 이러한 성과 내용을 공유합니다. 
중점을 두고 있는 주요 영역은 다음과 같습니다.

  • 모든 제품 및 서비스에 걸쳐 AI를 활용하여 업계 최고의 안전 및 사이버 보안 달성 
  • 모든 부서에 걸쳐 AI를 적용하여 자체 생산성 및 운영 개선 
  • AI 기반 기후 및 지속 가능성에 대한 기업의 원대한 목표(예: 데이터 센터의 에너지 효율성) 실현 지원

지금까지 구글이 이뤄온 발전과 많은 이들에게 제공한 도움은 다시금 기업의 성장 동력이 되고 있습니다. 그러나 동시에 유용하고 유익한 영향을 미칠 수 있는 기회가 여전히 많습니다. 


3. 복잡성과 위험에 대한 이해 

여느 혁신적인 기술과 마찬가지로 AI에는 복잡성과 위험이 따르기도 하지만, 시간이 지남에 따라 이는 또 다시 변할 것입니다. 아직 초기 단계의 기술로서 AI는 기능과 용도가 진화함에 따라 악용 및 오용 가능성이 있고 의도하지 않거나 예측하지 못한 결과가 발생할 수도 있습니다. AI가 발전하고, 더 널리 배포되고, 사용이 확대됨에 따라 구글은 진화하는 위험을 이해하려고 노력하는 동시에 이용자 및 커뮤니티에서 지속적으로 배워감으로써 사전 예방적인 접근 방식을 취하고 있습니다. 
구글 자체적인 활동과 여러 기업의 활동을 통해 AI의 많은 복잡성과 위험성은 강조되어 왔습니다. 특히 AI와 관련된 위험 요소가 두드러지는 경우는 다음과 같습니다: 

  • AI가 의도된 대로 실행되지 않는 경우(예: 안전, 품질, 취약성 등)
  • AI가 활용한 데이터가 부적절하거나 책임 없이 사용된 경우
  • AI가 안전하지 않은 상태에서 조기 도입되거나 충분한 검증 과정 없이 배포된 경우
  • AI가 개발자 또는 이용자에 의해 잘못 적용되거나 유해한 방식으로 사용되는 경우
  • AI가 부정적인 사회적 편견파장(예: 차별)을 야기하거나 증폭시키는 경우
  • AI가 사이버 보안 위험을 야기하거나 악화시키는 경우 
  • AI가 정보 재해(Information hazard)(예: 사실에 입각하지 않은, 잘못된 정보)를 야기하거나 악화시키는 경우
  • AI가 실제로는 없는 역량을 보유하고 있는 것처럼 보일 경우(예: 대화형 AI를 인간의 특성을 가졌을 것으로 해석할 때)
  • AI가 노동 시장을 포함하여 불평등 또는 기타 사회 경제적 해악을 야기하거나 악화시키는 경우

구글은 특히 전 세계 커뮤니티에서 이러한 요소로 인해 발생할 수 있는 피해 가능성을 인지하고 있습니다. 따라서 신뢰를 더욱 높이고 안전하고 포괄적인 이용자 경험을 보장하며 AI가 사람과 사회에 큰 도움이 될 수 있도록 위와 같은 위험을 완화하는 데 집중하는 것이 중요합니다.


4. 책임 있는 AI(Responsible AI)에 대한 접근 방식 

AI의 위험적인 요소와 복잡성을 고려했을 때, 구글은 책임감을 바탕으로 이를 바라보아야 한다고 생각합니다. 구글은 단순히 최첨단 AI 기술만 이끄는 것이 아닌, '책임 있는’ 최첨단 AI 기술과 이것이 뿌리내리는 데에 있어서도 앞장서야 한다고 생각합니다. 2018년 구글은 사업적 고려 사항에 앞서 유익한 용도, 사용자, 안전 그리고 피해 방지를 우선시하는 AI 원칙을 명확히 수립한 최초의 기업 중 하나였으며, 모델 및 데이터 카드 사용과 같은 많은 모범 사례를 개척해 왔습니다. 또한 구글은 원칙을 문서화하는 데 그치는 것이 아니라 실제로 이러한 AI 원칙을 적용하고 있습니다. 자체적인 접근 방식에 대한 지속적인 연구 및 검토와 함께, 이를 실제로 적용하는 것이 핵심이라고 할 수 있습니다. 
구글의 책임 있는 AI 접근 방식은 다음과 같습니다:

  • 사용자와 사회에 유용하고 기여하는 AI에 중점: 사람과 사회에 도움이 되는 AI R&D, 응용 및 사용을 우선시합니다. R&D 전반에 걸쳐 리소스 및 환경적으로 지속 가능성을 보장합니다. 
  • AI 원칙 적용: 유익한 용도 및 피해 방지에 기반을 둔 AI 원칙, 프로세스 및 거버넌스를 의도적으로 적용하여 연구 우선순위에서 제품화 및 사용에 이르기까지 다양한 부문에서 AI관련 업무 지침으로 삼습니다. AI에 대해 더 학습하고 특정 문제들에 대응해 나가며, 이러한 원칙과 프로세스를 지속적으로 다시 해석하고 업데이트합니다. 
  • AI 연구개발(R&D)에 과학적 방법 적용: 엄격한 연구, 동료평가(peer review)에 의한 연구 검토, 준비 상황 검토, 액세스 및 외부화에 대한 책임감 있는 접근 방식을 통해 AI R&D에 과학적 방법을 적용합니다. 책임 있는 AI의 다양한 요소에 대한 벤치마크를 설정하고 성과를 측정합니다. AI 기술 발전에 맞춰 혁신적인 (예: 안전 관련 부문)을 마련합니다. 연관되거나 대립된 형태의 테스트를 지속적으로 수행합니다. 이러한 프로세스를 바탕으로 구글은 람다(LaMDA), 팜(PaLM), 웨이모(Waymo)와 같은 새로운 시스템의 액세스 및 배포에 대해 차별화되고 신중한 접근 방식을 취하고 있습니다. 
  • 다방면의 전문가와의 협업: 사회 과학자, 윤리학자, 사회 기술 전문 지식을 갖춘 기타 부서 (예: 책임 있는 AI 기술 연구팀은 연구, 제품, 엔지니어링에 초점을 두고 책임 있는 혁신 담당팀은 제품, 비즈니스 및 정책에 초점을 두고 있음)을 포함하여 여러 분야의 전문가와 협력합니다. 또한, 사회적으로 중요한 영역에서 연구원, 개발자 및 이용자들과 협력합니다. (예: CS 연구 멘토링 프로그램, 연구 보조금 지원 및 협업)
  • 피드백 수용: 개발자, 사용자, 정부, 관련 커뮤니티 대표의 피드백(예: AI Test Kitchen, Crowdsource)을 수렴하고 이를 통해 배우고 개선하며 실제 이용자를 참여시켜 AI 모델을 평가합니다. 
  • 정기적 검토: 사용 사례를 포함하여 AI 연구 및 애플리케이션 개발에 대한 정기적인 검토를 수행(예: Advanced Technology Review Council)하고 학습에 대한 투명성을 제공합니다(예: PAIR 가이드북). 다른 이들이 AI의 우려 사항과 위험에 대한 접근 방식을 고려할 때 이들과 협력하여 구글의 경험을 공유합니다. 
  • 위험 요소 파악:  

AI와 관련된 위험 영역(예: 안전, 편견, 유해성)과 관련 우려 사항들을 선제적으로 파악하고 해결, 연구 및 혁신하여 문제와 위험 발생 시 대응합니다. 학습 내용과 혁신 기술을 공유합니다(예: Monk 척도 오픈 소싱 및 합성 음성 감지 도구). 배포된 시스템을 모니터링하는 방법을 개발하여 제작 및 사용 중인 서비스에서 상황에 따라 발생하는 위험을 신속하게 완화할 수 있도록 합니다.

  • 책임감 있는 거버넌스 형성 지원: 

위험을 완화하면서 혁신을 장려하고 AI의 이점을 극대화하는 책임 있는 거버넌스, 책임 및 규제를 주도하고 형성하도록 지원합니다(예: AI 관련 파트너십 체결 시 구글의 역할 수행, 인공 지능에 대한 글로벌 파트너십 지원, 유럽연합의 인공지능법, 미국국립표준연구소(NIST)의 AI 위험 관리 프레임워크 및 OECD AI 원칙을 포함한 대표적인 AI 거버넌스 활동 기여).

  • 이용자 및 사회 대상 AI에 관한 교육 제공: 이용자와 사회가 AI가 무엇인지 (그리고 무엇이 AI가 아닌지) 그리고 AI의 잠재력을 어떻게 활용할 수 있는지 이해하도록 지원하며 AI가 일상생활(예: 교육)에 어떻게 도움이 될 수 있는지, 위험은 무엇인지, 이러한 위험을 어떻게 완화할 수 있는지를 이해하도록 지원하고 있습니다. 

구글은 책임 있는 AI 활용 기업으로서 많은 영역에서 변화를 이끌어내는 동시에 이용자, 연구진, 관련 커뮤니티 등으로 부터 계속해서 배우고 있습니다. 이를 통해 결과적으로 앞서 소개한 AI와 관련된 여러 고려사항들이 구글이 하는 모든 연구에 적용되어 통합될 수 있도록 접근 방식을 지속적으로 개선하고 있습니다. 이처럼 구글은 사람과 사회에 도움이 될 수 있는 혁신을 구체화하도록 지원하는 동시에 혁신의 속도는 늦추지 않는 의미 있는 방식으로 업무에 임하고 있습니다. 

5. 책임 있는 AI에 대한 집단적 접근이 필요한 이유 

AI를 올바르게 사용하려면 공동의 노력이 필요합니다. 지금까지의 경험을 바탕으로 AI와 관련된 모든 관계자(연구진, 개발자, 학계, 시민 사회, 정부 및 개인, 기업 등)는 AI를 올바르게 사용하기 위해 다음 부분에서의 협력이 필요합니다:

  • AI 개발 및 AI 시스템 배포에 대한 책임 있는 접근 방식 
  • 개인 정보를 보호하고 사람과 사회에 유익한 데이터 및 개인 정보 보호 관행(예: 교통 및 공공 안전 데이터 공유)
  • 보안 위험을 완화하기 위한 강력한 AI 인프라 및 사이버 보안
  • 혁신 및 AI의 안전하고 유익한 사용을 장려하고 AI의 악용, 오용 또는 유해한 사용을 방지하는 규정
  • 표준 및 모범 사례 개발을 위한 커뮤니티 간 협업
  • 정부 및 시민사회 리더들과 정보 공유 및 공동 학습
  • 사회적 관심 영역에서 신뢰를 구축하기 위한 실질적인 책임 체계
  • AI 안전, 윤리 및 사회 기술 연구에 대한 투자
  • 세계의 다양성을 완전히 반영하고 과제와 기회를 더 효과적으로 해결하기 위해 더 크고 다양한 AI 실무자 커뮤니티 육성

책임감을 바탕으로 AI를 활용해 나간다면 AI는 전 세계 사람들의 삶을 변화시키는 기반 기술이 될 수 있으며, 이것이 바로 구글이 AI를 위해 노력하는 이유입니다.