메인 메뉴 바로가기
구글코리아 블로그

AI

구글 AI 원칙



이 블로그는 구글 AI 사이트(영문)에서도 확인하실 수 있습니다.

구글의 원칙

구글은 중요한 문제를 해결하고 일상에서 사람들을 돕는 기술을 개발하고자 합니다. 구글은 현재와 미래의 세대에게 도움이 될 인공지능(AI) 및 기타 첨단 기술의 놀라운 잠재력을 긍정적으로 바라보고 있습니다. 동시에 첨단 기술이 동반하는 주요 문제들을 분명하고 신중하게, 그리고 긍정적으로 해결해야 한다는 점을 잘 알고 있습니다. 구글의 AI 원칙은 책임 있는 기술 개발을 약속하는 동시에 앞으로 이를 활용하는데 있어 구글이 지양하는 방향성에 대해서도 알려주고 있습니다. 

AI 활용의 목적

구글은 다음의 목적을 고려하여 AI 활용을 평가할 것입니다. 구글이 생각하는 AI는 다음과 같습니다.

1. 사회적으로 유익해야 합니다.

새로운 기술의 영향이 전 사회로 확대되고 있습니다. 앞으로 AI는 의료, 보안, 에너지, 교통, 제조 및 엔터테인먼트를 포함한 다양한 분야에서 혁신적인 변화를 일으킬 것입니다. 구글은 향후 AI 기술을 개발하고 활용함에 있어 폭넓은 사회적, 경제적 요인을 고려할 것입니다. 또한, 예상되는 이점이 발생 가능한 위험 혹은 단점보다 현저히 많은 경우에 한해 이러한 노력을 계속해 나갈 것입니다.

AI는 많은 양의 콘텐츠 의미를 이해하는 능력 또한 향상시킵니다. 구글은 AI를 활용해 이용자들이 양질의 정확한 정보를 쉽게 이용할 수 있도록 노력하는 동시에 구글의 서비스가 제공되는 국가들의 문화적, 사회적, 법적 규범을 존중할 것입니다. 그리고 앞으로도 비영리적 목적으로 기술을 제공할 시기를 신중하게 검토할 것입니다.

2. 불공정한 편견을 만들거나 강화하지 않아야 합니다.

AI 알고리즘과 데이터세트는 불공정한 편견을 반영, 강화 혹은 감소시킬 수 있습니다. 구글은 온당한 편향과 불공정한 편견을 구별하는 것이 어려울 수 있으며, 이는 문화와 사회에 따라 달라질 수 있다는 점을 잘 알고 있습니다. 구글은 특히 인종, 민족, 성별, 국적, 소득 수준, 성적 지향, 장애, 정치적/종교적 신념 등과 같은 민감한 특성과 관련해 사람들이 부당한 영향을 받지 않도록 노력할 것입니다.

3. 안전성을 우선으로 설계되고 테스트되어야 합니다.

구글은 의도하지 않은 결과로 인해 피해가 발생하지 않도록 강력한 안전 및 보안 관행을 지속적으로 개발하고 적용할 것입니다. 구글은 AI 시스템을 타당하고 신중하게 설계할 것이며 AI 안전성 연구의 모범 사례에 따라 개발하기 위해 최선을 다할 것입니다. AI 기술을 통제된 환경에서 테스트할 것이며 배포 후에도 운영 상황을 모니터링할 것입니다.

4. 인간을 위해 책임을 다해야 합니다.

구글은 AI 시스템이 적절한 피드백, 관련 설명 및 반박할 기회를 제공하도록 설계할 것입니다. 구글의 AI 기술은 적절한 인간의 지시와 통제를 받게 될 것입니다.

5. 개인정보 보호 설계 원칙을 적용합니다.

구글은 개인정보 보호 원칙을 AI 기술의 개발과 사용에 적용할 것입니다. 또한, 알림을 제공하고 동의를 구하며, 개인정보 보호 조치가 포함된 설계를 장려함으로써, 데이터 사용에 관한 투명성을 유지하고 통제권을 제공할 것입니다.

6. 과학적 우수성에 대한 높은 수준을 유지합니다.

기술 혁신은 과학적 방법론과 열린 탐구, 지적 견고함, 진실성 및 협업에 바탕을 두고 있습니다. AI 도구는 생물학, 화학, 의학, 환경과학 등의 중요한 분야에서 과학 연구와 지식의 새로운 영역을 개척할 수 있는 잠재력을 가지고 있습니다. 구글은 AI 개발을 위해 높은 수준의 과학적 우수성을 추구합니다. 

구글은 통찰력있는 리더십을 발휘하기 위하여 다양한 분야의 이해관계자들과 협력하는 동시에 과학적으로 엄격하면서도 학제적인 접근 방식을 활용할 것입니다. 또한, 구글은 교육 자료, 모범 사례, 연구 내용 등을 공개하여 AI에 대한 지식을 책임감 있게 공유하고 더 많은 사람들이 유용한 AI 활용방안을 개발할 수 있도록 할 것입니다.

7. 구글 AI 원칙에 부합하는 용도로만 활용될 수 있어야 합니다. 

많은 기술들이 다양한 용도로 사용됩니다. 구글은 잠재적으로 유해하거나 남용될 수 있는 기술의 활용을 제한하기 위해 노력할 것입니다. 구글은 AI 기술을 개발하고 배포하는 과정에서 다음의 요소를 고려하여 활용가능한 용도를 평가할 것입니다.

  • 주요 목적 및 용도: 해당 솔루션이 유해한 사용에 얼마나 밀접하게 관련되어 있는지, 또는 해로운 용도에 적용될 수 있는지를 포함해 기술의 주된 목적과 사용처를 검토합니다.
  • 특성 및 독자성: 공개하는 기술이 독자적인 것인지 아니면 좀 더 일반적으로 활용 가능한 것인지 여부를 검토합니다.
  • 규모: 해당 기술의 활용이 중대한 영향을 미칠 수 있는지 여부를 검토합니다.
  • 구글이 담당하는 역할의 특성: 범용 도구의 제공인지, 고객을 위한 도구 통합인지, 맞춤형 솔루션의 개발인지를 구분합니다.

구글이 AI를 활용하지 않을 분야

위에서 언급한 목적 외에도, 구글은 다음과 같은 분야에서는 AI를 설계하거나 배포하지 않을 것입니다.

  1. 전반적인 피해를 유발하거나 그럴 가능성이 있는 기술. 중대한 위험이 발생할 가능성이 있는 분야에서는 편익이 위험을 월등히 넘어서는 경우에만 AI 개발을 진행하고 안전을 위해 적절한 제한 조치를 마련할 것입니다. 
  2. 주요 목적 또는 실제 사용으로 인해 직접적으로 사람에게 상해를 입히거나 이를 유발하는 무기 또는 기타 기술.
  3. 국제 규범을 위반하면서 감시 목적으로 정보를 수집하거나 사용하는 기술.
  4. 일반적으로 인정되는 국제법 및 인권의 원칙에 위배되는 목적을 가진 기술.

해당 분야 내 구글의 경험이 쌓일 수록 이러한 항목들은 더 추가될 수 있습니다. 

구글은 이러한 AI 원칙이 구글과 미래의 AI 발전을 위한 바람직한 토대라고 생각합니다. 또한, AI 분야가 매우 역동적이고 계속해서 진화한다는 점을 잘 알고 있습니다. 그렇기 때문에, 앞으로도 늘 겸손한 자세로 업무를 수행해나가고 대내외적으로 소통하는 동시에 지속적으로 배워나가며 접근 방식도 꾸준히 조정해 나갈 것입니다.