또한 AI는 제품에 적용될 뿐만 아니라 사람들이 긴급한 문제를 해결할 수 있도록 도와주기도 합니다. 예를 들어, 미국의 고등학생 두 명은 산불 발생 위험을 예측할 수 있는, AI로 구동되는 센서를 개발했습니다. 농부들은 기르는 가축의 건강을 확인하는 데 AI를 이용하고, 의사들도 AI를 활용해 암을 진단하고 실명 예방에 도움을 주기 시작했습니다. 이렇듯 분명한 이점이 있기 때문에 구글은 AI 연구개발에 크게 투자하고 있으며, 구글의 도구 및 오픈소스 코드를 통해 AI 기술을 보편화하기 위해 노력하고 있습니다.
구글은 그러한 강력한 능력을 지닌 기술에 대해서는 그만큼 큰 우려도 따른다는 것을 인지하고 있습니다. AI가 어떻게 개발되고 사용되는지에 따라 향후 사회는 중대한 영향을 받게 됩니다. 구글은 AI 분야의 선두 주자로서 AI 연구 및 활용이 올바르게 이뤄지도록 하는 데 막중한 책임감을 느낍니다. 따라서, 오늘 구글은 앞으로 관련 업무를 하는 데 지표가 되어 줄 일곱 가지 원칙을 다음과 같이 발표합니다. 이 원칙은 결코 이론적인 개념이 아니며, 구글의 연구 및 제품 개발 단계에서 적극적으로 적용되고 비즈니스 의사 결정에 영향을 미치는 구체적인 기준입니다.
구글은 AI 분야가 매우 역동적이고 계속해서 진화한다는 점을 인지하고 있으며, 늘 겸손함을 유지하고, 내부 및 외부와 적극적으로 소통하며, 지속적으로 배워가면서 시간에 따라 접근방식도 꾸준히 바꿔나갈 것입니다.
AI 활용의 목적
구글에서는 다음의 목적을 고려하여 AI 활용을 평가할 것입니다. 구글이 생각하는 AI는 다음과 같습니다.
1. 사회적으로 유익해야 합니다
새로운 기술이 미치는 영향이 확대되면서 사회 전체가 영향을 받는 일이 많아지고 있습니다. AI의 진보는 의료, 보안, 에너지, 교통, 제조 및 엔터테인먼트를 포함한 다양한 분야에서 혁신적인 변화를 일으키고 있습니다. 구글은 향후 AI 기술을 개발하고 연구함에 있어 폭넓은 사회 경제적 요인을 고려하고, 예상되는 전반적인 이점이 발생 가능한 위험 혹은 단점보다 현저히 많은 경우에 한해 이를 계속해서 추진할 것입니다.
또한, AI는 규모에 따른 콘텐츠의 의미를 이해하는 능력을 향상시켜줍니다. 구글은 AI를 활용해 사용자들이 양질의 정확한 정보를 쉽게 구할 수 있도록 노력하면서도, 구글과 함께 하는 국가들의 문화적, 사회적, 법적 규범을 존중할 것입니다. 그리고 자사 기술의 비영리적 활용을 허가할 시점이 언제인지를 신중하게 판단할 계획입니다.
2. 불공정한 편견을 만들거나 강화하지 않습니다
AI 알고리듬과 데이터셋은 불공정한 편견을 반영, 강화 혹은 감소시킬 수 있습니다. 구글은 공정한 편견과 불공정한 편견을 구별하는 것이 단순하지 않으며 문화와 사회에 따라 다르다는 것을 이해하고 있습니다. 구글은 특히 인종, 민족, 성별, 국적, 소득수준, 성적 지향, 장애, 정치적/종교적 신념 등과 같은 민감한 특성과 관련해 부당한 영향이 미치지 않도록 노력할 것입니다.
3. 안전성을 우선으로 설계되고 테스트되어야 합니다
구글은 위해가 될 의도 않은 결과를 방지하기 위해 강력한 안전 및 보안 관행을 계속해서 개발하고 적용할 것입니다. 구글의 AI 시스템은 타당하고 신중하게 설계할 것이며, AI 안전성 연구의 모범 사례에 맞게 개발하기 위해 최선을 다할 것입니다. AI 기술은 상황에 맞게 통제된 환경에서 테스트하며 배포 후에도 동작을 모니터링할 것입니다.
4. 인간을 위해 책임을 다해야 합니다
구글은 AI 시스템이 적합한 피드백 및 설명, 반박이 이루어질 수 있는 기회를 제공하도록 설계합니다. 구글의 AI 기술은 인간에 의한 적합한 지시와 통제하에 놓일 것입니다.
5. 개인정보 보호를 위한 설계 원칙을 적용합니다
구글은 개인정보 보호를 위한 원칙을 AI 기술의 개발과 사용에 적용할 것입니다. 알림과 동의를 위한 기회를 제공하고, 개인정보 보호 조치가 포함된 설계를 장려하며, 데이터 사용에 적합한 투명성 및 통제권을 제공할 것입니다.
6. 과학적 우수성에 대한 높은 기준을 유지합니다
기술 혁신은 과학적 방법론과 열린 탐구, 지적 견고함, 정직성, 협업에 바탕을 두고 있습니다. AI 툴은 생물학, 화학, 의학, 환경과학 등의 극히 중요한 분야에서 과학 연구와 지식의 새로운 경지를 열어젖힐 잠재력을 갖고 있습니다. 구글은 AI를 개발하는 과정에서 과학적 우수성에 높은 기준을 적용할 것입니다.
구글은 다양한 분야의 이해관계자와 협력하여 과학적으로 철저하고 여러 분야를 망라하는 접근법을 활용해 이 분야에서 사고의 리더십 (thoughtful leadership)을 발휘할 것입니다. 또한 구글은 교육 자료, 모범 사례, 연구 내용을 공개하여 AI에 대한 지식을 공유하고 더 많은 사람들이 유용한 AI 솔루션을 개발할 수 있도록 할 것입니다.
7. 구글의 AI 원칙에 부합하는 용도에 활용될 수 있도록 해야 합니다
대부분의 기술은 여러가지 용도로 사용될 수 있습니다. 구글은 해를 끼칠 수 있거나 악용될 수 있는 기술 활용을 제한하기 위해 노력할 것입니다. AI 기술을 개발하고 배포하는 과정에서 구글은 다음 요인을 고려하여 가능한 용도를 평가할 것입니다.
- 주요 목적 및 용도: 해당 기술 및 솔루션이 유해한 사용에 얼마나 밀접하게 관련되어 있는지, 또는 해로운 용도에 적용될 수 있는지를 포함해 기술의 주된 목적과 사용처를 검토합니다.
- 특성 및 독자성: 공개하는 기술이 독자적인 것인지 아니면 좀 더 일반적으로 활용 가능한 것인지 여부를 검토합니다.
- 규모: 해당 기술의 활용이 중대한 영향을 미칠 수 있는지 여부를 검토합니다.
- 구글이 담당하는 역할의 특성: 범용 도구 제공인지, 고객을 위한 도구 통합인지, 맞춤 솔루션 개발인지를 구분합니다.
구글이 AI를 활용하지 않을 분야
위에서 언급한 목표 외에도 구글은 다음 응용 분야에서는 AI를 설계하거나 배포하지 않겠습니다.
- 전반적으로 피해를 유발하거나 해를 입힐 가능성이 있는 기술. 중대한 위해의 가능성이 있는 경우에는 편익이 위험을 크게 넘어서는 경우에만 AI 개발을 진행하고 안전을 위해 적절한 제한 사항을 포함시키겠습니다.
- 주 목적 또는 실행 목적이 인명 피해를 야기하거나 인명 피해를 직접적으로 촉진하는 무기 또는 기타 기술.
- 국제적으로 인정되는 규범을 위반해 감시 목적으로 정보를 수집하거나 사용하는 기술.
- 일반적으로 인정되는 국제법 및 인권의 원칙에 위배되는 목적을 가진 기술.
장기적인 관점의 AI
구글이 AI에 접근하는 방식을 이렇게 설명드렸지만, AI에 관한 논의에 다양한 의견이 더 나올 수 있는 여지가 있다고 생각합니다. AI 기술이 발전함에 따라 구글은 다양한 이해당사자와 협력하여 과학적으로 근거가 있는 다각적인 접근 방식을 가지고 AI 분야에서 신중한 리더십을 발휘해 나가겠습니다. 또한 AI 기술 및 활용 방식을 향상시키기 위해 구글이 연구한 내용을 지속적으로 공유할 예정입니다.
구글에서는 앞서 제시한 원칙이 구글과 미래의 AI 발전을 위한 올바른 토대라고 보고 있습니다. 이러한 접근법은 구글이 2004년 첫 창업자의 편지(Founders’ Letter)에서 밝힌 가치와 일치하는 것으로, 2004년 당시 편지에서 구글은 단기적으로는 설사 손해를 보더라도 장기적인 관점을 가지고 일하겠다는 목적을 분명하게 밝힌 바 있습니다. 그 당시에 밝힌 원칙은 지금도 구글에서 유효한 원칙입니다.
작성자: 선다 피차이(Sundar Pichai), 구글 CEO