지난 주 구글 I/O 2023 에서 순다 피차이 구글 CEO가 말했듯이, 인공지능(AI)의 발전은 우리가 보았던 중 가장 큰 기술혁신의 하나입니다. 오늘날의 AI 모델은 단순히 정보를 얻고, 최적의 단어를 찾으며, 새로운 장소를 발견하는 방법을 개발해내는 것뿐만 아니라 사람들이 완전히 새로운 과학 및 기술의 지평을 열어갈 수 있도록 도우며 발전하고 있습니다.
우리는 지금 수십억 명의 삶을 크게 개선하고, 비즈니스의 번창과 성장을 도우며, 우리 사회가 가장 어려운 질문에 답할 수 있도록 지원하는 방법에 대해 다시금 생각해 볼 수 있는 새로운 시대의 문턱에 서 있습니다. 동시에 우리 모두는 AI가 위험과 도전을 동반할 것이라는 점 또한 분명히 인식해야 합니다.
구글은 이런 상황에서 대담하고 책임감 있게, 그리고 다른 이들과 협력하여 앞으로 나아가기 위해 최선을 다하고 있습니다.
기술 발전의 중단을 요구하는 것은 성공할 가능성이나 효과를 볼 가능성이 낮습니다. 그리고 AI가 가져올 실질적 혜택을 놓칠 수도 있으며 AI의 잠재력을 받아들인 사람들에게 뒤쳐질 위험 또한 있습니다. 때문에 위험을 완화하면서도 기술 혁신을 다양한 혜택으로 전환할 수 있도록 정부, 기업 및 대학이 다 함께 많은 노력을 해야합니다.
몇 주 전 책임감 있는 AI 발전을 위한 공유 아젠다의 필요성을 설명할 때, 저는 AI를 올바르게 발전시키기 위해서는 개별 사례, 공유된 업계 표준, 건전한 정부 정책이 필수적이라고 말씀드렸습니다. 오늘 구글은 각국 정부가 기회 창출, 책임 증진, 보안 강화라는 세 가지 핵심 영역에 집중할 것을 권장하는 AI 정책 권고안을 담은 백서를 발표합니다:
1. AI가 가져올 경제효과를 극대화하는 기회를 창출해야 합니다.
AI를 도입하는 국가는 성장을 가속화해 도입 속도가 느린 경쟁 국가를 앞서 나갈 것입니다. AI는 다양한 산업에서 더욱 복잡하고 가치 있는 제품과 서비스를 생산하고, 인구통계학적 문제에도 불구하고 생산성을 높이는 데 도움이 될 것입니다. 또한, AI는 AI 기반 제품과 서비스를 사용하여 혁신하고 성장하는 중소기업과 일상적이지 않고 보람 있는 업무에 집중할 수 있는 직원들 모두에게 활력을 불어넣을 것입니다.
이를 제대로 실현하려면 무엇이 필요할까요?
AI가 제공하는 경제적 기회를 활용하고 인력의 혼란 최소화를 위해 정책 입안자들은 AI 혁신과 그 경쟁력에 투자하고, 책임감 있는 AI 혁신을 지원하는 법적 체계를 장려하며, AI 기반 일자리 전환을 위해 인력을 준비시켜야 합니다. 예를 들어, 정부는 국립 연구소 및 연구 기관을 통해 기초적인 AI 연구를 탐색하고, 책임감 있는 AI 개발을 지원하는 정책(예. 개인 정보를 보호하고 국경을 넘어 신뢰할 수 있는 데이터 흐름을 가능하게 하는 개인정보 보호법)을 채택할 수 있습니다. 또한, 지속적인 교육과 숙련도 향상 프로그램, 핵심 인재의 이동, 진화하는 미래 업무 방식에 대한 연구를 장려해야 합니다.
2. AI 기술의 오용 위험을 줄이면서 책임을 장려해야 합니다.
AI는 이미 전 세계가 질병부터 기후 변화까지 다양한 문제를 해결하도록 돕고 있으며, 진보를 위한 강력한 힘이 될 수 있습니다. 하지만 책임감 있게 발전되고 공유되지 않는다면 AI 시스템은 잘못된 정보, 차별, 도구의 오용과 같은 현재의 사회적 문제를 더욱 증폭시킬 수도 있습니다. 또한 AI 시스템에 대한 신뢰와 확신이 없다면 기업과 소비자는 AI 도입을 주저하게 되어 AI의 혜택을 누릴 기회도 제한될 것입니다.
이를 제대로 실현하려면 무엇이 필요할까요?
이러한 과제를 해결하기 위해서는 거버넌스에 대한 여러 이해관계자들의 다양한 접근 방식이 필요합니다. 인터넷의 사례를 통해 학습한 이해관계자들은 잠재적인 혜택과 도전과제를 모두 파악한 상태에서 논의를 해야 합니다. 일부 과제를 해결하기 위해서는 AI의 이점과 위험, 그리고 이를 관리하는 방법을 더 잘 이해하기 위한 근본적인 연구와 해석역량 및 워터마킹과 같은 새로운 기술 혁신을 개발하고 구현해야 할 것입니다. 다른 과제들은 공통 표준과 공유된 모범 사례, 그리고 AI 기술이 책임감 있게 개발되고 배포되도록 하는 균형잡힌 위험 기반 규제를 통해 효과적으로 해결될 것입니다. 일부 문제 해결을 위해서는 새로운 조직과 기관이 필요할 수도 있습니다. 예를 들어, 선도적인 기업들이 모여 테러 대응을 위한 ‘테러리즘 대응을 위한 국제 인터넷 포럼(Global Internet Forum to Counter Terrorism, GIFCT)와 같은 이전 사례를 바탕으로 GFAI(Global Forum on AI)를 구성할 수 있습니다. 민주적 가치를 반영하고 분열을 피하는 공통의 정책 접근법을 개발하기 위해서는 여러 국가들이 함께 힘을 합치는 것이 필수적입니다.
3.글로벌 보안을 강화하는 동시에 기술의 약용을 방지해야 합니다.
AI는 글로벌 보안과 안정성에도 중요한 영향을 미칩니다. 생성형 AI는 잘못된 정보 및 허위 정보를 생성하고 조작된 미디어를 식별 및 추적하는 데 도움이 될 수 있습니다. AI 기반 보안 연구는 고급 보안 운영 및 위협 인텔리전스를 통해 새로운 세대의 사이버 방어를 주도하고 있으며, AI로 생성된 취약점은 공격자의 더욱 정교한 사이버 공격을 가능하게 할 수도 있습니다.
이를 제대로 실현하려면 무엇이 필요할까요?
첫 번째 단계는 AI의 악의적인 사용을 방지하고 악의적인 행위자에 대처하기 위한 기술적, 상업적 보호 장치를 마련하는 동시에 AI의 잠재적 이점을 극대화하기 위해 모두가 공동으로 노력하는 것입니다. 예를 들어, 각국 정부는 보안 위험으로 간주되는 AI 기반 소프트웨어의 특정 응용 사례와 글로벌 보안을 위협할 수 있는 방식으로 AI 관련 연구 및 개발을 지원하는 특정 단체에 대한 차세대 무역 통제 정책을 모색해야 합니다.
전 세계 정부, 학계, 시민 사회 및 기업들은 점점 더 강력해지는 AI 시스템이 안전에 미치는 영향과, 점점 더 정교하고 복잡해지는 AI를 인류의 가치와 어떻게 조화시킬 수 있는지에 대해 더 잘 이해해야 합니다. 결국 보안은 모두가 함께 지켜야 하며, 이 분야에서 진전을 이루기 위해서는 공동 연구, 동급 최고의 데이터 거버넌스 채택, AI 보안 취약성 관련 정보 공유를 위한 공공-민간 포럼 개최 등의 협력이 필요합니다.
마치며
구글은 잠재적인 도전 과제들이 충분히 고려되었을 때, 기회, 책임감, 보안에 중점을 둔 AI 정책 아젠다가 마련된다면 AI의 강점을 실현시키고 그 혜택을 모두에게 나누어줄 수 있다고 믿습니다.
앞서 말했듯이, AI는 규제의 필요성에 있어 너무 중요해 졌습니다. 싱가포르의 AI 검증 프레임워크(AI Verify framework)부터 영국의 AI 규제에 대한 친혁신적 접근 방식, 미국 국립표준기술연구소의 AI 위험 관리 프레임워크(AI Risk Management Framework)에 이르기까지 전 세계 각국 정부가 이러한 신기술에 대한 올바른 정책 프레임워크를 진지하게 고민하는 것은 굉장히 고무적입니다. 구글 또한 이러한 노력을 지원하기 위해 최선을 다할 것입니다.
작성자: 켄트 워커(Kent Walker), President of Global Affairs, Google & Alphabet