멈추지 않는 바드의 발전
지속적인 연구와 개발
바드는 LLM에 대한 구글의 최첨단 연구 성과를 기반으로 합니다. 그 일례로 2015년에 도입한 신경망 대화 모델(Neural Conversational Model)을 들 수 있습니다. 이 프레임워크에서는 모델이 대화에서 이전 문장을 토대로 다음 문장을 예측함으로써 보다 자연스러운 대화 경험이 이어지는 방식을 보여주었습니다. 그 뒤로 2017년의 트랜스포머(Transformer)와 2020년의 멀티턴 채팅 경험으로 획기적인 성과가 이어졌고 이는 훨씬 더 강력한 생성형 언어의 발전을 보여주고 있습니다.
구글 AI 원칙의 적용
바드에 대한 구글의 모든 작업은 책임감과 안전성을 기반으로 합니다. 바드는 구글의 AI 원칙에 따라 개발되고 있으며 여기서 가장 중요한 것은 실질적인 사회적 혜택을 제공하는 것입니다. 앞서 설명한 바와 같이 바드의 활용을 위해서는 지속가능한 웹 콘텐츠 생태계가 필요합니다. 이에 구글은 책임감 있는 혁신을 이루기 위해 최선을 다하고 있습니다. 그 과정에서 콘텐츠 제작자와 협력하며 신기술로 그들의 작업을 더 발전시키고 전체 웹 생태계를 이롭게 할 방안을 찾고 있습니다. 그리고 람다를 도입한 이후로는 바드의 품질, 안전성 및 근거성을 개선할 수 있었습니다. 람다는 다양한 AI 원칙에 따라 검토되었으며 앞으로 계속해서 진화할 것입니다.
또한, 구글이 바드를 개발하는 데 있어 가장 신경쓰고 있는 또다른 AI 원칙은 ‘유해성’을 방지하는 것입니다. 이에 구글은 내부적으로 "레드팀" 직원들과 함께 지속적인 적대적 테스트를 실시하고 있습니다.
레드팀 내 제품 전문가와 사회 과학자가 오류, 공정성 문제, 잠재적 유해성 등을 탐색하기 위해 모델에 의도적인 스트레스 테스트를 실시합니다. 구글은 이들이 알아낸 내용을 바탕으로 바드를 지속적으로 개선할 수 있습니다. 이용자 역시 바드 내 피드백을 제공할 수 있으며 구글은 자체 개인정보 보호 설계원칙을 기반으로 바드를 학습시켰습니다. 구글은 책임감 있는 AI(Responsible AI)와 관련해 최신 진행 상황을 정기적으로 공개하면서 다양한 작업을 수행하고 있습니다. 이와 마찬가지로, LLM 관련 연구를 계속하면서 새로운 연구결과를 투명하게 밝히고 관련 분야의 다른 이들과도 직접적으로 협력할 것입니다. 또한, 개발자들이 안전하고 효과적인 방식으로 새로운 애플리케이션과 비즈니스를 개발할 수 있는 기회도 풍부하게 제공할 것입니다.
협력을 통한 바드 개선
바드를 공개함에 따라, 구글은 향후 업데이트 사항들을 지속적으로 공유할 것입니다. 이는 바드가 유용하게 쓰일 수 있는 곳, 반복과 개선이 필요한 곳들을 알아갈 수 있는 배움의 장이 될 것입니다. 또한, 구글은 적극적으로 바드의 기능을 추가하고 있습니다. 지속적인 연구, 시험과 함께 이용자 피드백을 바탕으로 협력하며 계속해서 바드를 개선해 나갈 것입니다.
감사의 말
바드 담당팀, 구글 리서치 및 책임 있는 AI를 위해 함께 일하고 있는 동료들에게 감사드리며 그 놀라운 성과에 경의를 표합니다.
작성자: 제임스 마니카(James Manyika) 구글 기술 및 사회 부문 SVP