책임 있는 AI 투명성 보고서 그래픽

2025 책임 있는 AI 투명성 보고서: AI 구축부터 고객 지원, 그리고 성장까지

작성자: 테레사 허트슨(Teresa Hutson), 신뢰 받는 기술 그룹(Trusted Technology Group) CVP & 나타샤 크램튼(Natasha Crampton), 책임 있는 AI 총괄(Chief Responsible AI Officer)

2024년 5월, 마이크로소프트는 첫 번째 책임 있는 AI 투명성 보고서(Responsible AI Transparency Report)를 발간했습니다. 전 세계 이해관계자들께서 보내주신 소중한 피드백에 감사드리며, 이러한 의견은 두 번째 연례 책임 있는 AI 투명성 보고서에도 반영됐습니다. 이번 보고서는 신뢰할 수 있는 AI 기술을 개발하기 위한 마이크로소프트의 지속적인 노력을 보여줍니다. 또한, AI 시스템을 책임 있게 설계하고 배포하는 방식, 고객 및 더 넓은 생태계를 지원하는 방법, 그리고 우리가 학습하고 발전해 나가는 과정에서 이룬 주요 성과들을 폭넓게 다루고 있습니다.

지난 한 해 동안 다양한 규모의 조직들이 AI를 도입함에 따라, AI 거버넌스를 실제로 어떻게 실행하고 운영할 것인가에 대해 관심이 모이고 있습니다. 이에 고객 및 파트너들은 마이크로소프트가 AI 거버넌스 프로그램을 어떻게 확장해 왔는지, 그리고 고차원적인 원칙과 규범을 실제 운영에 효과적으로 적용할 수 있도록 개발한 도구와 방식에 주목하고 있습니다.

마이크로소프트와 마찬가지로, 많은 조직들이 신뢰할 수 있는 AI를 구축하는 것이 비즈니스에 긍정적인 영향을 미치며, 견고한 거버넌스가 AI의 가능성을 실현하는데 핵심적인 역할을 한다는 점을 인식하고 있습니다. IDC가 실시한 마이크로소프트의 책임 있는 AI 설문조사에 따르면, 전체 응답자의 30% 이상이 AI 도입 및 확산을 가로막는 가장 큰 장애 요인으로 거버넌스와 위험 관리 솔루션의 부재를 꼽았습니다. 반면, 책임 있는 AI 도구를 활용해 리스크를 관리하는 응답자 중 75% 이상은, AI가 데이터 프라이버시 보호, 고객 경험 개선, 신뢰 기반 비즈니스 의사결정, 브랜드 인지도 강화, 그리고 전반적인 신뢰 구축에 도움이 되었다고 답했습니다.

지난해에는 AI 관련 새로운 규제와 입법 움직임이 활발히 나타났습니다. 마이크로소프트는 지난 10년 가까이 책임 있는 AI 원칙을 실제 운영에 내재화해 온 경험을 바탕으로, 이러한 변화에 적극적으로 대응할 준비를 마쳤으며, 고객들이 동참할 수 있도록 지원하고 있습니다. 하지만 과제가 모두 해결된 것은 아닙니다. 이번 보고서에서 밝힌 바와 같이, 국가 간 AI 도입을 뒷받침할 효율적이고 실효성 있는 규제 및 실행 방식은 여전히 정립 단계에 있습니다. 마이크로소프트는 글로벌 차원의 기준과 규범 수립 마련을 위한 실질적인 인사이트를 지속적으로 제공하기 위해 노력하고 있습니다.

거버넌스의 모든 측면에서, 실제 배포 경험을 통해 얻은 교훈을 반영하고 최신 기술 발전에 발맞춰 실행 방식을 지속적으로 개선하며, 이해관계자의 피드백에 신속하게 대응하는 유연한 접근 방식이 중요합니다. 이러한 원칙 기반의 반복적인 접근에서 얻은 지식은 본 보고서 전반에 걸쳐 반영되어 있습니다. 거버넌스가 계속해서 발전함에 따라 우리는 앞으로도 연례 투명성 보고서와 다양한 공공 채널을 통해 선제적으로 인사이트를 공유할 것입니다.

2025 책임 있는 AI 투명성 보고서의 주요 내용

2024년, 마이크로소프트는 AI 혁신에 발맞추기 위해 책임 있는 AI 도구와 정책, 그리고 실행 방안에 대한 대규모 투자를 단행했습니다.

  1. 책임 있는 AI 도구를 개선해 텍스트뿐만 아니라 이미지, 오디오, 비디오 등 다양한 형태의 리스크를 측정하고 완화할 수 있는 범위를 확장했으며, 2025년 이후 AI 투자와 혁신의 핵심 분야가 될 것으로 예상되는 에이전틱 시스템(agentic systems)에 대한 지원도 확대했습니다.
  2. 유럽연합 AI 법(EU AI Act)을 포함한 새로운 규제 요건에 대해 선제적이고 단계적인 접근 방식을 취했으며, 고객들이 관련 규제를 준수하면서도 혁신을 이어갈 수 있도록 다양한 리소스와 자료를 제공했습니다. 포괄적이면서 업계를 선도하는 책임 있는 AI 프로그램을 구축하기 위한 초기 투자가 있었기에, 2024년에는 AI 규제 대응 역량을 본격적으로 강화할 수 있었습니다.
  3. 출시 전 검토와 레드팀 활동을 통해 일관된 위험 관리 체계를 꾸준히 적용해 왔습니다. 여기에는 애저 오픈AI 서비스(Azure OpenAI Service)에 새로 추가된 주요 모델과 모든 파이(Phi) 모델 출시를 포함해, 고영향·고위험 AI 및 생성형 AI 활용 사례에 대한 철저한 감독과 검토가 포함됩니다. 아울러 책임 있는 AI 문서화를 보다 효율적으로 지원하기 위해, 책임 있는 AI 표준에 명시된 다양한 요구사항을 중앙에서 관리할 수 있는 내부 워크플로우 도구도 도입했습니다. 고위험 AI 활용 및 차세대 기술 대응팀(Sensitive Uses and Emerging Technologies team)을 통해 고영향 및 고위험 AI 활용 사례에 대한 실질적인 상담을 지속적으로 제공했습니다. 특히 의료와 과학 분야에서 생성형 AI의 활용이 2024년 들어 두드러지게 성장했습니다. 해당 팀은 다양한 사례를 분석하고 연구자들과 긴밀히 협력하며, 새로운 위험 요소와 신흥 AI 기술에 대한 초기 가이드를 제공함으로써 혁신을 촉진하고 내부 정책 및 지침 수립을 지원했습니다.
  4. AI 기술의 발전에 따른 사회기술적 이슈를 이해하기 위해 연구 기반 통찰을 계속 활용했으며, AI 시스템의 성능, 효율성, 안전성을 극대화하기 위한 핵심 기술에 투자하기 위해 AI 프런티어 랩(AI Frontiers Lab)을 설립했습니다.
  5. 전 세계 이해관계자들과 협력해 AI의 국경 간 활용을 가능하게 하는 일관된 거버넌스 체계 구축을 추진했습니다. 이 일환으로, 다양한 분야의 거버넌스를 다룬 도서를 발간하고, AI 시스템 테스트를 위한 통합된 표준 마련에도 기여했습니다.

2025년 하반기 및 그 이후를 위한 계획

AI 혁신과 도입이 계속해서 발전하는 가운데, 마이크로소프트의 핵심 목표는 변함없습니다. 전 세계적으로 폭넓고 유익한 AI 활용을 촉진하기 위해 반드시 갖춰야 할 기반, 바로 신뢰를 얻는 것입니다. 앞으로의 여정 속에서 우리는 끊임없이 변화하는 환경에 유연하게 대응하면서도 AI 거버넌스에 대한 확고한 의지를 이어가기 위해 다음 세 가지 분야에 집중할 계획입니다:

  1. AI 발전 속도에 맞춰 유연하고 민첩한 리스크 관리 도구 및 실행 방안 개발. 전 세계의 개인과 조직이 AI의 변혁적 잠재력을 충분히 활용하려면, 혁신의 속도에 맞춰 리스크를 예측하고 관리하는 역량도 함께 진화해야 합니다. 이를 위해 우리는 AI 기술의 발전과 다양한 위험 프로파일을 지닌 배포 시나리오의 증가에 신속하게 대응할 수 있는 유연한 도구와 실행 방안을 마련하고 있습니다. 이러한 목표를 실현하기 위해 리스크 관리 시스템에 대한 투자를 확대하고, 가장 일반적으로 발생할 수 있는 리스크를 효과적으로 다룰 수 있는 도구와 실행 전략을 제공할 예정입니다. 또한 마이크로소프트 전사 차원에서 테스트 세트, 완화 조치, 그리고 우수 사례를 팀 간에 원활히 공유할 수 있도록 체계를 갖춰 나갈 것입니다.
  2. AI 공급망 전반에 걸친 효과적인 거버넌스 지원. AI에 대한 신뢰를 구축하고 유지하기 위해서는 모델 개발자, 애플리케이션 구축자, 시스템 사용자 등 모든 주체가 신뢰할 수 있는 설계, 개발, 운영에 함께 기여하는 노력이 필요합니다. 유럽연합 AI 법을 포함한 AI 규제들은 이러한 공급망 참여자 간 정보 공유의 필요성을 반영하고 있습니다. 마이크로소프트는 이처럼 공동 책임의 개념을 적극 수용하고 있지만, 빠르게 변화하는 AI 생태계에서는 각 주체의 책임이 어떻게 맞물리는지를 명확히 규정하는 일이 여전히 복잡하다는 점도 알고 있습니다. 이에 역할과 기대치를 보다 명확히 하기 위해 내부적으로는 물론 외부 이해관계자들과의 협업을 통해 해당 문제에 대한 공통된 이해를 심화해 나가고 있습니다.
  3. AI 위험 측정 및 평가를 위한 공동 규범과 효과적인 도구를 통한 생태계 활성화. AI 위험 측정 및 평가는 아직 초기 단계에 있는 분야이며, 우리는 이 분야의 성장을 지원하기 위해 지속적인 투자를 아끼지 않을 것입니다. 여기에는 위험 측정의 경계를 넓히는 연구와 이를 대규모 운영에 적용할 수 있는 도구 개발이 포함됩니다. 도구와 모범 사례를 생태계 전반에 공유함으로써 AI 위험 평가 및 측정에 대한 공동 기준과 규범 확립을 적극적으로 지원할 것입니다.

마이크로소프트는 지금까지의 진전에 대한 소중한 피드백과 앞으로의 협력 기회를 기대하고 있습니다. 함께 AI 거버넌스를 보다 효율적이고 효과적으로 발전시키며, 빠르게 변화하는 미래 환경에 발맞춰 AI에 대한 신뢰를 확고히 구축해 나가길 바랍니다.

2025 책임 있는 AI 투명성 보고서를 확인해보세요.

OSZAR »