책임 있고 신뢰할 수 있는 AI 원칙 채택

Microsoft의 책임 있는 AI를 위한 6가지 핵심 원칙에는 공정성, 안정성 및 안전성, 개인 정보 보호 및 보안, 포용성, 투명성, 책임감이 있습니다. 이러한 원칙을 사용하여 AI 채택 과정에서 주류 제품 및 서비스에 통합할 때 책임 있고 신뢰할 수 있는 AI를 만들 수 있습니다.

책임 있는 AI 원칙

Microsoft는 책임감 있는 AI 사례를 지원하기 위해 최선을 다하고 있습니다.

책임 있는 AI를 정의하는 6가지 핵심 원칙은 다음과 같습니다.

  • 공정성: AI 시스템은 모든 사람을 동등하게 대하고 모든 개인에게 동일한 권장 사항을 제공해야 합니다. AI 시스템의 공정성은 개인의 특성에 따른 차별을 방지합니다.

  • 안정성 및 안전성: AI 시스템은 신뢰를 구축하는 데 도움이 되도록 다양한 조건에서 안정적이고 안전하며 일관되게 작동해야 합니다.

  • 개인 정보 보호 및 보안: AI 시스템은 개인 정보 및 기밀 정보를 보호하여 개인 정보를 존중하고 보안을 유지해야 합니다. 또한 공격 및 시스템 손상 또는 손상 시도에 저항해야 합니다.

  • 포괄성: AI 시스템은 모든 사람에게 힘을 주고 관계를 맺어야 합니다. 포용적 설계 관행은 AI 시스템 개발자가 제품 또는 서비스의 잠재적인 배제 장벽을 이해하고 해결하는 데 도움이 될 수 있습니다. 포용성은 혁신을 촉진하고 모든 사람에게 도움이 되는 환경을 설계하는 데 도움이 됩니다.

  • 투명성: AI 시스템은 투명하고 이해하기 쉬워야 합니다. AI 시스템은 사람들의 삶에 깊은 영향을 줄 수 있는 결정을 내릴 수 있으므로 개인이 이러한 결정을 내리는 방법을 이해하는 것이 중요합니다.

  • 책임감: AI 시스템과 개발자는 책임을 지고 대답할 수 있어야 합니다.

전략 및 계획에서 구현에 이르기까지 AI 채택 과정에서 책임 있는 AI 원칙을 통합합니다. AI 이니셔티브를 보호, 관리 및 관리할 때 이러한 원칙을 적용해야 합니다.

책임 있는 AI가 Azure용 클라우드 채택 프레임워크 방법론 전반에서 모든 AI 작업의 기초가 되는 방법을 보여 주는 다이어그램.

이 AI 채택 지침에는 Azure에 대한 클라우드 채택 프레임워크 사용하여 책임 있는 AI 사례를 구현하는 방법의 예가 포함되어 있습니다. 책임 있는 AI의 원칙은 이 AI 채택 과정에서 지침 및 권장 사항에 통합됩니다.

책임 있는 AI의 중요성

책임 있는 AI는 다음과 같은 위험을 완화하는 데 도움이 됩니다.

  • 의도하지 않은 결과: 책임 있는 AI 구현을 계획하고 감독하여 윤리적 영향을 미치는 예기치 않은 효과의 위험을 줄입니다.

  • 진화하는 위협: AI 기술이 발전함에 따라 새로운 위협이 정기적으로 등장합니다. 이러한 위협을 완화하고 앞서 나가려면 책임 있는 AI의 원칙을 준수하세요.

  • 편견: AI의 편향 완화는 어려울 수 있지만 AI 시스템이 공정하고 편견이 없도록 하는 데 필요합니다. 책임 있는 AI 원칙을 사용하여 안내합니다.

  • 민감한 기술: 얼굴 인식과 같은 기술은 기본적인 자유와 인권에 대한 위험 때문에 민감한 기술로 간주될 수 있습니다. 이러한 기술의 의미를 고려하여 책임감 있게 사용할 수 있도록 합니다.

Azure 촉진

Microsoft Azure는 책임 있는 AI 시스템을 빌드하는 데 도움이 되는 다양한 도구, 서비스 및 리소스를 제공합니다.

Microsoft Azure AI 콘텐츠 보안을 사용하여 안전한 시스템 빌드

Microsoft Azure AI 콘텐츠 보안을 사용하여 애플리케이션 및 서비스에서 유해한 사용자 생성 및 AI 생성 콘텐츠를 감지합니다. 콘텐츠 보안을 사용하면 텍스트 및 이미지를 포함하여 AI 애플리케이션에서 생성된 콘텐츠를 분석하여 사용자에게 안전하고 적절한지 확인할 수 있습니다. 콘텐츠 보안은 다음과 같은 기능을 제공합니다.

  • 프롬프트 쉴드는 LLM(대규모 언어 모델)에서 사용자 입력 공격 또는 탈옥의 위험이 있는지 텍스트와 문서를 스캔합니다.

  • 근거성 검색는 LLM의 텍스트 응답이 사용자가 제공하는 소스 자료에 기반을 두고 있는지 검색합니다.

  • 보호자료감지는 LLM의 텍스트 응답에 저작권이 있는 텍스트, 노래 가사, 기사 및 웹 콘텐츠와 같은 보호된 자료가 포함되어 있는지 감지합니다.

  • 사용자 지정 범주(빠른) API는 새로운 유해 콘텐츠 패턴을 정의하고 텍스트와 이미지의 일치 항목을 검색합니다.

  • 텍스트 API 분석은 잠재적으로 유해한 텍스트 콘텐츠를 분석합니다. 일반적으로 증오, 자해, 성적 또는 폭력적인 콘텐츠와 같은 범주를 식별합니다.

  • Analyze Image API는 잠재적인 유해한 이미지 콘텐츠를 분석합니다. 일반적으로 증오, 자해, 성적 또는 폭력적인 콘텐츠와 같은 범주를 식별합니다.

Azure AI 서비스에서 책임 있는 AI 사용

Microsoft는 AI 관련 Azure 서비스에 대한 투명성 정보 목록을 제공합니다. 목록에는 Azure AI 서비스 제품군 내의 서비스가 포함됩니다. 자세한 내용은 Azure AI 서비스에서 AI의 책임 있는 사용을 참조하세요.

Azure Machine Learning의 책임 있는 AI 대시보드 사용

Azure Machine Learning을 사용하여 시스템을 빌드하는 경우 책임 있는 AI 대시보드를 사용하여 AI 시스템을 평가할 수 있습니다. 책임 있는 AI 대시보드는 책임 있는 AI 원칙을 구현하는 데 도움이 되는 단일 인터페이스를 제공합니다. 책임 있는 AI 기능 중 일부는 다음과 같습니다.

  • 데이터 분석: 데이터 세트 분산 및 통계를 이해하고 탐색합니다.

  • 모델 개요 및 공정성 평가: 모델의 성능과 모델의 그룹 공정성 문제를 평가합니다.

  • 오류 분석: 데이터 세트에서 오류가 분산되는 방식을 보고 이해합니다.

  • 모델 해석력: 모델의 예측 및 모델이 개별 및 전체 예측을 만드는 방법을 이해합니다.

  • 반사실적 가상 분석: 기능의 변경 내용이 모델 예측에 어떤 영향을 줄 수 있는지 관찰합니다.

  • 일반 분석: 기록 데이터를 사용하여 처리 기능이 실제 결과에 미치는 인과 영향을 확인합니다.

책임감 있게 AI 개발

리소스 설명
효과적인 HAX(인간-AI 환경) 빌드를 위한 실습 도구 디자인 프로세스 초기에 HAX 도구 키트를 사용하여 AI 시스템이 수행하는 작업과 작동 방식을 개념화할 수 있습니다. 사용자 연결 AI 제품에 HAX 도구 키트를 사용합니다.
대화형 AI 지침 사람과 사회가 자신의 잠재력을 최대한 발휘할 수 있도록 다른 사람의 신뢰를 얻는 방식으로 봇을 설계하세요. 다음 지침을 사용하여 회사와 서비스에 대한 신뢰를 구축하는 봇을 만듭니다.
포괄적인 AI 설계 지침 이러한 지침을 사용하여 모든 사람이 포괄적이고 액세스할 수 있는 AI를 설계할 수 있습니다.
AI 공정성 검사 목록 AI 공정성 검사 목록을 사용하여 AI 시스템이 공정하고 편견이 없는지 확인합니다.
Machine Learning의 책임 있는 AI Machine Learning을 사용하여 AI 시스템을 빌드하는 경우 이러한 책임 있는 AI 리소스를 검토합니다.

다음 단계