你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Azure AI Foundry 的可信 AI

本文概述了用于生成和部署可信代理的资源。 这包括端到端安全性、可观测性和治理,以及代理生命周期的所有阶段的控制和检查点。 我们推荐的核心开发步骤基于 Microsoft 负责任 AI 标准,这是我们内部工程团队遵循的一系列策略要求。 标准的大部分内容都遵循模式,要求团队发现、保护和治理潜在的内容风险。

在Microsoft,我们的方法由一个根植于 AI 原则的治理框架指导,该框架确立了产品要求,并充当我们的“北星”。当我们确定生成 AI 的业务用例时,我们首先发现并评估 AI 系统的潜在风险,以查明关键重点领域。

在识别这些风险后,我们通过系统性度量来评估它们在 AI 系统中的普遍性,从而帮助我们优先处理需要关注的领域。 然后,我们会在模型和代理级别针对这些风险应用适当的保护。

最后,我们探讨管理生产中风险的策略,包括部署和运营的准备情况,并设置监控以支持持续治理,以确保应用程序上线后的合规性并识别新的风险。

根据Microsoft的 RAI 做法,这些建议分为三个阶段:

  • 在部署前后发现代理质量、安全性和安全风险
  • 在模型输出和代理运行时级别上保护-免受安全风险、不需要的输出和不安全作的影响。
  • 通过跟踪和监视工具以及合规性集成来管理代理

安全警报和建议

可以在 “风险 + 警报 ”部分中查看 Defender for Cloud 安全警报和建议,以改进安全状况。 安全警报是在 AI 工作负载中识别威胁时 Defender for AI Services 计划生成的通知。 可以在 Azure 门户或 Defender 门户中采取措施来解决这些警报。

了解有关负责任 AI 的详细信息