主页 topics AI 治理 什么是 AI 治理?
深入了解 IBM® watsonx.governance
连接到由不同阴影立方体和笔记本电脑表示的各个端点的黑匣的等距图形,黑匣顶部有一个开口,外面漂浮有立方体漂浮

发布日期:2023 年 11 月 28 日
撰稿人:Tim Mucci、Cole Stryker

什么是 AI 治理?

人工智能 (AI) 治理是指确保 AI 工具和系统保持安全并符合道德规范的防护措施。它建立了指导 AI 研究、开发和应用的框架、规则和标准,以确保安全、公平和尊重人权。

 

AI 治理包含监督机制,可解决偏见、隐私侵犯和滥用等风险,同时促进创新和信任。以符合道德规范的 AI 为中心的 AI 治理方法需要各利益相关者的广泛参与,包括 AI 开发人员、用户、政策制定者和伦理学家,确保 AI 相关系统的开发和使用符合社会价值观。

AI 治理可解决 AI 创建和维护过程中的人为因素造成的固有缺陷。由于 AI 是由人创造的高度工程化代码和机器学习的产物,因此很容易受到人为偏见和错误的影响。治理能够提供一种结构化的方法来降低这些风险,确保对机器学习算法进行监控、评估和更新,以防止出现错误或有害的决策。

必须以负责任和符合道德规范的方式开发和使用 AI 解决方案。这意味着解决与 AI 相关的风险:偏见、歧视和个人伤害。治理通过健全的 AI 政策、监管、数据治理以及经过训练和维护的数据集来解决这些风险。

治理旨在建立必要的监督方式,令 AI 行为符合道德标准和社会期望,并防范潜在的不利影响。

了解 IBM watsonx.governance 的实际应用

了解 watsonx.governance 如何能增强企业降低风险、管理监管要求并解决道德问题的能力。

相关内容

AI 治理:确保您的 AI 透明、合规且值得信赖

IBM AI Governance:自动治理,以提供负责任、透明且可解释的 AI

为什么 AI 治理很重要?

AI 治理对于在开发和应用 AI 技术时达到合规、可信和高效的状态至关重要。随着 AI 越来越多地融入组织和政府运作,其潜在的负面影响变得愈发明显。备受关注的失误,如 Tay 聊天机器人事件(链接位于 ibm.com 外部),Microsoft AI 聊天机器人从社交媒体上的公众互动中学习了有害行为,以及 COMPAS(链接位于 ibm.com 外部)软件有偏见的判决,凸显了健全治理的必要性,旨在防止伤害和维护公众信任。

这些实例表明,如果没有恰当的监督,AI 可能会造成重大的社会和道德危害,凸显了治理在管理与先进 AI 相关的风险方面的重要性。通过提供指导方针和框架,AI 治理旨在平衡技术创新与安全,确保 AI 系统不会侵犯人类尊严或权利。

透明的决策和可解释性对于确保负责任地使用 AI 系统至关重要。从显示哪些广告到是否批准贷款,AI 系统随时都在做出决定。必须了解 AI 系统做出决定的方式,让它们对自己的决定负责,并确保它们公平且符合道德规范地做出决定。

此外,AI 治理不仅仅是确保一次性合规,还涉及长期维持道德标准。AI 模型可能会发生漂移,导致输出质量和可靠性发生变化。当前的治理趋势正在超越单纯的法律合规,转向确保 AI 的社会责任,从而防止财务、法律和声誉受损,同时推动技术负责任地向前发展。

AI 治理示例

AI 治理的示例包括组织和政府为确保负责任地使用 AI 技术而实施的一系列政策、框架和实践。这些示例演示了 AI 治理在不同背景下的执行方式:

《通用数据保护条例》(GDPR):AI 治理的一个示例,尤其针对个人数据保护和隐私方面。虽然 GDPR 并不专门侧重 AI,但其许多条款与 AI 系统高度相关,尤其是处理欧盟境内个人的个人数据的系统。

经济合作与发展组织 (OECD):由 40 多个国家或地区采用的 AI 原则,强调对值得信赖的 AI 的负责任管理,涵盖 AI 系统的透明度、公平性和问责制。

企业 AI 道德委员会:许多公司均设立了道德委员会来监督 AI 计划,以确保其符合道德标准和社会价值观。例如,IBM 成立了 AI 道德委员会,负责审查新的 AI 产品和服务,并确保其符合 IBM 的 AI 原则。这些委员会通常由来自法务、技术和政策背景的跨职能团队组成。

谁负责监督负责任的 AI 治理?

企业级组织中的 CEO 和高级领导层最终负责确保其组织在整个 AI 生命周期实施良好的 AI 治理方案。法务和总法律顾问对于评估和降低法律风险、确保 AI 应用符合相关法律法规至关重要。审计团队对于验证 AI 系统的数据完整性,并确认系统按预期运行,而不会引入错误或偏见而言至关重要。CFO 负责监督财务影响,管理与 AI 计划相关的成本并减轻任何财务风险。

然而,AI 治理的责任并不在于单个个人或部门。这是一项集体责任,每个领导者都必须优先考虑责任,并确保在整个组织中负责任且符合道德规范地使用 AI 系统。CEO 和高级领导层负责设定组织的整体基调和文化。优先考虑负责任的 AI 治理时,等于向所有员工发出一个明确的信息:每个人都必须负责任且符合道德规范地使用 AI。CEO 和高级领导层还可以投资员工的 AI 治理培训,积极制定内部政策和程序,营造开放沟通和协作的文化。

负责任的 AI 治理原则

AI 治理对于管理 AI 技术的快速进步至关重要,尤其是随着生成式 AI 的出现。生成式 AI 包括能够创建新内容和解决方案(例如文本、图像和代码)的技术,在许多用例中具有巨大的潜力。从增强设计和媒体中的创意流程,到自动化软件开发过程中的任务,生成式 AI 正在改变行业的运作方式。但是,由于其广泛的适用性,需要强大的 AI 治理。

负责任的 AI 治理原则对于组织保护自身及其客户至关重要。以下原则可以指在符合道德规范的 AI 技术开发和应用过程对组织进行指导中,其中包括:

  • 同理心:组织应该了解 AI 的社会影响,而不仅仅是技术和财务方面。他们需要预测和解决 AI 对所有利益相关者的影响。

  • 偏见控制:必须严格检查训练数据,以防止将现实世界的偏见嵌入到 AI 算法中,从而确保公平和公正的决策。

  • 透明度:AI 算法的运作和决策方式必须清晰且公开,组织应准备好解释由 AI 驱动的结果背后的逻辑和推理。

  • 问责制:组织应主动制定并遵守较高的标准,以管理 AI 可能带来的重大变化,并对 AI 的影响承担责任。

2023 年底,白宫发布了一项行政命令,以保障 AI 的安全。这项综合战略为建立新标准来管理 AI 技术的固有风险提供了框架。美国政府的新 AI 安全标准体现了政府处理这项高度敏感问题的方式。

  • AI 安全:强制要求强大 AI 系统的开发人员与美国政府共享安全测试结果和关键信息。需要制定标准并开发工具和测试,以确保 AI 系统安全可信。

  • 隐私保护:优先开发和使用隐私保护技术,并加强隐私保护研究和技术。这也为联邦机构评估隐私保护技术的有效性制定了指导方针。

  • 公平与公民权利:防止 AI 加剧各个行业的歧视和偏见。包括指导房东和联邦计划、解决算法歧视并确保刑事司法系统的公平性。

  • 消费者、患者和学生保护:帮助在医疗保健和教育领域推进负责任的 AI,例如研发救命药物和支持 AI 教育工具。

  • 员工支持:制定原则以减轻 AI 对工作和工作场所的有害影响,包括解决工作岗位流失和工作场所公平问题。

  • 促进创新和竞争:促进美国各地的 AI 研究,鼓励公平和良性竞争的 AI 生态系统,并推动熟练的 AI 专业人员进入美国。

  • AI 领域的全球领导地位:扩大 AI 领域的国际合作,推动与国际合作伙伴共同制定和实施重要的 AI 标准。

  • 政府对 AI 的使用:通过发布机构 AI 使用指南、改进 AI 采购并加快 AI 专业人员的招聘,确保政府负责任地部署 AI。

     

  • 尽管法规和市场力量实现了许多治理指标的标准化,但组织仍然必须确定如何最好地平衡其业务指标。衡量 AI 治理的有效性可能会因组织而异;每个组织必须决定自身必须优先考虑哪些重点领域。重点领域包括数据质量、模型安全、成本价值分析、偏见监控、个人问责制、持续审计和根据组织领域进行调整的适应能力,并不是一个放之四海而皆准的决定。

AI 治理级别

AI 治理没有普遍标准化的“级别”,例如网络安全可能定义了威胁响应级别。相反,AI 治理具备由各个实体开发的结构化方法和框架,组织可以采用或适应其特定需求。

组织可以使用多个框架和指南来开发其治理实践。一些最为广泛使用的框架包括 NIST AI 风险管理框架、OECD 人工智能原则和欧盟委员会的可信 AI 道德准则。这些框架为一系列主题提供指导,包括透明度、问责制、公平、隐私、安全和保障。

治理级别可能会有所不同,具体取决于组织的规模、使用的 AI 系统的复杂程度以及组织运营的监管环境。

此类方式概览:

非正式治理

这是基于组织的价值观和原则的最低强度治理方法。可能存在一些非正式的流程,例如道德审查委员会或内部委员会,但 AI 治理没有正式的结构或框架。

临时治理

这是非正式治理的进一步方法,涉及制定 AI 开发和使用的具体政策和程序。这种类型的治理方案通常是为了应对特定的挑战或风险而制定,可能不全面或不系统。

正式治理

这是最高的治理级别,涉及全面的 AI 治理框架开发。此框架反映了组织的价值观和原则,并符合相关法律法规。正式的治理框架通常包括风险评估、道德审查和监督流程。

组织如何部署 AI 治理

随着由 AI 驱动的自动化技术在医疗保健、金融、交通和公共服务等领域的普及,AI 治理的概念日益重要。AI 的自动化能力可以显着增强效率、决策和创新,但这也带来了与问责制、透明度和道德规范考量相关的挑战。

AI 治理涉及构建强大的控制架构,其中包含应对这些挑战的策略、指南和框架。这涉及建立持续监控和评估 AI 系统的机制,确保此类系统遵守既定的道德规范和法律法规。

AI 的有效治理结构涵盖多学科,涉及各个领域的利益相关者,包括技术、法律、道德规范和商业。随着 AI 系统变得更加精密并融入社会的关键领域,AI 治理在指导和塑造 AI 发展轨迹及其社会影响方面的作用日益重要。

AI 治理最佳实践涉及一种超越单纯合规的方法,包括使用更强大的系统来监控和管理 AI 应用程序。对于企业级业务而言,AI 治理解决方案应该能够针对 AI 系统进行广泛的监督和控制。以下为可供考虑的示例路线图:

  1. 可视化仪表板:利用仪表板提供 AI 系统运行状况和状态的实时更新,为快速评估提供清晰的整体情况。

  2. 运行状况评分指标:使用直观且易于理解的指标为 AI 模型执行总体运行状况评分,以简化监控。

  3. 自动监控:采用自动检测系统来检测偏差、漂移、性能和异常,以确保模型正确且符合道德规范地运行。

  4. 性能警报:设置当模型偏离其预定义的性能参数时发出警报,以便及时进行干预。

  5. 自定义指标:定义与组织的关键绩效指标 (KPI) 和阈值一致的自定义指标,以确保 AI 结果有助于业务目标。

  6. 审计追踪记录:维护易于访问的日志和审计追踪记录,以保障责任并促进对 AI 系统决策和行为的审查。

  7. 开源工具兼容性:选择与各种机器学习开发平台兼容的开源工具,以便从灵活性和社区支持中获益。

  8. 无缝集成:确保 AI 治理平台与现有基础架构(包括数据库和软件生态系统)无缝集成,以避免孤岛并实现高效的工作流程。

通过遵守这些实践,组织可以建立强大的 AI 治理框架,支持负责任的 AI 开发、部署和管理,并确保 AI 系统符合道德标准和组织目标。

哪些法规要求 AI 治理?

很多国家或地区已采用 AI 治理实践和法规来防止偏见和歧视。下面仅举几个示例。重点是要记住,监管总是在不断变化,管理复杂 AI 系统的组织需要密切关注区域框架的发展。

美国 SR-11-7

SR-11-71 是美国的监管模型治理标准,旨在对银行业进行有效和强有力的模型治理。 该法规要求银行高层在全公司范围内实施模型风险管理措施,并维护已实施、正在开发或最近停用的模型清单。机构领导者还必须证明其模型正在实现他们想要解决的商业目的,并且是最新模型,没有漂移。开发和验证模型必须能够让任何不熟悉模型的人都能理解模型的操作、局限性和关键假设。

加拿大自动化决策指令

加拿大的《自动决策指令》2 描述了该政府如何利用 AI 来指导多个部门的决策。该指令使用评分系统来评估为服务公民而构建的 AI 工具所需的人为干预、同行评审、监控和应急计划。创建高分 AI 解决方案的组织必须进行两次独立的同行评审,以通俗易懂的语言发布公告,开发人为干预故障保护系统,并为系统建立定期训练课程。加拿大的《自动决策指令》是对该其自身 AI 发展的指导,因此该法规不会像美国的 SR 11-7 那样直接影响公司。

欧洲不断发展的 AI 法规

2021 年 4 月,欧盟委员会提出了 AI 一揽子计划3,包括关于促进欧洲实现卓越可信方法的声明以及 AI 法律框架的提案。声明宣称,虽然大多数 AI 系统将属于“最小风险”类别,但识别为“高风险”的 AI 系统将必须遵守更严格的要求,而识别为“不可接受的风险”的系统将被禁止。组织必须密切关注这些准则,否则将面临罚款的风险。

    亚太地区的 AI 治理指南

    亚太地区各个国家或地区发布了多项 AI 治理原则和指南。2019 年,新加坡联邦政府发布了一个框架,其中包含解决私营部门 AI 道德规范问题的指导方针。印度的 AI 战略框架建议设立一个中心,研究如何解决 AI 道德规范、隐私等相关问题。中国、日本、韩国、澳大利亚和新西兰也在探索 AI 治理指南。4

    相关解决方案
    watsonx

    在一个平台上轻松部署和嵌入遍及整个企业的 AI,管理所有数据源,并加快可信任的 AI 工作流。

    深入了解 watsonx

    IBM OpenPages

    利用 IBM OpenPages 简化数据治理、风险管理和监管合规性,这是一个高度可扩展、人工智能驱动的统一 GRC 平台。

    深入了解 OpenPages

    相关资源 构建负责任的 AI 工作流程

    我们最新的电子书概述了 AI 治理的关键构建块,并分享了您可以在组织中应用的详细 AI 治理框架。

    组织需要负责任 AI 的 3 个原因

    深入了解负责任的 AI 对组织的变革潜力,并了解采用符合道德规范的 AI 的实践背后的关键驱动因素。

    您的 AI 值得信赖吗?

    加入讨论为什么企业需要优先考虑 AI 治理来部署负责任的 AI。

    什么是 AI 伦理?

    AI 伦理是一个多学科领域,研究如何优化 AI 的有益影响,同时降低风险和不良后果。阅读有关 IBM 的 AI 伦理方法。

    什么是可解释 AI?

    可解释 AI 至关重要,可在组织将 AI 模型投入生产时帮助组织建立信任和信心。

    什么是数据治理?

    了解数据治理如何能确保公司从数据资产中获得最大收益。

    采取后续步骤

    启用可信任、透明和可解释的 AI 工作流。指导、管理和监控组织的 AI 活动,以增强您降低风险的能力。

    深入了解 IBM® watsonx.governance
    脚注

    1. 《SR 11-7:模型风险管理指南》。 美国联邦储备委员会华盛顿特区银行监管司,2011 年 4 月 4 日。

    2.《加拿大新联邦指令让 AI 道德规范成为一个国家问题》。数字版,2019 年 3 月 8 日。

    3.《欧洲人工智能方案》。欧盟委员会,2023 年 12 月 14 日

    4. 《与全球 AI 治理的较量》。福布斯,2019 年 3 月 27 日。