我的 IBM 登录 订阅

什么是 AI 治理?

2024 年 10 月 10 日

作者

Tim Mucci

Writer, Gather

Cole Stryker

Editorial Lead, AI Models, Gather

什么是 AI 治理?

人工智能 (AI) 治理是指有助于确保 AI 系统和工具安全与道德的流程、标准和护栏。AI 治理框架可指导 AI 研究、开发和应用,以确保安全、公平和尊重人权。

有效的 AI 治理包括监督机制,可解决诸如偏见、隐私侵犯和滥用等风险,同时促进创新和建立信任。以符合道德规范的 AI 为中心的 AI 治理方法需要各利益相关者的广泛参与,包括 AI 开发人员、用户、政策制定者和伦理学家,确保 AI 相关系统的开发和使用符合社会价值观。

AI 治理可解决 AI 创建和维护过程中的人为因素造成的固有缺陷。由于 AI 是人类创造的高度工程化代码和机器学习 (ML) 的产物,因此很容易受到人类偏见和错误的影响,从而导致歧视和其他对个人的伤害。

治理提供了一种结构化的方法来缓解这些潜在风险。这种方法可能包括健全的 AI 政策、监管和数据治理。这有助于确保对机器学习算法进行监控、评估和更新,以防止出现缺陷或有害的决策,并确保数据集经过良好的训练和维护。

此外,治理旨在建立必要的监督方式,令 AI 行为符合道德标准和社会期望,并防范潜在的不利影响。

小球在轨道上滚动的三维设计

最新的 AI 新闻 + 洞察分析

在每周的 Think 时事通讯中,发现专家精选的有关 AI、云等的洞察分析和新闻。 

为什么 AI 治理很重要?

AI 治理对于 AI 技术的开发和应用达到合规、信任和高效的状态至关重要。随着 AI 逐渐融入组织和政府的运营中,其潜在的负面影响变得越发明显。

备受瞩目的失误,例如 Tay AI 聊天机器人事件(在此事件中,Microsoft AI 聊天机器人从社交媒体上的公众互动中学习有害行为)和 COMPAS 软件有偏倚的量刑决定,这些都凸显了健全治理的必要性,以防止伤害并维护公众信任。

这些实例表明,如果没有恰当的监督,AI 可能会造成重大的社会和道德危害,凸显了治理在管理与先进 AI 相关的风险方面的重要性。通过提供指导方针和框架,AI 治理旨在平衡技术创新与安全,从而确保 AI 系统不会侵犯人类尊严或权利。

透明的决策可解释性对于确保负责任地使用 AI 系统和建立信任也至关重要。从显示哪些广告到是否批准贷款,AI 系统随时都在做出决定。了解 AI 系统做出决策的方式至关重要,这有助于让它们对自己的决策负责,并帮助确保它们做出公正且合乎道德的决策。

此外,AI 治理不仅仅是确保一次性合规,还涉及长期维持道德标准。AI 模型可能会发生漂移,导致输出质量和可靠性发生变化。当前的治理趋势正在超越单纯的法律合规,转向确保 AI 的社会责任,从而防止财务、法律和声誉受损,同时推动技术负责任地向前发展。

AI 学院

AI 领域的信任、透明度和治理

AI 信任可以说是 AI 领域最重要的话题。这个话题会让人不知所措,也是情理之中的事情。我们将解析幻觉、偏见和风险等问题,并分享以合乎道德、负责且公平的方式采用 AI 的步骤。

AI 治理示例

AI 治理的示例包括组织和政府为确保负责任地使用 AI 技术而实施的一系列政策、框架和实践。这些示例演示了 AI 治理在不同背景下的执行方式:

通用数据保护条例 (GDPR):GDPR 是 AI 治理的一个例子,尤其是在个人数据保护和隐私方面。虽然 GDPR 并不专门侧重 AI,但其许多条款与 AI 系统高度相关,尤其是处理欧盟境内个人的个人数据的系统。

经济合作与发展组织 (OECD):OECD AI 原则被 40 多个国家或地区采用,强调对值得信赖的 AI 的负责任管理,涵盖 AI 系统的透明度、公平性和问责制。

企业 AI 伦理委员会:许多公司都设立了伦理委员会,负责监督 AI 计划,确保它们符合伦理标准和社会价值观。例如,自 2019 年以来,IBM 的 AI 伦理委员会对新的 AI 产品和服务进行了审查,确保它们符合 IBM 的 AI 原则。这些委员会通常由具有法务、技术和政策背景的跨职能团队组成。

谁负责监督负责任的 AI 治理?

企业级组织中的 CEO 和高级领导层最终负责确保其组织在整个 AI 生命周期实施良好的 AI 治理方案。法务和总法律顾问对于评估和降低法律风险、确保 AI 应用符合相关法律法规至关重要。

审计团队对于验证 AI 系统的数据完整性,并确认系统按预期运行,而不会引入错误或偏见而言至关重要。CFO 负责监督财务影响,管理与 AI 计划相关的成本并减轻任何财务风险。

然而,AI 治理的责任并不在于单个个人或部门。这是一项集体责任,每个领导者都必须优先考虑责任,并协助确保在整个组织中负责任且符合道德规范地使用 AI 系统。

CEO 和高级领导层负责设定组织的整体基调和文化。优先考虑负责任的 AI 治理时,等于向所有员工发出一个明确的信息:每个人都必须负责任且符合道德规范地使用 AI。CEO 和高级领导层还可以投资员工的 AI 治理培训,积极制定内部政策和程序,营造开放沟通和协作的文化。

负责任 AI 治理的原则和标准

AI 治理对于管理 AI 技术的快速进步至关重要,尤其是随着生成式 AI 的出现。生成式 AI 包括能够创建新内容和解决方案(例如文本、图像和代码)的技术,在许多用例中具有巨大的潜力。

从增强设计和媒体中的创意流程,到自动化软件开发过程中的任务,生成式 AI 正在改变行业的运作方式。但是,由于其广泛的适用性,需要强大的 AI 治理。

负责任的 AI 治理原则对于组织保护自身及其客户至关重要。这些原则可以指导组织以符合道德规范的方式开发和应用 AI 技术,其中包括:

  • 同理心:组织应该了解 AI 的社会影响,而不仅仅是技术和财务方面。他们需要预测和解决 AI 对所有利益相关者的影响。

  • 偏见控制:必须严格检查训练数据,防止将现实世界的偏见嵌入到 AI 算法中,有助于确保公平、无偏倚的决策过程。

  • 透明度:AI 算法的运作和决策方式必须清晰且公开,组织应准备好解释由 AI 驱动的结果背后的逻辑和推理。

  • 问责制:组织应主动制定并遵守较高的标准,以管理 AI 可能带来的重大变化,并对 AI 的影响承担责任。

2023 年底,白宫发布了一项行政命令以帮助保障 AI 的安全。这项综合战略为建立新标准来管理 AI 技术的固有风险提供了框架。美国政府的新 AI 安全标准体现了政府处理这项高度敏感问题的方式。

  • AI 安全:强制要求强大 AI 系统的开发人员与美国政府共享安全测试结果和关键信息。需要制定标准并开发工具和测试,以确保 AI 系统安全可信​。

  • 隐私保护:优先开发和使用隐私保护技术,并加强隐私保护研究和技术。这也为联邦机构评估隐私保护技术的有效性制定了指导方针。

  • 公平与公民权利:防止 AI 加剧各个行业的歧视和偏见。包括指导房东和联邦计划、解决算法歧视并确保刑事司法系统的公平性​。

  • 消费者、患者和学生保护:帮助在医疗保健和教育领域推进负责任的 AI,例如研发救命药物和支持 AI 教育工具。

  • 员工支持:制定原则以减轻 AI 对工作和工作场所的有害影响,包括解决工作岗位流失和工作场所公平问题​。

  • 促进创新和竞争:促进美国各地的 AI 研究,鼓励公平和良性竞争的 AI 生态系统,并推动熟练的 AI 专业人员进入美国。

  • AI 领域的全球领导地位:扩大 AI 领域的国际合作,推动与国际合作伙伴共同制定和实施重要的 AI 标准。

  • 政府对 AI 的使用:通过发布机构 AI 使用指南、改进 AI 采购和加快 AI 专业人员的招聘,帮助确保政府负责任地部署 AI。

尽管法规和市场力量实现了许多治理指标的标准化,但组织仍然必须确定如何最好地平衡其业务指标。衡量 AI 治理的有效性可能会因组织而异;每个组织必须决定自身必须优先考虑哪些重点领域。对于数据质量、模型安全、成本价值分析、偏见监控、个人问责制、持续审计以及根据组织的域进行调整的适应性等重点领域,这不是一个放之四海而皆准的决策。

AI 治理级别

AI 治理没有普遍标准化的“级别”,例如网络安全可能定义了威胁响应级别。相反,AI 治理具备由各个实体开发的结构化方法和框架,组织可以采用或适应其特定需求。

组织可以使用多个框架和指南来开发其治理实践。一些最为广泛使用的框架包括 NIST AI 风险管理框架、OECD 人工智能原则和欧盟委员会的可信 AI 道德准则。这些框架为一系列主题提供指导,包括透明度、问责制、公平、隐私、安全和保障。

治理级别可能会有所不同,具体取决于组织的规模、使用的 AI 系统的复杂程度以及组织运营的监管环境。

此类方式概览:

非正式治理

这是基于组织的价值观和原则的最低强度治理方法。可能存在一些非正式的流程,例如道德审查委员会或内部委员会,但 AI 治理没有正式的结构或框架。

临时治理

这是非正式治理的进一步方法,涉及制定 AI 开发和使用的具体政策和程序。这种类型的治理方案通常是为了应对特定的挑战或风险而制定,可能不全面或不系统。

正式治理

这是最高的治理级别,涉及全面的 AI 治理框架开发。此框架反映了组织的价值观和原则,并符合相关法律法规。正式的治理框架通常包括风险评估、道德审查和监督流程。

组织如何部署 AI 治理

随着由 AI 驱动的自动化技术在医疗保健、金融、交通和公共服务等领域的普及,AI 治理的概念日益重要。AI 的自动化能力可以显著提升效率、决策和创新,但这也带来了与问责制、透明度和道德规范考量相关的挑战。

AI 治理涉及构建强大的控制架构,其中包含应对这些挑战的策略、指南和框架。这涉及建立持续监控和评估 AI 系统的机制,确保此类系统遵守既定的道德规范和法律法规。

AI 的有效治理结构涵盖多学科,涉及各个领域的利益相关者,包括技术、法律、道德规范和商业。随着 AI 系统变得更加精密并融入社会的关键领域,AI 治理在指导和塑造 AI 发展轨迹及其社会影响方面的作用日益重要。

AI 治理最佳实践涉及一种超越单纯合规的方法,包括使用更强大的系统来监控和管理 AI 应用程序。对于企业级业务而言,AI 治理解决方案应该能够针对 AI 系统进行广泛的监督和控制。以下为可供考虑的示例路线图:

  1. 可视化仪表板:利用仪表板提供 AI 系统运行状况和状态的实时更新,为快速评估提供清晰的整体情况。

  2. 运行状况评分指标:使用直观且易于理解的指标为 AI 模型执行总体运行状况评分,以简化监控。

  3. 自动监控:采用自动检测系统来检测偏差、漂移、性能和异常,确保模型正确且以合乎道德的方式运行。

  4. 性能警报:设置当模型偏离其预定义的性能参数时发出警报,以便及时进行干预。

  5. 自定义指标:定义与组织的关键绩效指标 (KPI) 和阈值一致的自定义指标,以确保 AI 结果有助于业务目标。

  6. 审计跟踪:维护易于访问的日志和审计跟踪记录,以厘清责任并促进对 AI 系统决策和行为的审查。

  7. 开源工具兼容性:选择与各种机器学习开发平台兼容的开源工具,以便从灵活性和社区支持中获益。

  8. 无缝集成:有助于确保 AI 治理平台与现有基础架构无缝集成,包括数据库和软件生态系统,避免出现孤岛并实现高效的工作流程。

通过遵守这些实践,组织可以建立强大的 AI 治理框架,支持负责任的 AI 开发、部署和管理,并确保 AI 系统符合道德标准和组织目标。

哪些法规要求 AI 治理?

一些国家或地区已采用 AI 治理实践和法规来防止偏见和歧视。重点是要记住,监管总是在不断变化,管理复杂 AI 系统的组织需要密切关注区域法律框架的发展。

欧盟 AI 法案

欧盟《人工智能法案》,又称欧盟《AI 法》或《AI 法》,是一部管理欧盟 (EU) 人工智能 (AI) 开发或使用的法律。该法案采取基于风险的监管方法,根据 AI 带来的风险对其适用不同的规则。

被认为是全球首个全面的 AI 监管框架,欧盟 AI 法规禁止某些 AI 使用,并对其他 AI 实施严格的治理、风险管理和透明度要求。

该法案还为通用人工智能模型制定了规则,例如 IBM® Granite 和 Meta 的 Llama 3 开源基础模型。处罚范围从 750 万欧元或全球年营业额的 1.5% 到 3500 万欧元或全球年营业额的 7% 不等,具体取决于违规类型。

美国的 SR-11-7

SR-11-7 是美国的监管模型治理标准,旨在对银行业进行有效和强有力的模型治理。1该法规要求银行高层在全公司范围内实施模型风险管理措施,并维护已实施、正在开发或最近停用的模型清单。

机构领导者还必须证明其模型正在实现他们想要解决的商业目的,并且是最新模型,没有漂移。开发和验证模型必须能够让任何不熟悉模型的人都能理解模型的操作、局限性和关键假设。

加拿大自动化决策指令

加拿大的《自动决策指令》描述了该国政府如何利用 AI 来指导多个部门的决策。2该指令使用评分系统来评估为服务公民而构建的 AI 工具所需的人为干预、同行评审、监控和应急计划。

创建高分 AI 解决方案的组织必须进行两次独立的同行评审,以通俗易懂的语言发布公告,开发人为干预故障保护系统,并为系统建立定期培训课程。加拿大的《自动决策指令》是对该其自身 AI 发展的指导,因此该法规不会像美国的 SR-11-7 那样直接影响公司。

欧洲不断发展的 AI 法规

2021 年 4 月,欧盟委员会提出了 AI 一揽子计划,包括关于促进欧洲实现卓越可信方法的声明以及 AI 法律框架的提案。3

声明宣称,虽然大多数 AI 系统属于“最小风险”类别,但标识为“高风险”的 AI 系统将必须遵守更严格的要求,而标识为“不可接受的风险”的系统将被禁止。组织必须密切关注这些准则,否则将面临罚款的风险。

    亚太地区的 AI 治理法规和指南

    2023 年,中国发布了《生成人工智能服务管理暂行办法》。根据该法,提供和使用生成式 AI 服务必须“尊重他人合法权益”,要求“不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益”。

    亚太地区的其他国家或地区已经发布了多项 AI 治理原则和指南。2019 年,新加坡联邦政府发布了一个框架,其中包含解决私营部门 AI 伦理问题的指导方针,最近,即 2024 年 5 月,又发布了生成式 AI 的治理框架。印度、日本、韩国和泰国也在深入了解 AI 治理的指导方针和立法。3

    相关解决方案

    相关解决方案

    IBM watsonx.governance™

    借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。

    了解 watsonx.governance
    人工智能治理咨询服务

    借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。

    深入了解 AI 治理服务
    IBM OpenPages

    借助统一的 GRC 平台,简化风险管理和合规监管的流程。

    深入了解 OpenPages
    采取后续步骤

    借助单一组合来指导、管理和监控您的 AI,以加速负责任、透明且可解释的 AI。

    深入了解 watsonx.governance 预约实时演示
    脚注

    1“SR 11-7:模型风险管理指南”,美国联邦储备委员会华盛顿特区银行监管司,2011 年 4 月 4 日。

    2“加拿大新联邦指令让符合道德规范的 AI 成为一个国家问题。”数字版,2019 年 3 月 8 日。

    3 "Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology", Sidley, 2024 年 8 月 16 日。