对于大大小小的企业来说, 人工智能 (AI) 与创新、机遇和竞争优势等各种激动人心的词汇联系在一起。但还有一个词需要列入清单:合规。
约 73% 的企业已经在使用分析式和生成式 AI ,72% 的绩优 CEO 表示,竞争优势取决于谁在使用最先进的 AI。1
但是,人工智能应用的蓬勃发展及其令人兴奋的潜力伴随着人们对人工智能驱动技术的道德和安全方面与日俱增的担忧。如果有缺陷的发展导致有偏见的算法,使歧视(例如在招聘、执法或财务决策中)永久化,则后果可能是可怕和长期的。
因此,公司、国家和政策制定者正在权衡人工智能治理,并为如何使用和发展 AI 制定新规则。看看什么是 AI 合规、为什么它对企业很重要,以及企业可以采取哪些措施在快速变化的监管环境中保持合规。
AI 合规流程可帮助企业避免与使用 AI 工具相关的财务、法律和声誉风险。
企业使用 AI 越多,就越可能遇到技术出现意外或错误的情况。例如,一家公司在发现 AI 招聘工具因其训练材料而长期存在性别歧视后,放弃了该工具。2调查发现,一些算法驱动的贷款申请可能导致对有色人种申请人的歧视。3
对这些问题的担忧正促使人们努力规范企业开发和使用 AI 的方式。2024 年,欧盟推出了欧盟 AI 法案,成为第一个围绕 AI 制定规则的主要市场。包括美国和中国在内的其他司法管辖区也在制定自己的 AI 法规。
不合规所要付出的成本高昂。根据欧盟的《通用数据保护条例》(GDPR),企业可能面临高达 2000 万欧元或全球年营业额 4% 的罚款,以较高者为准。在美国,联邦贸易委员会 (FTC) 可以对公司与 AI 相关的违法行为采取执法行动,例如使用有偏见的机器学习算法。4
合规对于保护品牌声誉也至关重要。毕马威会计师事务所 2024 年的一项调查发现,78% 的消费者认为,使用 AI 的组织有责任帮助确保以合乎道德的方式开发 AI。5否则会导致企业和消费者失去信任。
通过帮助确保 AI 系统可靠、透明和负责,企业可以推动创新、提高效率并获得市场竞争优势。
如果监管合规只是为了满足一套明确的要求,那么前进的道路就会很简单。然而,随着 AI 技术的快速发展,旨在管理这些技术的各种指导方针也在不断变化。
科技本身使合规活动变得复杂。理解和解读 AI 模型和算法在技术上具有挑战性,特别是因为许多 AI 系统都是实时运行的。以这种速度跟上不断发展的法规可能会很困难,而且 AI 的快速发展要求企业不断调整其合规计划。
诸多国家或地区正在制定 AI 标准,这些标准可能会重塑全球 AI 科技的治理方式。除了这些针对 AI 的法律和法规之外,企业和 AI 提供商还需要遵守有关数据隐私、歧视和网络安全的不断增长的规则网络。更复杂的是,这些要求有时不仅适用于在其特定地区运营的公司和 AI 提供商,还适用于在该地区开展业务的任何人。
一些关键问题和法规包括:
美国还没有全面的法规,但在联邦和州一级有各种合规要求。例如,"保持美国在 AI 领域的领先地位"的行政命令为 AI 的开发和使用制定了指导方针。特定行业的法律,如《健康保险流通和责任法案》(HIPAA) 或《公平信用报告法案》(FCRA),也可能适用于 AI。
2023 年 8 月,中国出台了针对生成式 AI 的专门法规,即《创成式 AI 服务管理暂行办法》。这些措施包括内容标准和数据隐私规则、标签和生成式 AI 许可。中国还针对 AI 驱动的推荐算法和深度合成技术(如深度伪造)制定了专门法规。
虽然 AI 合规对所有行业都至关重要,但在以下行业尤为重要:
AI 在医疗保健领域的用例包括疾病诊断、药物研发和个性化医疗。不遵守美国医疗保险可携性和责任法案 (HIPAA) 等保护患者隐私的法规,可能会导致罚款或法律后果。而有偏见或训练不佳的算法可能会导致患者的误诊或治疗方案不够妥善。
从欺诈检测和风险评估到反洗钱活动,AI 在金融领域有许多应用。不过,这些 AI 应用必须遵守美国《公平信用报告法》(FCRA) 和欧盟《金融工具市场指令》(MiFID II) 等法规。AI 合规工作旨在防止算法在贷款申请和其他关键决策中产生歧视。
人力资源专业人员越来越多地使用人工智能驱动的工具来实现日常任务的自动化,并简化简历筛选、候选人评估和员工监控。但如果算法是在扭曲或不充分的数据上进行训练的,则可能会导致不公平甚至非法的偏见。遵守反歧视法和数据保护法规有助于确保透明度、公平性和隐私性。
企业越来越意识到需要遵守现有的 AI 监管要求,并为未来的规则做好准备。一项对国际合规和风险专家的调查发现,半数以上的受访者对数据隐私、算法透明度和 AI 的误用或误解表示担忧。6
另一项针对高级管理层的研究发现,80% 的高级管理层计划增加对 AI 负责任方法的投资,以建立对 AI 模型的信任和信心。7因此,许多公司正在采取积极措施,帮助确保 AI 的合规性。
一些公司正在建立框架,概述有关 AI 的道德开发和使用的内部政策、程序和责任。例如,Microsoft 发布了《负责任的 AI 标准》,其中包括定期进行风险评估、实施数据保护措施以及在决策中优先考虑透明度和问责制。82023 年更新的 Google AI 原则强调了 AI 开发中公平、透明和隐私的重要性。9
企业还积极与监管机构和行业利益相关者合作,以随时了解监管变化和合规问题。IBM 对企业领导者进行的一项调研发现,74% 的企业领导者计划与同行一起讨论人工智能,或与政策制定者就人工智能展开合作。这些工作有助于企业为新的法规做好准备,并参与未来指南的制定。
为了简化合规工作,企业正在投资各种 AI 合规工具和技术。例如,可解释的 AI (XAI) 工具可以帮助企业理解和解释 AI 模型做出的决策,而人工智能治理组合则可以提供实时监控和审计功能。治理产品,例如IBM watsonx.governance提供与法规保持一致、评估风险和管理模型演变的工具包。
随着 AI 技术的不断进步,与其使用相关的风险和挑战也在不断涌现。关键是要采取积极主动的方法,这意味着要投入必要的资源、专业知识和技术,以制定和实施稳健的人工智能治理框架。这还需要在开发和使用 AI 系统的过程中培养一种透明、负责和信任的文化。优先考虑 AI 合规性有助于企业降低这些风险,使其能够充分挖掘 AI 的潜力。
1 普华永道 2024 年美国负责任 AI 调查,普华永道,2024 年 4 月
2 亚马逊废除显示对女性有偏见的秘密 AI 招聘工具,路透社,2018 年 10 月
3 The secret bias hidden in mortgage-approval algorithms,Associated Press,2021 年 8 月
4 加利福尼亚州公司就联邦贸易委员会指控其在照片存储应用程序中使用面部识别功能方面欺骗消费者一事达成和解,联邦贸易委员会,2021 年 1 月
5 KPMG Generative AI Consumer Trust Survey,KPMG,2024 年 1 月
6 AI 如何改变风险与合规? ,穆迪,2024 年 2 月
7 从 AI 合规到竞争优势:通过设计实现负责任,埃森哲,2022 年 6 月
8 Microsoft 的负责任 AI 标准,Microsoft,2022 年 6 月
9 Google AI:我们的原则,Google,2023 年 3 月
借助 IBM watsonx.governance 随时随地治理生成式 AI 模型,并在云端或本地进行部署。
了解人工智能治理如何能帮助增强员工对 AI 的信心、加速采用和创新并提高客户信任。
借助 IBM Consulting,为《欧盟 AI 法案》做好准备并制定负责任的人工智能治理方法。