主页
topics
可信任的 AI
发布日期:2024 年 2 月 6 日
撰稿人:Cole Stryker
负责任的人工智能 (AI) 是一套有助于指导 AI 设计、开发、部署和使用的原则;它们旨在建立对 AI 解决方案的信任,从而有可能进一步为组织及其利益相关者赋能。负责任的 AI 涉及将 AI 系统所引发的更广泛社会影响纳入考虑,以及使这些技术与利益相关者价值观、法律标准和道德原则保持一致而需采取的措施。负责任的 AI 旨在将这些道德规范原则嵌入到 AI 应用程序和工作流程中,以减轻与使用 AI 相关的风险和负面结果,同时最大限度地发挥积极成效。
本文旨在提供针对负责任的 AI 的总体看法。如需了解更多有关 IBM 的具体观点,请参阅我们的 AI 伦理页面。
2010 年代,在大数据与计算能力进步的助推下,机器学习得到广泛采用,但同时也带来了新的道德挑战,如偏见、透明度和个人数据使用。在此期间,随着科技公司和 AI 研究机构寻求负责任地主动管理其 AI 工作,AI 伦理便成为一门独特的学科。
Accenture 研究表明:“全球只有 35% 的消费者信任组织实施 AI 技术的方式。77% 的人认为,组织必须为滥用 AI 负责 "1。在这种氛围中,鼓励 AI 开发人员使用强大且一致的道德 AI 框架来指导他们的工作。
此学科尤其适用于广大企业目前迅速采用的新型生成式 AI。负责任的 AI 原则可帮助采用者充分利用这些工具的潜力,同时最大限度地减少不良后果。
AI 必须值得信赖;而要让利益相关者信任 AI,它就必须确保透明。技术公司必须清楚谁在训练其 AI 系统,训练中使用了哪些数据;而最重要的还有,它们的算法建议中包含哪些内容。如果我们要利用 AI 来帮助做出重要决策,那它就必须是可解释的。
加快负责任、透明且可解释的 AI 工作流。
IBM 开发了一个框架来阐明这些原则。让我们看看构成“信任的支柱”的具体属性。综上所述,这些属性回答了以下问题:“如何才能信任 AI 模型的输出?”可信 AI 是 IBM 的战略与道德要求,但任何企业均可使用这些支柱来指导它们在 AI 方面的具体工作。
深度神经网络等机器学习模型在各种任务中均实现了令人印象深刻的准确性。但是,可解释性和可诠释性对于开发值得信赖的 AI 来说比以往任何时候都更为重要。IBM 的可解释性方法由三个原则组成。
准确性是在日常运营中成功使用 AI 的关键因素。通过运行模拟并将 AI 输出与训练数据集中的结果进行比较,可确定预测准确性。在此方面,最主流的技术是“模型无关的局部解释 (LIME)”,它解释了机器学习算法对分类器的预测。
可追溯性是 AI 的一项属性,它表示是否允许用户跟踪其预测和流程。它涉及数据的文档以及模型如何处理这些数据。可追溯性是实现可解释性的另一关键技术;例如,可通过限制决策的制定方式、缩小机器学习规则与功能的范围来实现可追溯性。
这是指人为因素。从业人员需能理解 AI 如何以及为何得出结论。它是通过持续教育来实现的。
如今,机器学习模型被越来越多地用于为与人员相关的高风险决策提供信息。尽管机器学习就其本质而言是一种统计歧视形式,但当它使特权群体处于系统性优势,而某些弱势群体处于系统性劣势时,这种歧视就会变得令人反感,从而可能造成各种伤害。由于标签中的偏见或因采样不足/过度采样,训练数据中的偏差会产生具有意外偏差的模型。
多样化数据和具有代表性的数据
确保用于构建 AI 模型的训练数据具有多元化,且能代表其所服务的人群。包括来自不同人口群体的数据输入,以免出现代表性不足或偏差。定期检查并评估训练数据是否存在偏差。在训练模型之前,使用工具和方法来识别和纠正数据集中的偏差。
偏差感知算法
将公平性指标纳入开发流程,以评估模型的预测如何影响不同子组。监控并尽量缩小不同人口群体之间的结果差距。在此算法中应用约束,以确保模型在训练与部署期间均遵守预定义的公平标准。
偏差缓解技术
应用重新采样、重新加权和对抗性训练等技术来减少模型预测中的偏差。
多元化的开发团队
组建参与 AI 开发的跨学科与多元化团队。多元化团队可带来不同观点,从而帮助识别和纠正同质团队可能会忽视的偏差。
道德 AI 审查委员会
成立审查机构或委员会,以评估 AI 项目的潜在偏差和道德影响。此类机构可在整个开发生命周期中提供有关道德规范考量的指导。
强大的 AI 可以有效地处理异常情况,例如输入异常或恶意攻击,而不会造成意外伤害。它还可以保护已暴露的漏洞,从而抵御有意与无意的干扰。由于我们会越发依赖这些模型以及它们作为机密与专有知识积累所代表的价值,因而遭受攻击的风险便越来越高。这些模型会构成特有的安全风险,而我们必须考虑和缓解这些风险。
用户必须能了解此服务的工作原理、评估其功能并理解其优势和局限性。透明度的提高可为 AI 使用者提供信息,以便他们更好地了解 AI 模型或服务是如何创建的。此举有助于该模型的用户确定此模型是否适合特定用例,或是评估 AI 为何会产生不准确或有偏差的结论。
包括 GDPR 在内的很多监管框架都要求组织在处理个人信息时遵守某些隐私原则。如果某一恶意第三方能访问经训练的 ML 模型,则即便无法访问训练数据自身,该第三方仍可泄露有关使用其数据来训练模型的人员的敏感个人信息。对可能包含个人信息的 AI 模型提供保护并率先控制进入模型的数据,这一点十分重要。
在企业层面实施负责任的 AI 实践需采用一种端到端的整体方法,以应对 AI 开发和部署的各个阶段。
制定一套与企业价值观和目标相一致的负责任 AI 原则。考虑上述“信任的支柱”中描述的各关键方面。这些原则可由专门的跨职能 AI 道德团队以及来自不同部门的代表(包括 AI 专家、伦理学家、法律专家和商业领袖)来共同制定和维护。
开展培训计划,以便对员工、利益相关者和决策者进行负责任 AI 实践的教育。其中包括了解潜在偏差、道德考量以及将负责任 AI 纳入业务运营的重要性。
将负责任 AI 实践嵌入从数据收集和模型训练到部署和持续监控的整个 AI 开发渠道。采用技术来解决和减轻 AI 系统中的偏见。定期评估模型的公平性,尤其是关于种族、性别或社会经济地位等敏感属性。使 AI 系统可解释,优先考虑透明度。提供有关数据源、算法和决策流程的清晰文档。用户和利益相关者应该能够理解 AI 系统如何做出决策。
建立强有力的数据与人工智能治理实践和保障措施,以保护最终用户隐私和敏感数据。明确传达数据使用政策、获得知情同意并遵守数据保护法规。
在关键的决策流程中融入人类监督机制。定义明确的问责范围,以确保清晰界定责任方,且对 AI 系统产生的结果负责。对 AI 系统建立持续监控,以发现并解决随时间推移可能出现的道德问题、偏见或其他问题。定期审计 AI 模型,以评估其是否符合道德准则。
促进与外部组织、研究机构以及致力于负责任 AI 的开源团体的协作。随时了解负责任 AI 实践与计划的最新发展,并为整个行业的相关工作做出贡献。
1 2022 年技术愿景(ibm.com 外部链接),Accenture,2022 年。