随着越来越多的企业采用人工智能 (AI),关于 AI 系统在多大程度上吸收了人类偏见的质疑声不断涌现。一些与 AI 偏见相关的真实案例表明,当歧视性数据和算法注入到 AI 模型时,这些模型会大规模地产生偏见并加剧由此产生的负面后果。
公司积极应对 AI 中的偏见问题,不仅为了实现公平,还为了取得更好的结果。然而,正如系统性种族和性别偏见在现实世界中难以消除一样,消除 AI 中的偏见也绝非易事。
在文章 AI 的应用:机遇与局限 中,麦肯锡的作者 Michael Chui、James Manyika 和 Mehdi Miremadi 指出:“这种偏见往往根深蒂固,因为要识别并解决它们,不仅需要对数据科学技术有深入的掌握,还需要对现有社会力量(包括数据收集)有更广泛的理解。总而言之,消除偏见已被证明是迄今为止最令人生畏的障碍之一,且无疑也是社会领域最具争议的。”
现实生活中的 AI 偏见示例为组织提供了有用的洞察分析,帮助他们识别和应对偏见问题。通过批判性地审视这些示例以及成功克服偏见案例,数据科学家可以开始构建路线图,以识别和防止机器学习模型中的偏见。
AI 偏见,也称为机器学习偏见或算法偏见,是指 AI 系统产生的结果带有偏见,反映并延续了社会中人类偏见,包括历史和当前的社会不平等。偏见可能存在于初始训练数据、算法本身或算法生成的预测结果中。
如果偏见得不到有效解决,便会导致人们无法公平地参与经济和社会生活。此外,偏见还会削弱 AI 的发展潜力。如果 AI 系统产出的结果充满偏见,引发有色人种、女性、残障人士、LGBTQ 群体或其他边缘群体的不信任,那么企业将无法从这类系统中获益。
消除 AI 偏见需要深入研究数据集、机器学习算法和 AI 系统的其他元素,以识别潜在偏见的来源。
AI 系统会根据训练数据学习做出决策,因此评估数据集中是否存在偏见至关重要。一种方法是分析样本数据,据此确认是否有某些群体在训练数据中代表性过高或不足。例如,如果在面部识别算法的训练数据中,白人群体的代表性过高,那么在尝试对不同肤色的人群进行面部识别时可能会出现错误。同样,如果在警察使用的 AI 工具中,安全数据包含在以黑人为主的地理区域收集的信息,那么可能会造成种族偏见。
偏见也可能来源于训练数据的标签方式。例如,AI 招聘工具使用不一致的标签,或者过多地偏重或忽视某些特征,可能会导致合格的求职者被忽略。
使用有缺陷的训练数据可能会导致算法反复产生错误、不公平的结果,甚至放大有缺陷数据固有的偏见。算法偏见也可能是由编程错误引起,例如开发人员基于自身有意识或无意识的偏见,在算法决策中不公平地权衡因素。例如,算法可能会使用收入或词汇量等指标,无意中对特定种族或性别的人群造成歧视。
当人们处理信息并做出判断时,难免会受到我们的经验和偏好的影响。因此,人们可能会通过数据选择或数据的加权方式,将这些偏见构建到 AI 系统中。例如,认知偏见可能导致人们更偏好使用来自美国的数据集,而不是从全球范围内的不同人群中采样。
根据 NIST 的说法,这种偏见来源比您想象的更为常见。在其报告人工智能偏见识别和管理标准(NIST 特别出版物 1270)中指出,“人类和系统性制度和社会因素也是 AI 偏见的重要来源,但目前却被忽视。成功应对这一挑战需要全面考虑所有形式的偏见。这意味着需要将我们的视角扩展到机器学习管道之外,认识和探讨这项技术如何在我们的社会中被创造出并对其产生影响的。”
随着社会对 AI 工作原理和偏见可能性的认识不断加深,许多组织在广泛的用例中提示了许多备受关注的 AI 偏见示例。
要识别并解决 AI 偏见问题,首先要培养 AI 治理能力,即指导、管理和监控组织 AI 活动的能力。在践行 AI 治理的过程中,会制定一系列策略、行动指南和框架,用以引导组织以负责任的方式开发和使用 AI 技术。如果能够成功地进行 AI 治理,可以确保企业、客户、员工乃至整个社会的利益得到兼顾平衡。
通过人工智能治理政策,企业可以建立以下实践:
合理的技术组合对于有效的数据和人工智能治理战略至关重要,其中现代数据架构和可信赖的 AI 平台是关键组成部分。Data Fabric 架构中的策略编排是一种出色的工具,可以简化复杂的 AI 审计流程。通过将 AI 审计和相关流程纳入数据架构的治理政策,您的组织可以帮助了解需要持续监控的领域。
在 IBM Consulting,我们始终致力地帮助客户建立评估偏见及其他领域的流程。随着 AI 应用的扩大和创新不断发展,安全指南也将不断成熟,正如多年来嵌入企业体系中的每一项技术一样。以下是 IBM 提供的一些最佳实践,以帮助组织为在其环境中安全部署 AI 做好准备:
深入了解 watson.governance 能为您带来的价值