通过真实案例揭示 AI 偏见
2023 年 10 月 16 日
阅读时长 6 分钟

随着越来越多的企业采用人工智能 (AI),关于 AI 系统在多大程度上吸收了人类偏见的质疑声不断涌现。一些与 AI 偏见相关的真实案例表明,当歧视性数据和算法注入到 AI 模型时,这些模型会大规模地产生偏见并加剧由此产生的负面后果。

公司积极应对 AI 中的偏见问题,不仅为了实现公平,还为了取得更好的结果。然而,正如系统性种族和性别偏见在现实世界中难以消除一样,消除 AI 中的偏见也绝非易事。

在文章 AI 的应用:机遇与局限 中,麦肯锡的作者 Michael Chui、James Manyika 和 Mehdi Miremadi 指出:“这种偏见往往根深蒂固,因为要识别并解决它们,不仅需要对数据科学技术有深入的掌握,还需要对现有社会力量(包括数据收集)有更广泛的理解。总而言之,消除偏见已被证明是迄今为止最令人生畏的障碍之一,且无疑也是社会领域最具争议的。”

现实生活中的 AI 偏见示例为组织提供了有用的洞察分析,帮助他们识别和应对偏见问题。通过批判性地审视这些示例以及成功克服偏见案例,数据科学家可以开始构建路线图,以识别和防止机器学习模型中的偏见。

人工智能中的偏见是什么?

AI 偏见,也称为机器学习偏见或算法偏见,是指 AI 系统产生的结果带有偏见,反映并延续了社会中人类偏见,包括历史和当前的社会不平等。偏见可能存在于初始训练数据、算法本身或算法生成的预测结果中。

如果偏见得不到有效解决,便会导致人们无法公平地参与经济和社会生活。此外,偏见还会削弱 AI 的发展潜力。如果 AI 系统产出的结果充满偏见,引发有色人种、女性、残障人士、LGBTQ 群体或其他边缘群体的不信任,那么企业将无法从这类系统中获益。

AI 偏见的根源

消除 AI 偏见需要深入研究数据集、机器学习算法和 AI 系统的其他元素,以识别潜在偏见的来源。

训练数据偏见

AI 系统会根据训练数据学习做出决策,因此评估数据集中是否存在偏见至关重要。一种方法是分析样本数据,据此确认是否有某些群体在训练数据中代表性过高或不足。例如,如果在面部识别算法的训练数据中,白人群体的代表性过高,那么在尝试对不同肤色的人群进行面部识别时可能会出现错误。同样,如果在警察使用的 AI 工具中,安全数据包含在以黑人为主的地理区域收集的信息,那么可能会造成种族偏见。

偏见也可能来源于训练数据的标签方式。例如,AI 招聘工具使用不一致的标签,或者过多地偏重或忽视某些特征,可能会导致合格的求职者被忽略。

算法偏见

使用有缺陷的训练数据可能会导致算法反复产生错误、不公平的结果,甚至放大有缺陷数据固有的偏见。算法偏见也可能是由编程错误引起,例如开发人员基于自身有意识或无意识的偏见,在算法决策中不公平地权衡因素。例如,算法可能会使用收入或词汇量等指标,无意中对特定种族或性别的人群造成歧视。

认知偏见

当人们处理信息并做出判断时,难免会受到我们的经验和偏好的影响。因此,人们可能会通过数据选择或数据的加权方式,将这些偏见构建到 AI 系统中。例如,认知偏见可能导致人们更偏好使用来自美国的数据集,而不是从全球范围内的不同人群中采样。

根据 NIST 的说法,这种偏见来源比您想象的更为常见。在其报告人工智能偏见识别和管理标准(NIST 特别出版物 1270)中指出,“人类和系统性制度和社会因素也是 AI 偏见的重要来源,但目前却被忽视。成功应对这一挑战需要全面考虑所有形式的偏见。这意味着需要将我们的视角扩展到机器学习管道之外,认识和探讨这项技术如何在我们的社会中被创造出并对其产生影响的。”

现实生活中 AI 偏见的示例

随着社会对 AI 工作原理和偏见可能性的认识不断加深,许多组织在广泛的用例中提示了许多备受关注的 AI 偏见示例。

  • 医疗保健 - 女性或少数群体的数据的代表性不足,会导致预测性 AI 算法出现偏差。例如,人们发现,计算机辅助诊断 (CAD) 系统对黑人患者的诊断做饭率低于白人患者。
  • 申请人跟踪系统 — 自然语言处理算法存在的问题可能会导致申请人跟踪系统中产生带有偏见的结果。例如,Amazon 发现某种招聘算法根据在男性简历中更为常见的“执行”或“俘获”等用词来筛选应聘者,故而停止使用该算法。
  • 在线广告 - 搜索引擎广告算法中的偏见会加剧工作角色的性别偏见。匹兹堡卡内基梅隆大学的独立研究表明,谷歌的在线广告系统向男性展示高薪职位的频率高于女性。
  • 图像生成 - 学术研究发现,生成式 AI 艺术生成应用 Midjourney 中存在偏见。在生成专业人士图像时,Midjourney 展示了不同年龄段的人,但老年人始终是男性,这强化了女性在职场角色的性别偏见。
  • 预测性警务工具 - 一些刑事司法系统中使用的人工智能驱动的预测性警务工具,旨在识别犯罪可能发生的区域。然而,这些工具通常依赖历史逮捕数据,可能会加剧现有的种族定性模式,并导致对少数族裔社区的过度攻击。
减少偏见和人工智能治理

要识别并解决 AI 偏见问题,首先要培养 AI 治理能力,即指导、管理和监控组织 AI 活动的能力。在践行 AI 治理的过程中,会制定一系列策略、行动指南和框架,用以引导组织以负责任的方式开发和使用 AI 技术。如果能够成功地进行 AI 治理,可以确保企业、客户、员工乃至整个社会的利益得到兼顾平衡。

通过人工智能治理政策,企业可以建立以下实践:

  • 合规性 - AI 解决方案和 AI 相关的决策必须符合相关行业法规和法律要求。
  • 信任 - 致力于保护客户信息的公司可以建立品牌信任,并更有可能打造出值得信赖的 AI 系统。
  • 透明度 - 由于 AI 的复杂性,算法有时会成为一个黑匣系统,难以了解其使用的数据和生成过程。透明度有助于确保使用无偏见的数据来构建系统,并确保结果的公正性。
  • 效率 - AI 的最大承诺之一是减少人工操作,节省员工时间。AI 应设计用于帮助实现业务目标、加快产品上市速度并降低成本。
  • 公平性 - AI 治理通常包括评估公平性、公平性和包容性的方法。反事实公平性等方法可以识别模型决策中的偏见,确保即使性别、种族或性取向等敏感属性发生变化也能获得公平的结果。
  • 人性化服务 - 诸如“人机回圈”系统等流程提供选项或提出建议,由人工审核再作出决策,以增加一块垒质量保障。
  • 强化学习 - 这种无监督学习技术,通过奖惩机制来教系统学习任务。麦肯锡指出,强化学习超越了人类的偏见,有可能产生“此前无法想象的解决方案和策略,即使经验丰富的从业人员也可能从未考虑过。”
偏见、AI 和 IBM

合理的技术组合对于有效的数据和人工智能治理战略至关重要,其中现代数据架构和可信赖的 AI 平台是关键组成部分。Data Fabric 架构中的策略编排是一种出色的工具,可以简化复杂的 AI 审计流程。通过将 AI 审计和相关流程纳入数据架构的治理政策,您的组织可以帮助了解需要持续监控的领域。

IBM Consulting,我们始终致力地帮助客户建立评估偏见及其他领域的流程。随着 AI 应用的扩大和创新不断发展,安全指南也将不断成熟,正如多年来嵌入企业体系中的每一项技术一样。以下是 IBM 提供的一些最佳实践,以帮助组织为在其环境中安全部署 AI 做好准备:

  1. 通过评估供应商政策和实践来利用可信赖 AI 技术。
  2. 确保用户、模型和数据的安全访问。
  3. 保护 AI 模型、数据和基础架构免受对抗性攻击。
  4. 在培训、测试和运营阶段实施数据隐私保护。
  5. 在 AI 开发生命周期中进行威胁建模并实施安全编码实践。
  6. 对 AI 应用程序和基础架构进行威胁检测和响应。
  7. 通过 IBM AI 框架评估并确定 AI 成熟度。
 
作者
IBM Data and AI Team