主页

topics

AI 伦理

什么是 AI 伦理?
深入了解 IBM 的 AI 道德规范解决方案 注册获取 AI 更新
包含云朵、饼图、象征符号图形的拼贴插图
什么是 AI 伦理?

伦理是一系列帮助我们明辨是非的道德原则。AI 伦理是一个多学科领域,研究如何优化 AI 的有益影响,同时降低风险和不良后果。

AI 道德规范问题的示例包括数据责任和隐私、公平性、可解释性、稳健性、透明度、环境可持续发展、包容性、道德主体、价值一致性、问责制、信任和技术滥用。本文旨在提供当今行业 AI 道德规范的综合市场观点。如需了解有关 IBM 的观点的更多信息,请参阅此处的 AI 道德规范页面。

随着大数据的出现,公司更加注重推动整个组织的自动化和数据驱动的决策。虽然其目的通常是改善业务成果,但公司在某些 AI 应用程序中正在经历不可预见的后果,特别是由于前期研究设计不佳和数据集存在偏见。

随着不公平结果的曝光,新的指导方针已经出现,主要来自研究和数据科学界,以应对针对 AI 道德规范的担忧。AI 领域的领先公司在制定这些指导方针方面也有既得利益,因为他们自己已经开始体验到未能在其产品中维护道德标准的一些后果。在这一领域缺乏尽职调查可能会产生声誉、监管和法律风险,导致代价高昂的处罚。与所有技术进步一样,在新兴领域,创新往往会超出政府的监管。随着政府行业内相应专业知识的发展,我们可以预期公司将遵循更多的 AI 协议,以便能够避免任何侵犯人权和公民自由的行为。

现已推出:watsonx.governance

加速在第三方平台上构建的负责任、透明且可解释的生成式 AI 工作流程。

相关内容
电子书
注册以获取有关 AI 数据存储的电子书
指南
了解如何将正确的数据库用于应用、分析和生成式 AI
制定 AI 道德规范原则

在制定规则和协议来管理 AI 使用的同时,学术界已经利用《贝尔蒙报告》(链接位于 ibm.com 站外)作为指导实验研究和算法开发中的道德规范的手段。《贝尔蒙报告》中主要有三项原则,可以作为实验和算法设计的指南,即:

  1. 尊重个人:此原则承认个人的自主性,并要求研究人员保护自主性减弱的个人,这可能是由于疾病、精神残疾、年龄限制等各种情况造成的。此原则主要涉及同意的概念。个人应该留意其参与的任何实验的潜在风险和益处,并应该能够在实验之前和实验过程中随时选择参与或退出。
  2. 善行:此原则借鉴了医疗保健道德规范,即医生宣誓“不戕害病人”。这个想法可以轻松应用于人工智能,但相关算法可能会放大种族、性别、政治倾向等方面的偏见,尽管其本意是行善并改进给定系统。
  3. 公正:这个原则旨在处理公平和平等等问题。谁应该从实验和机器学习中获益?《贝尔蒙报告》提供了以下五种分担负担和收益的方法:
    • 平均分担
    • 个人需求
    • 个人努力
    • 社会贡献
    • 优点
相关链接 IBM AI 道德规范 实施算法安全实践的五个步骤
当今 AI 的主要焦点

在现实世界里有关 AI 技术的伦理对话中,有一些问题值得关注。其中包括:

基础模型和生成式 AI

2022 年 ChatGPT 的发布标志着人工智能的真正转折点。OpenAI 聊天机器人的能力(从撰写案情摘要到调试代码)为 AI 的功能及其在几乎所有行业的应用开辟了新的可能性。ChatGPT 和类似的工具建立在基础模型、可适应广泛下游任务的 AI 模型之上。基础模型通常是大规模生成式模型,由数十亿个参数组成,使用自我监督对未标记数据进行训练。这让基础模型能够快速地将其在一个环境中学到的知识应用到另一个环境中,使其具备高度的适应性,并能够执行各种不同的任务。然而基础模型存在许多技术行业公认的潜在问题和道德规范问题,例如偏见、虚假内容生成、缺乏可解释性、滥用和社会影响。其中许多问题与 AI 普遍相关,但鉴于基础模型的强大功能和可用性,这些问题变得更加紧迫。

技术奇点

虽然这个话题引起了公众的广泛关注,但许多研究人员并不在意 AI 会在不久的将来超越人类智慧的想法。这也称为超级智能,Nick Bostrum 将超级智能定义为“几乎在所有领域都远超最优秀人类大脑的任何智力,包括科学创造力、一般智慧和社交技能”。尽管目前社会上并不急于实现强 AI 和超级智能,但我们在考虑使用使用自动驾驶汽车等自主系统时,这个想法引发了一些有趣的问题。认为无人驾驶汽车永远不会发生事故是不现实的,那么一旦发生事故,该由谁来承担责任呢?我们是应该继续开发自动驾驶汽车,还是只将这项技术集成限于可提升驾驶员安全的半自动驾驶汽车?虽然目前还没有定论,但随着创新 AI 技术的发展,人们开始对这些伦理问题展开了激烈争论。

AI 对就业的影响

尽管公众对人工智能的看法大多集中在失业问题上,但或许应该重新审视这种担忧。随着每一项颠覆性的新技术出现,我们都会看到市场对特定工作角色的需求发生了变化。例如,当我们看向汽车行业时,许多制造商(如 GM)正在转向专注电动汽车生产以符合绿色倡议。能源行业不会消失,但能源来源正在从燃油经济性转向电力经济性。当人工智能将工作需求转移到其他领域时,应该以类似的方式看待人工智能。随着数据每天增长和变化,需要有人帮助管理这些系统。仍然需要资源来解决最可能受到工作需求变化影响的行业中的更复杂问题,例如客户服务。人工智能的一个重要方面及其对就业市场的影响将帮助个人过渡到这些新的市场需求领域。

隐私

隐私问题往往在数据隐私、数据保护和数据安全的背景下进行讨论,这些问题使得政策制定者近年来在此方面取得了更大的进步。例如,2016 年颁布了 GDPR 法规,旨在保护欧盟和欧洲经济区人民的个人数据,让个人更好地控制他们的数据。在美国,各个州正在制定政策,例如要求企业告知消费者收集其数据的情况的《California Consumer Privacy Act》。最近的这项立法迫使公司重新思考如何存储和使用个人身份数据 (PII)。因此,安全领域的投资已成为企业越来越优先考虑的问题,因为他们要设法消除任何漏洞以及受到监视、黑客攻击和网络攻击的可能性。

偏见和歧视

许多智能系统中的偏见和歧视引发了许多有关使用人工智能的道德规范问题。当训练数据集可能助长偏见时,我们该如何防止偏见和歧视?尽管公司在自动化方面通常抱有良好的意愿,但将 AI 嵌入招聘实践可能会带来无法预料的后果。在努力实现流程自动化和简化的过程中,Amazon 在招聘技术岗位时无意中对潜在求职者产生了性别偏见(链接位于 ibm.com 站外),最终不得不放弃该项目。随着此类事件的浮出水面,《哈佛商业评论》(链接位于 ibm.com 站外)围绕 AI 在招聘实践中的使用提出了其他尖锐的问题,例如在评估候选人是否适合某个职位时应该能够使用哪些数据。

偏见和歧视并不局限于人力资源职能;可以在许多应用场合中发现这种问题,包括面部识别软件和社交媒体算法。

随着企业越来越意识到 AI 的风险,他们也越来越积极地参与围绕 AI 道德规范和价值观的讨论。例如去年,IBM 首席执行官 Arvind Krishna 分享道,“IBM 坚决反对并且不会容忍将任何技术(包括其他供应商提供的面部识别技术)用于大规模监视、种族定性、侵犯基本人权和自由或任何不符合我们的价值观以及信任和透明原则的用途。”

问责制

目前尚无规范 AI 实践的通用总体立法,但许多国家或地区和州正努力在当地制定和实施这些立法。如今,部分 AI 法规已经颁布,还有更多即将出台。为了填补这一空白,作为伦理学家和研究人员合作的一部分,道德规范框架应运而生,旨在管控在社会中构建和传播 AI 模型。然而,目前这些只是起到指导作用,研究(链接位于 ibm.com 站外)表明,责任分散和缺乏对潜在后果的预见并不一定有利于防止对社会的危害。

如何建立 AI 道德规范

人工智能的表现取决于其设计、开发、训练、调整和使用的方式,而 AI 道德规范就是围绕 AI 系统生命周期的所有阶段构建一个由道德规范标准和防护措施组成的生态系统。

一些组织、政府和研究人员已经开始建立框架来解决当下的 AI 伦理问题,规划这个领域的未来工作。虽然这些指导方针在不断纳入更多结构,但各方对于采纳以下原则达成了一定共识:

管制

治理是组织通过内部政策和流程、人员和系统监督 AI 生命周期的行为。治理有助于确保 AI 系统按照组织的原则和价值观、利益相关者的期望以及相关法规的要求运行。成功的治理计划将:

  • 定义使用 AI 的工作人员的角色和职责。

  • 教育 AI 生命周期中涉及的所有人以负责任的方式构建 AI。

  • 制定构建、管理、监控和沟通 AI 和 AI 风险的流程。

  • 在整个 AI 生命周期中,利用工具提高 AI 的性能和可信度。

AI 伦理委员会是一种行之有效的治理机制。IBM 的 AI 伦理委员会由来自企业各部门的多元化领导者组成。委员会为 IBM 伦理政策与实践提供了集中治理、审查和决策流程。了解有关 IBM AI 伦理委员会的更多信息

原则和重点领域

组织可以遵循适用于组织范围内所有产品、政策、流程和实践的原则,在此指导下利用 AI 伦理方法实现值得信赖的 AI。构建这些原则应该围绕可解释性或公平性等重点领域并得到这些领域的支持,可以针对这些领域制定标准,并在实践方面保持一致。

以道德为核心构建 AI 时,它能够发挥出巨大的潜力,对社会产生积极影响。我们已经开始在它与放射学等医疗保健领域的整合中见证这一点。围绕 AI 道德规范的对话对于从设计阶段开始适当评估和减轻与 AI 使用相关的潜在风险也很重要。

推动 AI 道德规范的组织

由于道德标准并不是私营部门数据工程师和数据科学家的主要关注点,因此出现了一些旨在推动人工智能领域道德规范行为的组织。如需更多信息,以下组织和项目提供了制定 AI 道德规范的资源:

  • AlgorithmWatch:此非营利组织关注 AI 程序中可解释、可追溯的算法和决策过程。点击此处(链接位于 ibm.com 站外)了解更多信息。
  • AI Now Institute:纽约大学的非营利机构,研究人工智能的社会影响。点击此处(链接位于 ibm.com 站外)了解更多信息。
  • DARPA:美国国防部的国防高级研究计划署(链接位于 ibm.com 站外)专注于推动可解释的 AI 和 AI 研究。
  • CHAI:人类兼容人工智能中心(链接位于 ibm.com 站外)是各大研究所和大学的合作组织,旨在推广值得信赖的 AI 和可证明的有益系统。
  • NASCAI:美国国家人工智能安全委员会(链接位于 ibm.com 站外)是一个独立委员会,“负责考虑推进人工智能、机器学习和相关技术发展所需的方法和手段,以全面满足美国的国家安全和国防需求”。
IBM 对 AI 道德标准的看法

IBM 还确立了自己对 AI 道德规范的观点,制定了信任和透明原则,以帮助客户了解其在 AI 对话中的价值观。IBM 有三个核心原则决定了其数据和 AI 开发方法,即:

  1. AI 的目的是增强人类智慧。这意味着我们并不寻求用 AI 取代人类智能,而是提供支持。由于每一项新的技术创新都涉及特定工作岗位供需的变化,因此 IBM 致力于通过投资全球举措,来促进围绕这项技术的技能培训,从而为处于这一转变的工人提供支持。
  2. 数据和洞察属于其创建者。IBM 客户可以放心,只有他们才拥有自己的数据。IBM 过去没有也不会向政府提供用于任何监控计划的客户数据访问权限,并且始终致力于保护客户的隐私。
  3. AI 系统必须是透明且可解释。IBM 认为,技术公司需要清楚谁在训练其 AI 系统,训练中使用了哪些数据,最重要的是算法是基于哪些数据生成了建议。

IBM 还确定了五大支柱,用于指导负责任地采用 AI 技术。其中包括:

  • 可解释性:AI 系统应该是透明的,尤其是其算法建议的内容,这与具有不同目标的利益相关者息息相关。
  • 公平性:指 AI 系统公平对待个人或个人群体。经过适当校准,AI 可以帮助人类做出更公平的选择,消除人类偏见,并促进包容。
  • 稳健性:人工智能驱动的系统必须积极防御对抗性攻击,最大限度地降低安全风险,让大家对系统结果充满信心。
  • 透明度:为了加强信任,用户必须能够了解服务的工作原理,评估其功能并理解其优势和局限性。
  • 隐私:AI 系统必须优先考虑并保障消费者的隐私和数据权利,并向用户明确保证其个人数据将如何使用和保护。

这些原则和重点领域构成了我们的 AI 伦理方法的基础。如需进一步了解 IBM 关于伦理道德和人工智能的观点,请点击此处阅读更多内容。

 

相关解决方案
IBM 的 AI 道德规范

IBM 针对值得信赖的 AI 的多学科、多维度方法

深入了解 IBM 的 AI 道德规范
IBM Watson Studio

构建、运行和管理 AI 模型。使用开源代码或可视化建模在任何云上准备数据并构建模型。预测并优化您的结果。

深入了解 Watson Studio
IBM watsonx.governance

构建负责任、透明且可解释的 AI 工作流程。

深入了解 IBM watsonx.governance
采取后续步骤

在生成式模型和机器学习模型的整个生命周期中,加速负责任、透明且可解释的 AI 工作流程。指导、管理和监控您的组织的 AI 活动,以便更好地管理不断演变的 AI 法规,并检测和降低风险。

深入了解 watsonx.governance 预约实时演示