主页 topics AI 伦理 什么是 AI 伦理?
AI 伦理旨在指导数据科学家和研究人员以符合道德规范的方式构建 AI 系统,造福整个社会
订阅 IBM 时事通讯
circular aurora
什么是 AI 伦理?

本文旨在提供目前业界关于 AI 伦理的全面市场观点。 要了解有关 IBM 观点的更多信息,请在此处查看我们的 AI 伦理页面。

伦理是一系列道德原则,旨在帮助我们明辨是非。 AI 伦理是一系列指导方针,旨在为人工智能的设计和结果提供建议。 人类与生俱来就存在各种认知偏见(例如近因偏见和确认偏见),这些固有的偏见会在我们的行为中展现出来,因此也会在我们的数据中所有体现。 由于人工智能有可能以前所未有的速度放大这些人类偏见,因此在构建实验和算法时必须牢记一点,那就是“数据是所有机器学习算法的基础”。

随着大数据的出现,企业越来越重视在组织内推动自动化和数据驱动的决策。 尽管 AI 通常(并非总是)可以改善业务成果,但有些企业在一些 AI 应用中遇到了无法预料的后果,特别是由于糟糕的前期研究设计和存在偏见的数据集所造成的后果。

随着不公平结果的曝光,主要以研究和数据科学社区为代表的群体提出了一些新的指导方针,旨在解决 AI 伦理方面的问题。 在 AI 领域领先一步的企业也在形成这些指导方针方面成为既得利益者,因为他们品尝过在产品中未遵循道德标准而导致的一些后果。 在这方面稍有懈怠,就有可能面临声誉、监管和法律方面的风险,受到代价高昂的处罚。 与所有技术进步一样,在新兴领域中,创新总是超前于政府监管。 随着政府领域中相关专业知识的不断完善,我们预计会出台越来越多的 AI 规范,企业必须遵守这些规范以避免任何侵犯人权和公民自由的行为。

认识 watsonx

借助 IBM 的下一代 AI 和数据平台,让企业的 AI 力量成倍增长

立即推进 AI 伦理

阅读本文,了解有关如何将 AI 伦理原则付诸实践的更多信息。 (326 KB)

建立 AI 伦理原则

在制定用于管理和使用 AI 的规则和规范时,学术界使用《贝尔蒙报告》(链接位于 ibm.com 外部)(PDF, 121 KB),作为指导实验研究和算法开发中伦理道德问题的方法。 《贝尔蒙报告》(Belmont Report) 提出了以下三个主要原则,作为实验和算法设计的指南:

  1. 尊重个人:这个原则承认个人的自主权,希望研究人员能够保护自主权减弱(可能由于疾病、智力障碍、年龄限制等原因所导致)的个人。 这个原则主要涉及"同意"这个概念。 个人应当清楚他们参与的任何实验的潜在风险和收益,并且能够在实验之前和实验期间的任何时候选择参与或退出。
  2. 仁慈:这个原则借鉴了医疗伦理,即医生宣誓"不造成伤害"。 这种思想可以很容易地应用于人工智能,以防止算法放大种族、性别、政治倾向等方面的偏见,尽管是出于善意以及改进特定系统之目的。
  3. 公正:这个原则旨在处理像公平和平等这样的问题。 谁可以从实验和机器学习中获益? 《贝尔蒙报告》提供了以下五种分担负担和收益的方法:
    • 平均分担
    • 个人需要
    • 个人努力
    • 社会贡献
    • 功劳
相关链接

IBM AI 伦理

目前对 AI 的主要担忧

在有关 AI 技术的伦理对话中,我们发现了一些问题。 其中包括:

 

技术奇点


虽然这个话题深深吸引了公众的关注,但许多研究人员并不担心有关 AI 会在不远的将来超越人类智慧的想法。 这也称为超级智能,Nick Bostrum 将其定义为"在几乎所有领域(包括科学创造力、一般智慧和社交技能)都远超最优秀人类大脑的任何智力。" 尽管目前社会上并不急于实现强 AI 和超级智能,但当我们考虑使用自主系统(如自动驾驶汽车)时,这个想法会引发一些有趣的问题。 认为无人驾驶汽车从不会发生事故是不现实的,那么一旦发生事故,该由谁来承担赔偿责任? 我们是应该继续开发自动驾驶汽车,还是只将这项技术集成限于可帮助驾驶员安全驾驶的半自动驾驶汽车? "陪审团"仍未有定论,但这些都是随着开创性的 AI 技术的发展而产生的道德争论。

 

AI 对工作的影响


虽然公众对人工智能的认识大都集中于失业问题,但这种担忧可能会发生转变。 借助各种颠覆性的新技术,我们看到了市场对特定工作岗位的需求发生了变化。 例如,在汽车行业,包括 GM 在内的许多制造商正将重心转向电动汽车的生产,以便与绿色环保计划接轨。 能源行业不会消失,但能量的来源正在从燃油经济转向电力。 我们也可以用相似的方式看待人工智能,AI 也会导致工作需求转移到其他领域。 数据每天都在增长和变化,需要有人来帮助管理这些系统。 此外,仍需要有人来解决行业内最有可能受就业需求变化影响的复杂问题,如客户服务。 人工智能的重要方面及其对就业市场的影响,将会帮助人们转而投身于市场所需要的新领域。

 

隐私


隐私通常在数据隐私、数据保护和数据安全的背景下讨论。近年来,这些担忧推动政策制定者取得了更大的进展。 例如,在 2016 年,为了保护欧盟和欧洲经济区的个人数据,让人们能够更有效地控制自己的数据,欧盟出台了《通用数据保护条例》(GDPR) 法案。 在美国,有些州制定相关政策,如《加州消费者隐私法案》(CCPA) ,要求企业向消费者通报数据收集情况。 最近的这些立法迫使企业重新思考该如何存储和使用可识别个人身份的信息 (PII)。 因此,随着企业希望消除任何漏洞,杜绝一切监视、黑客攻击和网络攻击机会,在安全方面进行投资已成为他们日益重要的优先事项。

 

偏见和歧视


一些智能系统中的偏见和岐视事例引发了许多关于人工智能使用的伦理道德问题。 如果训练数据本身可能存在偏见,我们该如何防止偏见和岐视? 虽然企业的自动化工作通常都出于善意,但路透社(链接位于 ibm.com 外部)着重强调了在招聘实践中使用 AI 所产生的一些不可预测的后果。 在实现流程自动化和简化流程的工作中,Amazon 无意间对某些空缺技术职位的求职者形成了性别偏见,最终不得不放弃该项目。 随着此类事件浮出水面,《哈佛商业评论》(链接位于 ibm.com 外部)提出了关于在招聘实践中使用 AI 的其他尖锐问题,例如在评估职位候选人时使用哪些数据。

偏见和岐视并不局限于人力资源职能领域;它们也可能出现在其他许多应用中,例如人脸识别软件、社交媒体算法,等等。

随着企业日益意识到 AI 的风险,围绕 AI 伦理和价值观的讨论也变得越来越活跃。 例如,在去年,IBM CEO Arvind Krishna 宣布 IBM 淘汰了通用的 IBM 人脸识别和分析产品,强调"IBM 坚决反对并且不会纵容使用任何技术(包括其他供应商提供的人脸识别技术)进行大规模监视、种族分析、侵犯基本人权和自由,或用于和我们的价值观以及信任与透明原则不符的任何目的。"

问责机制


由于目前还没有重大立法来规范 AI 实践,因此也就没有真正的执法机制来确保践行符合道德规范的 AI。 目前激励企业遵守 AI 道德准则的因素主要是为了避免不符合道德规范的 AI 系统对利润造成负面影响。 为了填补这方面的空白,道德学家与研究人员开始合作研究道德规范框架,以指导社会中 AI 模型的构建和分发。 但是,目前这些成果仅作为指导,研究(链接位于 ibm.com 外部)(PDF, 1 MB) 表明,分散的责任加之缺乏对潜在后果的远见,不利于防止对社会造成危害。

如何建立 AI 伦理规范

由于人工智能并没有催生符合道德规范的机器,因此一些团队已经开始建立框架和概念,以解决目前的一些伦理问题,并规划该领域的未来工作。 虽然这些指导方针每天都会纳入更多结构,但业界对于添加以下原则达成了共识:

  • 治理:企业可利用现有的组织架构,帮助管理符合道德规范的 AI。 如果企业要收集数据,它很可能已经建立了治理体系,以促进数据标准化和质量保证。 内部监管和法律团队可能已经与治理团队合作,确保遵守政府实体提出的要求,因此扩大该团队的工作范围以涵盖符合道德规范的 AI,是其当前优先任务的自然延伸。 该团队还可以管理组织对于 AI 伦理的认识,激励利益相关方按照企业价值观和道德标准行事。  
  • 可解释性:机器学习模型(尤其是深度学习模型)通常被称为"黑盒模型",因为我们往往并不清楚模型如何做出特定决策。 这项研究(链接位于 ibm.com 外部)(PDF, 1.8 MB) 指出,可解释性旨在通过生成"用于表达机器基本原理的人类可理解的解释",消除模型组装和模型输出的不确定性。  这种透明度对于建立对 AI 系统的信任非常重要,确保人们理解模型到达特定决策点的原因。 如果我们能更好地理解个中原因,就能更有效地规避 AI 风险,例如偏见和歧视。  

实现符合道德规范的 AI 对于 AI 的成功无疑起到至关重要的作用。 然而,值得注意的是,它对于促进社会向善也具有巨大的影响力。 我们已经在它与医疗保健领域(例如放射学)的整合过程中看到了这一点。 本次有关 AI 伦理的对话旨在确保我们出于善意使用这项技术,并且能够正确评估其设计中的潜在危害。

符合道德规范的 AI 组织

由于道德标准并不是私营领域中的数据工程师和数据科学家的主要关注点,因此出现了许多以促进人工智能领域道德行为准则为使命的组织。 以下组织和项目提供了有关实施符合道德规范的 AI 的资源,对于希望了解更多信息的读者会有所帮助:

  • AlgorithmWatch:这个非营利组织专注于 AI 程序中的可解释和可追溯的算法和决策过程。 请单击此处(链接位于 ibm.com 外部)以了解更多信息。
  • AI Now Institute:纽约大学的这个非营利组织主要研究人工智能的社会影响。 请单击此处(链接位于 ibm.com 外部)以了解更多信息。
  • DARPA:美国国防部的国防高级研究计划局(链接位于 ibm.com 外部)专注于促进可解释的 AI 和 AI 研究。
  • CHAI:人类兼容人工智能中心(链接位于 ibm.com 外部)是有多个机构和大学参与的合作机构,旨在促进可信 AI 和可证明的有益系统。
  • NASCAI:国家人工智能安全委员会 (链接位于 ibm.com 外部)是一个独立的委员会,"负责考虑推进人工智能、机器学习和相关技术发展所需的方法和手段,以全面满足美国国家安全和国防需求。"
IBM 对于 AI 伦理的观点

IBM 还提出了自己对于 AI 伦理的观点,并建立了信任和透明原则,旨在帮助客户理解其在 AI 伦理方面的价值观。 IBM 的以下三个核心原则决定了其处理数据和 AI 的方法:

  1. AI 的目的是增强人类智慧。 这意味着,我们并不是要用 AI 取代人类智慧,而是用 AI 支持人类智慧。 由于每一项新的技术创新都会导致特定工作职位的供需变化,因此 IBM 致力于通过投资全球倡议,促进 AI 技术的技能培训,帮助工作人员完成这种转变。
  2. 数据和洞察属于其创建者。 IBM 客户可以放心:他们(而且只有他们)拥有自己的数据。 IBM 过去没有、将来也不会出于任何监视计划的目的为政府提供对客户数据的访问权限,始终致力于保护客户隐私。
  3. AI 系统必须透明而且可解释。 IBM 认为,科技企业需要清楚谁在训练他们的 AI 系统、在训练中使用了哪些数据,最重要的是,他们算法的建议中包含了哪些内容 。

IBM 还确定了一系列重点领域,用于指导负责任地采用 AI 技术。 其中包括:

  • 可解释性:AI 系统应当是透明的(特别是算法建议中包含的内容),因为这与具有各种目的的各个利益相关方密切相关。
  • 公平性:这是指 AI 系统必须能够公平地对待个人或群体。 经过适当校准后,AI 可以帮助人类做出更公平的选择、消除人类偏见以及促进包容性。
  • 强健性:AI 驱动的系统必须能够主动防御敌意攻击,最大程度降低安全风险,增强用户对系统结果的信心。
  • 透明度:为了加强信任,用户必须能够了解服务的工作方式,评估其功能并理解其优势和局限性。
  • 隐私:AI 系统必须优先考虑和保护消费者的隐私和数据权利,并向用户明确保证其个人数据的使用和保护方式。

这些原则和重点领域构成了我们的 AI 伦理方法的基础。 要深入了解 IBM 关于伦理道德和人工智能的观点,请访问此处以阅读更多内容。

 

AI 伦理与 IBM

IBM 致力于确保自己产品的构建和使用都遵循伦理道德指导方针和原则。 IBM Watson Studio 是 IBM 为客户提供的产品之一,该产品改进了监督方式,更有效地遵守符合道德规范的 AI 标准。

IBM Watson Studio on IBM Cloud Pak for Data 有助于监控和管理模型,以实施可信的 AI。 组织可以直观展现和跟踪生产中的 AI 模型,验证和测试模型以降低监管风险,并提高 AI 生命周期的可视性。 立即注册 IBMid,并创建免费的 IBM Cloud 帐户

要深入了解 IBM 关于 AI 伦理的观点,请在此处阅读更多内容。

 

相关解决方案
IBM Watson Studio

构建、运行和管理 AI 模型。 使用开源代码或可视化建模工具,在任何云中准备数据和构建模型。 预测并优化结果。

探索 Watson Studio
IBM Cloud Pak® for Data

Cloud Pak for Data 是一个开放式、可扩展的数据平台,提供的 Data Fabric 使所有数据可用于任何云端的 AI 和分析。

探索 IBM Cloud Pak® for Data
IBM AI 伦理

IBM 针对可信 AI 的多学科多维度方法

探索 IBM 的 AI 伦理
采取后续步骤

IBM 致力于确保自己产品的构建和使用都遵循伦理道德指导方针和原则。 IBM Watson Studio 是 IBM 为客户提供的产品之一,该产品改进了监督方式,更有效地遵守符合道德规范的 AI 标准。 IBM Watson Studio on IBM Cloud Pak for Data 有助于监控和管理模型,以实施可信的 AI。 组织可以直观展现和跟踪生产中的 AI 模型,验证和测试模型以降低监管风险,并提高 AI 生命周期的可视性。

了解有关 IBM Watson Studio 的更多信息