主页
topics
AI 伦理
伦理是一系列帮助我们明辨是非的道德原则。AI 伦理是一个多学科领域,研究如何优化 AI 的有益影响,同时降低风险和不良后果。
AI 道德规范问题的示例包括数据责任和隐私、公平性、可解释性、稳健性、透明度、环境可持续发展、包容性、道德主体、价值一致性、问责制、信任和技术滥用。本文旨在提供当今行业 AI 道德规范的综合市场观点。如需了解有关 IBM 的观点的更多信息,请参阅此处的 AI 道德规范页面。
随着大数据的出现,公司更加注重推动整个组织的自动化和数据驱动的决策。虽然其目的通常是改善业务成果,但公司在某些 AI 应用程序中正在经历不可预见的后果,特别是由于前期研究设计不佳和数据集存在偏见。
随着不公平结果的曝光,新的指导方针已经出现,主要来自研究和数据科学界,以应对针对 AI 道德规范的担忧。AI 领域的领先公司在制定这些指导方针方面也有既得利益,因为他们自己已经开始体验到未能在其产品中维护道德标准的一些后果。在这一领域缺乏尽职调查可能会产生声誉、监管和法律风险,导致代价高昂的处罚。与所有技术进步一样,在新兴领域,创新往往会超出政府的监管。随着政府行业内相应专业知识的发展,我们可以预期公司将遵循更多的 AI 协议,以便能够避免任何侵犯人权和公民自由的行为。
加速在第三方平台上构建的负责任、透明且可解释的生成式 AI 工作流程。
在制定规则和协议来管理 AI 使用的同时,学术界已经利用《贝尔蒙报告》(链接位于 ibm.com 站外)作为指导实验研究和算法开发中的道德规范的手段。《贝尔蒙报告》中主要有三项原则,可以作为实验和算法设计的指南,即:
在现实世界里有关 AI 技术的伦理对话中,有一些问题值得关注。其中包括:
2022 年 ChatGPT 的发布标志着人工智能的真正转折点。OpenAI 聊天机器人的能力(从撰写案情摘要到调试代码)为 AI 的功能及其在几乎所有行业的应用开辟了新的可能性。ChatGPT 和类似的工具建立在基础模型、可适应广泛下游任务的 AI 模型之上。基础模型通常是大规模生成式模型,由数十亿个参数组成,使用自我监督对未标记数据进行训练。这让基础模型能够快速地将其在一个环境中学到的知识应用到另一个环境中,使其具备高度的适应性,并能够执行各种不同的任务。然而基础模型存在许多技术行业公认的潜在问题和道德规范问题,例如偏见、虚假内容生成、缺乏可解释性、滥用和社会影响。其中许多问题与 AI 普遍相关,但鉴于基础模型的强大功能和可用性,这些问题变得更加紧迫。
虽然这个话题引起了公众的广泛关注,但许多研究人员并不在意 AI 会在不久的将来超越人类智慧的想法。这也称为超级智能,Nick Bostrum 将超级智能定义为“几乎在所有领域都远超最优秀人类大脑的任何智力,包括科学创造力、一般智慧和社交技能”。尽管目前社会上并不急于实现强 AI 和超级智能,但我们在考虑使用使用自动驾驶汽车等自主系统时,这个想法引发了一些有趣的问题。认为无人驾驶汽车永远不会发生事故是不现实的,那么一旦发生事故,该由谁来承担责任呢?我们是应该继续开发自动驾驶汽车,还是只将这项技术集成限于可提升驾驶员安全的半自动驾驶汽车?虽然目前还没有定论,但随着创新 AI 技术的发展,人们开始对这些伦理问题展开了激烈争论。
尽管公众对人工智能的看法大多集中在失业问题上,但或许应该重新审视这种担忧。随着每一项颠覆性的新技术出现,我们都会看到市场对特定工作角色的需求发生了变化。例如,当我们看向汽车行业时,许多制造商(如 GM)正在转向专注电动汽车生产以符合绿色倡议。能源行业不会消失,但能源来源正在从燃油经济性转向电力经济性。当人工智能将工作需求转移到其他领域时,应该以类似的方式看待人工智能。随着数据每天增长和变化,需要有人帮助管理这些系统。仍然需要资源来解决最可能受到工作需求变化影响的行业中的更复杂问题,例如客户服务。人工智能的一个重要方面及其对就业市场的影响将帮助个人过渡到这些新的市场需求领域。
隐私问题往往在数据隐私、数据保护和数据安全的背景下进行讨论,这些问题使得政策制定者近年来在此方面取得了更大的进步。例如,2016 年颁布了 GDPR 法规,旨在保护欧盟和欧洲经济区人民的个人数据,让个人更好地控制他们的数据。在美国,各个州正在制定政策,例如要求企业告知消费者收集其数据的情况的《California Consumer Privacy Act》。最近的这项立法迫使公司重新思考如何存储和使用个人身份数据 (PII)。因此,安全领域的投资已成为企业越来越优先考虑的问题,因为他们要设法消除任何漏洞以及受到监视、黑客攻击和网络攻击的可能性。
许多智能系统中的偏见和歧视引发了许多有关使用人工智能的道德规范问题。当训练数据集可能助长偏见时,我们该如何防止偏见和歧视?尽管公司在自动化方面通常抱有良好的意愿,但将 AI 嵌入招聘实践可能会带来无法预料的后果。在努力实现流程自动化和简化的过程中,Amazon 在招聘技术岗位时无意中对潜在求职者产生了性别偏见(链接位于 ibm.com 站外),最终不得不放弃该项目。随着此类事件的浮出水面,《哈佛商业评论》(链接位于 ibm.com 站外)围绕 AI 在招聘实践中的使用提出了其他尖锐的问题,例如在评估候选人是否适合某个职位时应该能够使用哪些数据。
偏见和歧视并不局限于人力资源职能;可以在许多应用场合中发现这种问题,包括面部识别软件和社交媒体算法。
随着企业越来越意识到 AI 的风险,他们也越来越积极地参与围绕 AI 道德规范和价值观的讨论。例如去年,IBM 首席执行官 Arvind Krishna 分享道,“IBM 坚决反对并且不会容忍将任何技术(包括其他供应商提供的面部识别技术)用于大规模监视、种族定性、侵犯基本人权和自由或任何不符合我们的价值观以及信任和透明原则的用途。”
目前尚无规范 AI 实践的通用总体立法,但许多国家或地区和州正努力在当地制定和实施这些立法。如今,部分 AI 法规已经颁布,还有更多即将出台。为了填补这一空白,作为伦理学家和研究人员合作的一部分,道德规范框架应运而生,旨在管控在社会中构建和传播 AI 模型。然而,目前这些只是起到指导作用,研究(链接位于 ibm.com 站外)表明,责任分散和缺乏对潜在后果的预见并不一定有利于防止对社会的危害。
人工智能的表现取决于其设计、开发、训练、调整和使用的方式,而 AI 道德规范就是围绕 AI 系统生命周期的所有阶段构建一个由道德规范标准和防护措施组成的生态系统。
一些组织、政府和研究人员已经开始建立框架来解决当下的 AI 伦理问题,规划这个领域的未来工作。虽然这些指导方针在不断纳入更多结构,但各方对于采纳以下原则达成了一定共识:
治理是组织通过内部政策和流程、人员和系统监督 AI 生命周期的行为。治理有助于确保 AI 系统按照组织的原则和价值观、利益相关者的期望以及相关法规的要求运行。成功的治理计划将:
定义使用 AI 的工作人员的角色和职责。
教育 AI 生命周期中涉及的所有人以负责任的方式构建 AI。
制定构建、管理、监控和沟通 AI 和 AI 风险的流程。
在整个 AI 生命周期中,利用工具提高 AI 的性能和可信度。
AI 伦理委员会是一种行之有效的治理机制。IBM 的 AI 伦理委员会由来自企业各部门的多元化领导者组成。委员会为 IBM 伦理政策与实践提供了集中治理、审查和决策流程。了解有关 IBM AI 伦理委员会的更多信息。
组织可以遵循适用于组织范围内所有产品、政策、流程和实践的原则,在此指导下利用 AI 伦理方法实现值得信赖的 AI。构建这些原则应该围绕可解释性或公平性等重点领域并得到这些领域的支持,可以针对这些领域制定标准,并在实践方面保持一致。
以道德为核心构建 AI 时,它能够发挥出巨大的潜力,对社会产生积极影响。我们已经开始在它与放射学等医疗保健领域的整合中见证这一点。围绕 AI 道德规范的对话对于从设计阶段开始适当评估和减轻与 AI 使用相关的潜在风险也很重要。
由于道德标准并不是私营部门数据工程师和数据科学家的主要关注点,因此出现了一些旨在推动人工智能领域道德规范行为的组织。如需更多信息,以下组织和项目提供了制定 AI 道德规范的资源:
IBM 还确立了自己对 AI 道德规范的观点,制定了信任和透明原则,以帮助客户了解其在 AI 对话中的价值观。IBM 有三个核心原则决定了其数据和 AI 开发方法,即:
IBM 还确定了五大支柱,用于指导负责任地采用 AI 技术。其中包括:
这些原则和重点领域构成了我们的 AI 伦理方法的基础。如需进一步了解 IBM 关于伦理道德和人工智能的观点,请点击此处阅读更多内容。