主页 topics strong ai 什么是强 AI?
了解强 AI - 一种复制人类推理、规划和解决问题能力的 AI 理论形式
蓝黑背景
什么是强 AI?

强人工智能 (AI) 也称为通用人工智能 (AGI) 或通用 AI,是一种 AI 的理论形式,用于描述某种 AI 开发的思维方式。如果研究人员能够开发强 AI,那么机器将需要等同于人类的智能;它将具有自我意识,能够解决问题、进行学习以及规划未来。

强 AI 旨在创建与人类思维别无二致的智能机器。 但就像小孩一样,AI 机器必须要通过输入和经验来学习,不断进步,并随时间推移逐步提升自己的能力。

尽管学术界和私营部门的 AI 研究人员都致力于创造通用人工智能 (AGI),但它目前只停留在理论概念阶段,并未真正实现。 尽管有些人(如 Marvin Minsky)认为未来几十年我们将实现 AI 领域的这一目标,但很多人都认为这一设想过于乐观;还有一些人甚至认为根本无法开发出强 AI 系统。 直到明确定义了成功举措,如智能和理解,他们才相信了这一推断。 目前,许多人使用图灵测试来评估 AI 系统的智能程度。

强 AI 测试

图灵测试


艾伦·图灵于 1950 年开发了图灵测试,并在其论文《计算机器与智能》(PDF, 566 KB)(链接位于 IBM 外部)中进行了讨论。 该测试最初被称为模仿游戏,用于评估机器的行为是否与人类行为有所区别。 在此测试中,有一个称为"审查员"的人负责通过一系列问题找出计算机产生的输出与人类产生的输出之间的差异。 如果审查员不能可靠地将机器与人类主体识别出来,那么机器便通过了测试。 但是,如果评估人员能够正确识别出人类响应,那么这台机器便不会被归类为智能机器。

虽然图灵测试没有既定的评估准则,但图灵指出,人类评估员在 5 分钟后能正确预测人类与计算机所产生对话的几率只有 70%。 图灵测试引入了有关机器智能构想的一般接受度。  

但是,初始图灵测试只测试一个技能集,例如文本输出或国际象棋。 强 AI 同样需要执行大量任务,于是便开发出扩展图灵测试。 此测试评估 AI 的文本、视觉、听觉和审计性能,并将其与人类产生的输出进行比较。 此版本在著名的勒布纳奖竞赛中使用,比赛中,由一个人类评委猜测输出是来自于人类还是计算机。

中文屋论证 (CRA)


 中文屋论证由 John Searle 于 1980 年提出。 在其论文中,他讨论了理解和思考的定义,并声称计算机永远无法做到这一点。 其论文的这一段摘录(来自斯坦福大学的网站)(链接位于 IBM 外部)很好地总结了他的论点:

“计算的定义纯粹是形式上或语法上的,而大脑有实际的心理或语义内容,我们不能仅仅通过语法操作而不通过其他任何方式从语法判断出语义……一个系统,比如说我,不可能仅通过模拟中文发言者行为的计算机程序步骤来理解汉语(第 17 页)。”

“中文屋论证”提出了以下场景:

想象一个不会说中文的人坐在一个封闭的房间里。 房间里有一本关于中文语言规则、短语和说明的手册。 另一个中文流利的人将用中文写的便条传进房间。 在语言短语手册的帮助下,房间内的人可选择相应的回答,并将它回传给说中文的人。

虽然房间内的人能够使用语言短语手册提供正确的回答,但他或她仍然不会说也听不懂中文;这只是一种通过将问题或语句与相应的回答进行匹配来模拟理解的过程。 Searle 争论说,强 AI 需要真正的人脑才能有意识或理解能力。 “中文屋论证”说明了图灵测试的缺陷,展示了人工智能定义中的差别。 

强 AI 与弱 AI

弱 AI,也称为狭义 AI,专注于执行指定任务,如基于用户输入回答问题或下棋。 它可以执行一种类型的任务,不能同时执行两项任务,而强 AI 则可以执行各种功能,最终自己学会解决新问题。 弱 AI 依赖于人类干涉来定义学习算法的参数,并提供相关的训练数据,进而确保准确性。 虽然人类输入加速了强 AI 的发展,但这并不是必需的,且随着时间推移,强 AI 会发展出类似人类的意识,而不是像弱 AI 一样模拟人类意识。 自动驾驶汽车和虚拟助理(如 Siri)便是弱 AI 的示例。  

强 AI 趋势

虽然没有明确的强人工智能的例子,但 AI 领域的创新速度非常快。  另一种 AI 理论已经出现,被称为超级人工智能 (ASI)、超级智能或超级 AI。 这种类型的 AI 在人类智能和能力方面超过了强 AI。 然而,超级 AI 仍然仅停留在推测阶段,我们还没有实现强 AI 的任何例子。

话虽如此,AI 却在很多领域都扮演着越来越重要的角色,例如:

  • 网络安全:人工智能将在组织的网络安全措施中发挥更重要的作用,包括漏洞检测、监控、威胁情报、事件响应和风险分析。  
  • 娱乐和内容创作:不论是文案、诗歌、视频游戏,还是电影,计算机科学程序在内容制作方面表现越来越出色。   OpenAI 的 GBT-3 文本生成 AI 应用所创作的内容几乎与人类编写的内容不相上下。
  • 行为识别与预测:预测算法会进一步增强 AI,从预测天气和股市的应用,到更加有趣的人类行为预测,莫不如此。 这也引发了关于隐含偏见和伦理 AI 的问题。 AI 社区中的一些 AI 研究人员正在推出一套反歧视规则,这通常与话题标签 #responsibleAI 相关联。
强 AI 术语和定义

人工智能、机器学习和深度学习这些术语经常会被用错。      它们常用于描述强 AI,因此有必要简单定义一下每个术语:

John McCarthy(链接位于 IBM 外部)将人工智能定义为“制造智能机器,尤其是开发智能计算机程序的科学与工程。 AI 与使用计算机了解人类智能的类似任务有关,但不必局限于生物可观察的方法”。

机器学习是人工智能下的一个子领域。  经典(非深度)机器学习模型需要更多人为干预,才能将数据归入各个类别(如通过特征学习)。

深度学习同样是机器学习下的一个子领域,它试图用神经网络模仿人脑的互相连通。  其人工神经网络由多层模型组成,这些模型可识别指定数据集内的模式。 它们利用大量训练数据来准确学习,因而需要性能更加强大的硬件,如 GPU 或 TPU。 深度学习算法与人类水平的 AI 关系最密切。    

要了解这些技术之间的更多细微差别,请阅读“AI、机器学习、深度学习与神经网络:有何区别?

 
深度学习应用

深度学习同样可以处理复杂问题,因此,目前也用于许多创新及新兴技术中。  深度学习算法已运用于各个领域。 以下是一些示例:

  • 自动驾驶汽车:Google 和 Elon Musk 已经向我们证明,自动驾驶汽车并非天方夜谭。    然而,自动驾驶汽车需要更多训练数据和测试,因为需要处理各种活动,如找出正确的道路,或识别路上的垃圾。 随着技术的逐步成熟,还需要克服人类在接纳自动驾驶汽车方面的障碍,因为民意调查显示,许多司机都不愿意开这种车。
  • 语音识别:语音识别,如 AI 聊天机器人虚拟代理,是自然語言处理的重头戏。     对于 AI 来说,音频输入比处理更难,因为影响因素太多,如背景噪声、方言、语音障碍等等,这些都让 AI 更难将输入转换为计算机可以处理的内容。
  • 模式识别:深度神经网络的使用改进了各种应用中的模式识别。  通过发现有用数据点中的模式,AI 可以过滤不相干的信息,找出有用的关联,同时提升大数据计算的效率,而人类通常都会忽视这一点。
  • 计算机编程:弱 AI 在生成有意义文本方面已经取得了一些成功,由此推动了编码的发展。 就在最近,OpenAI 发布了 GPT-3,这是一款可以通过非常有限的指令,真正编写代码和简单计算机程序的开源软件,提升了程序开发的自动化程度。
  • 图像识别:手动进行图像分类可能非常耗时。  而经过特殊改编的深度神经网络,如 DenseNet,则可将神经网络中的每个层与所有其他层连接起来,实现了更加准确的图像识别。
  • 上下文建议:深度学习应用在提出建议时会更多地考虑上下文,包括语言理解模式和行为预测。
  •     
  • 事实核查:滑铁卢大学最近发布了一款工具,该工具可将文章中的信息与其他新闻来源的信息进行比对,对信息加以验证,从而检测出假新闻。
  •  
相关解决方案
AI 聊天机器人

Watson Assistant 是一款商用 AI 聊天机器人。 这一企业人工智能技术支持用户构建会话式 AI 解决方案。

探索 AI 聊天机器人
虚拟代理

IBM Watson Assistant 可通过任何应用、设备或渠道,快速为客户提供一致且准确的答案。

探索虚拟代理
资源 立即推进 AI 伦理建设

阅读了解如何将 AI 伦理原则付诸实践。

采取下一步行动

IBM 一直是为企业推进 AI 驱动技术的领导者,并为多个行业开创了未来机器学习系统的先河。

探索 IBM Watson®