跳转到内容

英文维基 | 中文维基 | 日文维基 | 草榴社区

通用人工智慧

本页使用了标题或全文手工转换
维基百科,自由的百科全书
通用人工智慧
假想技术、​智慧类型
上级分类人工智能模型、​智力 编辑
所属实体strong AI and weak AI 编辑
话题方面智能代理 编辑
简称AGI 编辑
相对概念弱人工智慧 编辑

强人工智慧strong AI)或通用人工智慧artificial general intelligence,AGI)是具备与人类同等智慧、或超越人类的人工智慧,能表现正常人类所具有的所有智能行为。[1]

概述

[编辑]

强人工智慧是人工智慧研究的主要目标之一,同时也是科幻小说未来学家所讨论的主要议题。相对的,弱人工智慧(applied AI,narrow AI,weak AI[2], artificial narrow intelligence, ANI[3])只处理特定的问题[4]弱人工智慧不需要具有人类完整的认知能力,甚至是完全不具有人类所拥有的感官认知能力,只要设计得看起来像有智慧就可以了。由于过去的智能程式多是弱人工智慧,发现这个具有领域的局限性,人们一度觉得强人工智慧是不可能的。而强人工智慧也指通用人工智能(artificial general intelligence,AGI),或具备执行一般智慧行为的能力。[5]强人工智慧通常把人工智慧和意识、感性、知识和自觉等人类的特征互相连结。

因而,这样的具备意识的强人工智慧是否存在?目前模拟出简单的一个生物头已经不是不可能的事,一如化学技术累积发展下,现在许多研发药品已经使用计算机模型来推演药物效果,以减少受试动物的痛苦等。从前在使用电脑语言的时代,原先电脑被认为是不可能具备自我解决能力的,电脑只是看起来聪明,实质上还是按照设计好的规则行事,并不能应付突如其来的状况,仍旧会犯下错误,而近年来从电脑在摩尔定律神经科学研究的协助下,透过在电脑上对生物神经元系统复杂的电位冲动模拟上取得了明显的突破,使人工智慧越过发展中的坎——神经处理机制的发现,因为生物的独特是在于刺激与反应下会强化其回馈作用,这类能够透过试错学习经验并总结,以回应各种刺激的系统(例如玩多次网球游戏便能从生疏至熟巧),还能从每种回馈中又触发其他回路来升级改进思考结构,做出更复杂的精细反应(例如在对话中选择诚实、说谎、漠然之后考虑其不同行为的后果等),这样的仿生领域已经得到长足的进步,使人脑与AI的区别逐渐变得模糊;但是,在机器是否存在有自主“思想”上的议题,将还会一直是人们争辩的对象,特别是在智能理性与心理感性部分要如何区别、统合,更需要进一步引导其具有人性,来为人类提供最佳解,目前这些方法都还没有探索出来。在一些能够自动推理出最佳解的工具已经出现,如Google旗下的深思公司(DeepMind)在此领域进展最多,成功开发出了能解决任意问题的通用思考机器,他们将其类人脑神经程式称“人工通用智慧技术”,而“通用”一词就代表着这是一个可以透过自主“进化发展”的通用智慧。[6]

标准

[编辑]

人们提出过很多人工智能的定义(例如能够通过图灵测试),但是没有一个定义能够得到所有人的认同[7];然而,人工智能的研究者们普遍同意,以下特质是一个智能所必须要拥有的:[8]

还有一些重要的能力,包括机器知觉(例如计算机视觉),以及在智能行为的世界中行动的能力(例如机器人移动自身和其他物体的能力)。[9] 它可能包括探知与回避危险的能力。[10] 许多研究智能的交叉领域(例如认知科学机器智能决策)试图强调一些额外的特征,例如想象力(不依靠预设而建构精神影像与概念的能力)[11] 以及自主性[12] 基于计算机的系统中的确已经存在许多这样的能力,例如计算创造性英语computational creativity自动推理决策支持系统机器人进化计算智能代理,然而并未达到人类的水平。

检验强人工智能的操作性手段

[编辑]

一个强人工智能需要通过什么样的测试标准,科学家们有很多不同的想法,他们之中包括阿兰·图灵本·格策尔英语Ben Goertzel尼尔斯·尼尔森英语Nils John Nilsson,他们提出的测试包括:

图灵测试(图灵)

[编辑]
同人类交流的试验。

咖啡测试

[编辑]
生活中空间、操作技能的测试。将一部机器带到任何一个普通的美国家庭中,让它在不经刻意设计的条件下,懂得泡好一杯咖啡。它需要主动在陌生空间中认识咖啡机、辨识咖啡和水、找到合适的杯子并放好,然后按正确的键和操作以冲泡咖啡。这需要仰赖机器人学、图像辨识的演算。

机器人学生测试

[编辑]
透过机器学习,分析和回答单一问题的测试 。让一个机器去注册一所大学,参加和人类学生同样的考试,然后通过并获得学位。例如日本的东大AI或是IBM参加抢答节目的华生

雇员测试

[编辑]
测试统筹、推断、发想、规划解决复杂问题的能力。让机器处在一个经济上重要的职位,需要它能够和同样职位的人类做得同样好或者更好。

这些测试检测了一系列必要的特质,包括推理和学习能力。[13]

强人工智能需要解决的问题

[编辑]

人们将对于计算机来说最困难的问题,非正式地称为“人工智慧完备英语AI-complete”(AI-complete)或者“人工智能困难”(AI-hard)的,以此说明解决了这些计算性问题就相当于解决了人工智能的核心问题——让计算机和人类或者强人工智能一样聪明。[14] 将一个问题称为“人工智能完备的”,意味着它不能被一个简单的特定算法解决。

人们假定人工智能完备的问题包括计算机视觉自然语言理解,以及处理真实世界中的意外情况。[15]目前为止,人工智能完备的问题仍然不能单靠现代计算机技术解决,而是需要人类计算英语human computation。这一点在某些方面很有用,例如通过验证码来判别人类和机器,以及在计算机安全方面用于阻止暴力破解法[16][17]

人工智能研究的主流

[编辑]

强人工智能研究的主流历史

[编辑]

现代人工智能研究开始于1950年代中期。[18] 最早的一批人工智能研究者相信强人工智能不仅是可能的,而且将在几十年内出现。人工智能先驱司马贺在1965年写道:“在20年之内,机器就能够做到一个人能做到的任何事。”[19] 启发这一预言的是斯坦利·库布里克亚瑟·查理斯·克拉克创作的角色,HAL 9000。当时的人工智能研究者确信,能够在2001年制造出这样的机器。值得一提的是,人工智能先驱马文·闵斯基,在创作HAL 9000的工作中, [20] 他担任了尽量将其制作得与当时主流研究界预言一致的项目顾问;根据Crevier所引用他在1967年所说的话:“在一代人之内...制造‘人工智能’的问题就将被基本解决”。[21]

然而,到了1970年代早期,研究者们意识到他们远远低估了其中的困难。资助AI项目的机构开始对强人工智能产生怀疑,向研究者们施压要求他们转向更有用的技术,所谓的“应用AI”。[22] 在1980年代初,日本的第五代电脑开始重新对强人工智能恢复兴趣,制定的十年计划中包括一些强人工智能的目标,比如“进行日常对话”。[23] 同时,专家系统的成功和它一起促成了工业界和政府的资金重新开始注入这个领域。[24] 然而,人工智能的市场在1980年代晚期发生剧烈崩塌,而第五代计算机的目标从未实现。[25] 再一次,人工智能研究者们对于强人工智能即将到来的预言在20年之内被证明超出了他们的能力。结果到了1990年代,人工智能研究者背上了无法实现自己承诺的名声,他们拒绝再作出任何预言。[26] 并且避免提到任何“人类水平”的人工智能,以免被贴上“白日梦”的标签。[27]

今日的人工智能研究主流

[编辑]

在1990年代和21世纪初,主流的人工智能在商业成果和学术地位上已经达到了一个新高度,依靠的是专注于细分的专门问题的解决。他们可以提供许多方案和商业应用,例如人工神经网络机器视觉以及数据挖掘[28] 这些“应用人工智能”今天已经在工业技术和研究中得到广泛和深入应用,在学术和产业方面都得到了许多资助。

大多数主流的人工智能研究者希望,能够通过将解决局部问题的方法组合起来实现强人工智能,例如将智能体架构英语agent architecture认知架构或者包容式架构英语subsumption architecture整合起来。汉斯·莫拉维克在1988年写道:

"我相信,有一天人工智能的自下而上的研究路线,会与传统的自上而下的路线半途相遇,从而获得真实世界中的能力,以及对于推理程序来说极其困难的常识知识库。这两种方向结合在一起的时刻,会成为了产生真正智能机器的所谓“金钉子”。"[29]

然而,在人工智能研究者之间也存在一些争论,甚至涉及这个领域的哲学基础;例如,普林斯顿大学的S.Harnad在1990年关于符号基础假设的论文中这样写道:

"人们期待,模型认知的“自上而下的”(符号的)研究会在某个点上遇到“自下而上”(感觉的)研究。但是如果这篇文章有关落地的考虑是正确的,那么这个希望不会实现,只有一个可行从感觉到符号的路线,就是自下而上。一个独立的符号层面,就像计算机的软件层面,从不需要这样的路径来到达(反之亦然)——也不清楚我们为何要努力达到这样的层面,因为这个过程反而将我们的符号从固有的意义中连根拔起(于是仅仅是将我们化简为与可编程计算机功能上等价的东西)。"[30]

现代通用人工智能研究

[编辑]

“通用人工智能”这一术语于 1997 年被马克·古布鲁德在一次关于全自动军事生产于操作的研讨会中使用。大约在 2002 年,该术语被沙恩莱格和本·格策尔重新提及和推广。那些研究目标非常古老,例如如道格拉斯·莱纳特的 CYC 项目(始于 1984 年),以及艾伦·纽厄尔的 Soar 项目也被认为属于 AGI 的范畴。王培和本·格策尔将 2006 年的 AGI 研究活动描述为“创作出版物和早期的结果”。第一次 AGI 暑期学校于 2009 年,在中国厦门,厦门大学的人工大脑实验室和 OpenCog 所举办。在 2010 和 2011 年,保加利亚的普罗夫迪夫大学,托多尔·阿纳多夫开设了相关课程。MIT 在 2018 年开设了 AGI 的课程,由莱克斯·弗里德曼组织,以众多客座讲师为特色。但是,在当下,伴随着“智能”过于复杂以至于无法在短期内被完全复制的警告,大多数 AI 研究者仅在 AGI 投入少量精力。不过,仍然有一小批计算机科学家活跃在 AGI 研究以及 AGI 会议中,他们的研究形形色色并富有开拓性。格策尔在他书中的介绍中说到,实现真正灵活的 AGI 所需要的时间从 10 年到一个世纪不等,但是,看起来 AGI 社区中的共识是,雷蒙德·库茨魏尔在奇点迫近中讨论的时间表是可信的。

理论

[编辑]

“强人工智能”引发起一连串哲学争论,例如如果一台机器能完全理解语言并回答问题的机器是不是有思维。哲学家希尔勒认为不可能。

关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了著名的中文房间的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。

也有哲学家持不同的观点。丹尼尔·丹尼特(Daniel C. Dennett)在其著作《意识的阐释》(Consciousness Explained)里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。

参见

[编辑]

参考资料

[编辑]
  1. ^ (Kurzweil 2005,第260页) or see Advanced Human Intelligence页面存档备份,存于互联网档案馆) where he defines strong AI as "machine intelligence with the full range of human intelligence."
  2. ^ The Open University on Strong and Weak AI. [2013-09-22]. (原始内容存档于2009-09-25). 
  3. ^ AI创世纪, pp.68
  4. ^ Encyclopædia Britannica Strong AI, applied AI, and cognitive simulation页面存档备份,存于互联网档案馆) or Jack Copeland What is artificial intelligence?页面存档备份,存于互联网档案馆) on AlanTuring.net
  5. ^ Newell & Simon 1976. This the term they use for "human-level" intelligence in the physical symbol system hypothesis.
  6. ^ http://www.inside.com.tw/2016/02/21/the-superhero-of-artificial-intelligence-can-this-genius-keep-it-in-check页面存档备份,存于互联网档案馆) 人工智慧有多恐怖?听听“天才”Demis Hassabis 怎么说!
  7. ^ AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent." McCarthy, John. Basic Questions. Stanford University. 2007 [2016-03-03]. (原始内容存档于2019-02-15).  (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
  8. ^ This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  9. ^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  10. ^ White, R. W. (1959). Motivation reconsidered: The concept of competence. Psychological Review, 66, 297-333
  11. ^ Johnson 1987
  12. ^ deCharms, R. (1968). Personal causation. New York: Academic Press.
  13. ^ Muehlhauser, Luke. What is AGI?. Machine Intelligence Research Institute. [1 May 2014]. (原始内容存档于2019-01-04). 
  14. ^ Shapiro, Stuart C. (1992). Artificial Intelligence页面存档备份,存于互联网档案馆) In Stuart C. Shapiro (Ed.), Encyclopedia of Artificial Intelligence (Second Edition, pp. 54–57). New York: John Wiley. (Section 4 is on "AI-Complete Tasks".)
  15. ^ Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness . In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3-17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf页面存档备份,存于互联网档案馆
  16. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security页面存档备份,存于互联网档案馆). In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294-311.
  17. ^ Bergmair, Richard. Natural Language Steganography and an "AI-complete" Security Primitive. January 7, 2006. CiteSeerX: 10.1.1.105.129可免费查阅.  (unpublished?)
  18. ^ Crevier 1993,第48–50页
  19. ^ Simon 1965,第96页 quoted in Crevier 1993,第109页
  20. ^ Scientist on the Set: An Interview with Marvin Minsky. [2016-03-04]. (原始内容存档于2012-07-16). 
  21. ^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993,第109页).
  22. ^ The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England. (Lighthill 1973; Howe 1994) In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research". See (NRC 1999) under "Shift to Applied Research Increases Investment". See also (Crevier 1993,第115–117页) and (Russell & Norvig 2003,第21–22页)
  23. ^ Crevier 1993,第211页, Russell & Norvig 2003,第24页 and see also Feigenbaum & McCorduck 1983
  24. ^ Crevier 1993,第161–162,197–203,240页; Russell & Norvig 2003,第25页; NRC 1999,under "Shift to Applied Research Increases Investment"
  25. ^ Crevier 1993,第209–212页
  26. ^ As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case." McCarthy, John. Reply to Lighthill. Stanford University. 2000 [2016-03-04]. (原始内容存档于2008-09-30). 
  27. ^ "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers."Markoff, John. Behind Artificial Intelligence, a Squadron of Bright Real People. The New York Times. 2005-10-14 [2007-07-30]. 
  28. ^ Russell & Norvig 2003,第25–26页
  29. ^ Moravec 1988,第20页
  30. ^ Harnad, S. (1990) The Symbol Grounding Problem. Physica D 42: 335-346.