技术奇点
此条目需要补充更多来源。 (2012年6月12日) |
未来学 |
---|
概念 |
工具 |
科技评估及预测 |
技术奇点(英语:Technological Singularity),出自奇点理论;根据技术发展史总结出的观点,认为人类正在接近一个使得现有技术被完全抛弃或者人类文明被完全颠覆的事件点,在这个事件点以后的事件就像黑洞的事件视界一样完全无法预测。例如,意识上传技术可能使人类的意识摆脱有机体的约束,在这个奇点之后的人类文明将发展到当今完全无法理解的水准。
一般设想技术奇异点将由超越现今人类并且可以自我进化的机器智能、或者其它形式的超级智能的出现所引发。由于其智能远超今天的人类,因此技术的发展会完全超乎全人类的理解能力,甚至无法预测其发生。
之所以被称为奇异点,因为它是一个临界点。当我们越来越接近这个临界点,它会对人类的事物产生越来越大的影响,直到它成为人类的共识。但当它最终来临的时候,也许仍会出人意料并且难以想象。就好比物理学上引力无穷大时产生的黑洞的物理属性一样,已经不在一般正常模型所能预测的范围之内。
一些研究指出,当今全球范围内创新的速率正在趋缓,而非加速。许布纳(英语:Jonathan Huebner)在2005年指出,根据美国专利数和世界科技突破的状况来看,人类科技创新的速率在1873年达到顶峰,之后便开始趋缓。[1][2]在他的文章当中,他曾问道:“科技(创新的)程度将会达到顶峰然后跌落到黑暗时代(的水准)?”[1]在之后于《新科学人》的评论中,许布纳提到说尽管他相信在2024年,科技创新的频率会跌落到黑暗时代的水准,但这不表示他认为黑暗时代将会再次到来。[3]尽管一些人质疑许布纳创新速率正在下降的观点,并认为科技创新的速率实际上是在加快的,但许布纳的观点获得一些其他资料的支持。美国专利局在2010年的资料支持许布纳的观点;[4]一篇2012年的研究也支持许布纳的观点。[5]这表示现代社会没有接近科技奇异点的迹象。
智能与创造力的大爆炸
[编辑]“ | 我们的未来不再是经历进化,而是要经历爆炸。
|
” |
最早意识到人类技术发展速度加快的是波兰数学家斯塔尼斯拉夫·乌拉姆,于1958年和计算机科学家冯·诺伊曼的一次对话中。而统计学家欧文·约翰·古德于1965年提出技术奇异点的必要条件──“智能爆炸”概念:
“ | 让我们将超级智能机器定义为一种能够远远超过任何人的所有智力活动的机器。如果说设计机器是这些智力活动的一种,那么超级智能机器肯定能够设计出更加优良的机器;
毫无疑问,随后必将出现一场“智能爆炸”,人类的智能会被远远抛在后面。因此,第一台超级智能机器是人类需要完成的最后一项发明,前提是这台机器足够听话,会告诉我们如何控制它。…… 在二十世纪之内,超级智能机器将很有可能被制造出来,而它会是人类需要进行的最后一项发明。 |
” |
1982年,弗诺·文奇在卡内基梅隆大学召开的美国人工智能协会年会上首次提出“技术奇异点”这一概念。1993年,弗诺·文奇在美国国家航空航天局路易斯研究中心举行的一次讨论会上发表了论文《技术奇异点即将来临:后人类时代生存指南》(The Coming Technological Singularity)再次简述了这个观点,论文同年刊载于《全地球评论》(Whole Earth Review)杂志上。在这篇论文中,弗诺·文奇系统地阐述了自己的“技术奇异点”的理论,并声称超越人类智能的计算器将在50年之内问世,并把这次变化好比200万年以前人类的出现一样重大。
1999年,美国哲学家,麻省理工学院博士瑞·库茨维尔发表的《心灵机器时代 —当电脑超越人脑》(The Age of Spiritual machines)一书,阐明了未来互联网将把全人类乃至其他生命和非生命体汇集成一个完整意识体的概念,在美国学术界激起一片浪潮。2001年,他提出摩尔定律的扩展定理,即库茨维尔定理(Kurzweil's Law of Accelerated Return)。该定理指出,人类出现以来所有技术发展都是以指数增长。也就是说,一开始技术发展是小的,但是一旦信息和经验积累到一定的基础,发展开始快速增长,以指数的形式,然后是以指数的指数形式增长。瑞·库茨维尔将同样的概念引入到生物进化和宇宙诞生以来的变化里,并导出了同样的指数增长的公式。根据数学模型,在未来的某个时间内,技术发展将接近于无限大。2005年,瑞·库茨维尔发表了500多页的巨著《奇点迫近》,再次系统的介绍了这个概念的数学模型、基因工程的发展、纳米技术的展望和超越光速的可能性,该书成为美国网络书店亚马逊上2005年科普十大畅销书之一,同时成为网上博客热谈的一个话题之一。
加速度发展
[编辑]一些技术奇异点的拥护者依据对历史数据的总结与归纳得出技术奇异点必将不可避免的到来的结论。波兰数学家斯塔尼斯拉夫·乌拉姆于1945年和计算机科学家冯·诺伊曼的一次关于科技加速度发展的对话[6]中第一次把“奇异点”这个词置于科技发展的上下文里:
“ | 我们的对话集中讨论了不断加速的科技进步,以及其对人类生活模式带来的改变,这些发展及改变,似乎把人类带到了一个可以被称之为人类历史的奇异点的阶段,在这个阶段过后,我们目前所熟知的人类的社会、艺术和生活模式,将不复存在。 | ” |
与此同时,中国科学家李四光在他的短文《人类的出现》[7]里写到:
“ | 人类文化的发展,经过新人阶段的旧石器时代晚期以后,先后进入新石器时代及金属时代。愈到后来发展愈为迅猛。从新石器时代的开始到现在至多不过一万年左右,金属时代的开始到现在不过数千年,人们开始利用电能到现在不过一百多年,原子能的利用则仅是最近几十年的事;而新石器时代以前的发展阶段,则动辄以数十万年到千百万年计。由此可见,人类的发展不是等速度运动,而是类似一种加速度运动,即愈到后来前进的速度愈是成倍地增加。 | ” |
大部分人用电脑只是十多年,而使用互联网的时间更加短,而使用智能手机的时间更只是数年。
霍金认为使世界产生不可逆转的范式转移发生的频率越来越高,速度越来越快[8]。作为例子,霍金指出从现代数学的发现到计算机的发明所用的时间远小于从文字被发明到现代数学被发现所用的时间。
瑞·库茨维尔对于科技历史所做出的分析让他得出了关于科技的增长以几何级数进行的结论,他把这个结论称作“加速度回报定律”。这个定律把摩尔定律扩展到了许多积体电路科技以外的科技领域中去。
发生时间与可能性
[编辑]大部分相信这个理论的科学家认为这件事情将会在2005年到2100年之间发生。发展会非常迅速,以至大部分人还没有意识到事件就已经发生了。
发生的可能途径
[编辑]- 某种先进的电脑也许会“苏醒”,并拥有超人智能。
- 大型电脑网络(以及和网络相连的用户)也可能“苏醒”过来,成为超人智能的实体。
- 人类与计算机结合使操纵计算机的用户可能被视为超人智能实体,也就是“智能扩大”。
- 生物科学将有可能大大提升人类的智能。
来临的条件
[编辑]技术奇异点来临的条件是超级智能的产生。超级智能产生方式可能是人工智能(AI)和智能扩大(IA)。
智能扩大的发展方向
[编辑]- 人机小组自动化控制。
- 用于艺术创作的人机共同体。
- 允许人机联合团队参加棋类比赛。
- 发展不需要人类待在某个固定的地方才能使用的人机界面和网络接口。
- 发展更对称的决策系统。
- 利用本地网络让人类小组更高效地工作。
- 开发世界性的互联网,使其成为人机结合的工具。
技术奇异点的前景——强人工智能
[编辑]弱人工智能的特点:依靠快速思维取胜的超级智能。
强人工智能的特点:通过不同带宽交流的能力,包括高于语言和文字信息的交流方式。
可能阻止技术奇异点来临的因素
[编辑]- 大规模的灾难,最可能发生的是国家之间相互毁灭的核战。
- 无论计算机硬件发展到多么先进的程度,我们都无法让其“苏醒”。
- 我们大大低估了人类大脑的计算能力,这将使得计算机超越人脑的时间大大延迟。
- 艺术对于人类的阻碍,以及人类的艺术不能让机器人明白。反对者认为技术发展到一定的时候会停止下来。但是,瑞·库茨维尔强调:范式转移会用更大、更优良的方法解决以往技术无法跨越的门槛。他更强调思维转换发生的时间间隔越来越短,同时会越来越频繁。
数学模型的现实解释
[编辑]在数学模型到达奇异点的意义可以通过进化模式阶梯(Evolutionary Paradigm Hierarchy)来解释。这个阶梯强调数学是最宏观的集合,而物理是数学的一个子集,而化学则是物理的一个子集,生物则是化学的子集,生物圈则是生物的子集。接下来,人类不同地区的文化是生物圈定义出的子集,而政治又是以文化为基础指法规,最后人类的经济活动是由政府的法规所规定。
这个阶梯强调从宇宙诞生以来,筛选就不断的进行,能量首先以三维空间的形式出现,定义了宇宙的数学基础,而万有引力、强相互作用、弱相互作用、电磁力,还有其他未知的物理常数在三维空间的基础上定义了能量在宇宙中的物理属性,而通过这些物理属性,产生了一百多种元素,而在这些元素中,只有少数几种像碳原子这样的原子构造了生物学,在几亿年的生物进化中才造就出人类。又由于每个人类文明所处在的生物圈不同,从而产生了不同的文化和技术进步的速度。而人类的技术进步速度增快的意义则是人对这个阶梯上越来越宏观集合上的掌握。第一步是发现更为宏观项上基本定理,即牛顿的万有引力、达尔文的进化论,第二步是开始有足够的实力去改变自然界原有的定理。所以,可以把人类历史的发展看成是发现的时代和创造跟改变的时代两阶段。自工业革命以来,我们其实已经进入第二个阶段。
该理论的有趣论证是,在一定的时间内有些事情一定会发生。也就是说,人类或早或晚都会发现基本的定理,不管是否由历史上已经出现的伟人们完成。进入第二个阶段以后,发现仍然继续,但是发明创造成为更为重要的活动。而发明的总的步伐会是倒着往回爬阶梯。在后工业时代,人类已经基本上征服和控制生物圈,甚至已经在破坏,全球暖化就是非常好的例子。接下来,人类或人类发明的机器逐渐掌控生物本身,基因科学的发展成为一个很好的例子,然后是化学、物理和数学。最后,人类的技术有可能突破到三维空间以外的地方以其他的方式表达能量的存在。甚至,能量本身是否作为最基本的表现形式也值得怀疑,可能能量本身也是某些东西的一种表现形式而已。但是阶梯的概念描述了未来人类的发展方向、技术在人类生活中扮演越来越重要的角色,以及每一次控制能力升级以后所带来极大的对更小子集掌控与优化。
事件的意义与影响
[编辑]如果必定发生,技术奇点的意义将非常深远。人类与宇宙的关系似乎要重新定义。如果技术奇点发生,那么一些科学幻想中的技术像人脑意识的数字化,无限的生命,甚至超越光速都将成为现实。人类智能将以光速速度在宇宙中殖民和扩散开来,直到充满整个宇宙。瑞·库茨维尔强调人类将和机器融合,而机器部分将在2150年左右达到现代人类智能的几十亿倍以上。
对外星人的推测
[编辑]如果宇宙中大部分适合生命居住的星球产生了类似人类智能的环境,大都应该在很短的时间内达到技术奇点。那么,人类先寻找外星人似乎是徒劳无功的。因为到达技术奇点以后,人类所创造的智能已经能够了解到宇宙的全部可能性,寻找外星人似乎变得没有意义。
关于时间
[编辑]如果把技术描述成一种不断突破各种世界中存在的限制的机制的话,而接近最顶端的数学限制又是建立在逻辑基础之上,那么逻辑本身也就是一种限制。也就是说时间本身也是一种限制。如果,能够突破时间的逻辑限制,那么我们应该生活在未来人类创造的世界里。话说回来,我们是未来人类的始祖,但是未来人类又是我们的创造者。或者说,最初制造宇宙大爆炸的前因和突破时间限制而可以看到过去、现在和将来所有可能的未来无限技术进步的智能是同一个人,或者说我们无法区分开来他们。有趣的是,如果时间机器确实在未来被制造出来,我们为什么无法在现在遇见他们?这是霍金已经提出过的问题。但是,事实上,如果技术奇异点发生,那么未来人类早在宇宙诞生时就在观察宇宙的进化。他们无须也没有兴趣去看望某一个时段的人类。因为一切像剧本一样被事先排列好了。而我们现在的存在则证明了技术奇异点在未来发生。甚至可以说,未来的人类为了屏蔽与古代智能的交流而制造了时间,而时间在任何的参照系中都不能看到未来,从而躲避古代人类的追问。所以,我们甚至可以说,我们自己就是未来智能所创造的活化石。
技术奇点的出现似乎预测时间将会终止。在技术奇点到来前的几秒钟时间内,所有可发现的东西都将被发现和利用。无限接近技术奇点的时候,似乎所有能够用来调动的能量将被调用完。以计算机自动机理论的论点来说,这个智能可能会控制所有能量的变换,停止计算。但可能仍然在高维空间计算能量变化。甚至在无理数维度上计算能量,所以时间仍然在某些空间中运行。通过这个观点,可以把宇宙想象成一个能量逐渐被整理成绝对优化的一个过程。
社团组织
[编辑]目前全世界最权威的两家技术奇异点研究中心Singularity Institute for Artificial Intelligence和Acceleration Studies Foundation都设在美国。Singularity Institute for Artificial Intelligence于2000年宣告成立,吸收了瑞·库茨维尔为荣誉会长,目标是研制出第一个种子人工智能(递归自我完善/Seed AI)。而全世界第一次技术奇异点会议于2006年5月于斯坦福大学举行。
批评
[编辑]技术奇异点的论证并非严密。仅仅从电脑技术正在加速度发展,就得出技术奇异点的发生,推理上不严密。
事实上,不少技术领域已经长期处于技术瓶颈难以突破,并不能持续指数增长,例如民用核聚变发电站、常温超导体、高能量密度且安全的电池技术……。在理论方面,超越标准模型的物理理论与实验不符,已令相关研究陷入困难。此外,一些新技术虽然是很厉害的创新,但因为不符合经济适用原则反而被淘汰,如超音速客机、航天飞机等。
《经济学人》曾嘲笑技术奇异点这个概念:按照这个说法,因为剃须刀的刀头在历史上数量不断增多,那么最终,剃须刀的刀头数量会增加到无穷多个。[9]
注脚
[编辑]- ^ 1.0 1.1 Huebner, J. A possible declining trend for worldwide innovation. Technological Forecasting and Social Change. 2005, 72 (8): 980–986 [2019-11-13]. doi:10.1016/j.techfore.2005.01.003. (原始内容存档于2020-10-27).
- ^ Hayden, Thomas. Science: Wanna be an inventor? Don't bother. U.S. News & World Report. 7 July 2005 [10 June 2013]. (原始内容存档于2013-11-01).
- ^ Adler, Robert. Entering a dark age of innovation. New Scientist. 2 July 2005 [30 May 2013]. (原始内容存档于2015-04-27).
- ^ Strumsky, D.; Lobo, J.; Tainter, J. A. Complexity and the productivity of innovation. Systems Research and Behavioral Science. 2010, 27 (5): 496. doi:10.1002/sres.1057.
- ^ Gordon, Robert J. Is U.S. Economic Growth Over? Faltering Innovation Confronts the Six Headwinds. NBER Working Paper No. 18315. 2012. doi:10.3386/w18315.
- ^ Ulam, Stanislaw (May 1958), "Tribute to John von Neumann", Bulletin of the American Mathematical Society 64(nr 3, part 2): 1-49
- ^ 李四光,《人类的出现》,节选自《天文、地质、古生物资料摘要》,高级中学课本──语文,第二册,第216-217页,人民教育出版社,1995年6月第2版,1996年10月第1次印刷,ISBN7-107-01134-0/G·2401(课)
- ^ Hawkins, Gerald S.(1983), Mindsteps to the Cosmos, HarperCollins
- ^ Anonymous, More blades good, The Economist 378 (8469) (London), 18 March 2006: 85 [2015-08-28], (原始内容存档于2006-07-10)
参考文献
[编辑]- 《The Coming Technological Singularity》,弗诺·文奇,1993,出自《Whole Earth Review》。
- 《弗诺·文奇的幻想世界》,Mick,出自《科幻世界译文版》,2008.11下半月版,104-108页。
- 《弗诺·文奇访谈》,Mick,出自《科幻世界译文版》,2008.11下半月版,118-120页。
- 《技术奇异点即将来临:后人类时代生存指南》,弗诺·文奇,出自《科幻世界译文版》,2008.11下半月版,124-130页。
- 科技想要什么
- Acceleration Studies Foundation, ASF: About the Foundation, 2007 [2007-11-13], (原始内容存档于2008-12-26)
- Anonymous, More blades good, The Economist 378 (8469) (London), 18 March 2006: 85 [2015-08-28], (原始内容存档于2006-07-10)
- Bell, James John, Technotopia and the Death of Nature: Clones, Supercomputers, and Robots, Earth Island Journal (first published in the November/December 2001 issue of the Earth First! Journal), 2002 [2007-08-07], (原始内容存档于2018-07-27)
- Bell, James John, Exploring The "Singularity", The Futurist (World Future Society (mindfully.org)), 1 May 2003 [2007-08-07], (原始内容存档于2007-08-10)
- Berglas, Anthony, Artificial Intelligence will Kill our Grandchildren, 2008 [2008-06-13], (原始内容存档于2014-07-23)
- Broderick, Damien, The Spike: How Our Lives Are Being Transformed by Rapidly Advancing Technologies, New York: Forge, 2001, ISBN 0-312-87781-1
- Bostrom, Nick, Existential Risks, Journal of Evolution and Technology, 2002, 9 [2007-08-07], (原始内容存档于2011-04-27)
- Bostrom, Nick, Ethical Issues in Advanced Artificial Intelligence, Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, 2003, 2: 12–17 [2007-08-07], (原始内容存档于2018-10-08)
- Dreyfus, Hubert L.; Dreyfus, Stuart E., Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer 1, New York: Free Press, 1 March 2000, ISBN 0-7432-0551-0
- Ford, Martin, The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future, CreateSpace, 2009 [2020-10-11], ISBN 978-1-4486-5981-4, (原始内容存档于2010-09-06).
- Good, I. J., Franz L. Alt and Morris Rubinoff , 编, Speculations Concerning the First Ultraintelligent Machine, Advances in Computers, Advances in Computers (Academic Press), 1965, 6: 31–88 [2007-08-07], ISBN 9780120121069, doi:10.1016/S0065-2458(08)60418-0, (原始内容存档于2001-05-27)
- Hanson, Robin, Some Skepticism, Robin Hanson, 1998 [2009-06-19], (原始内容存档于2009-08-28)
- Hanson, Robin, Economics of the Singularity, IEEE Spectrum, June 2008
- Hawking, Stephen, Science in the Next Millennium: Remarks by Stephen Hawking, 1998 [2007-11-13], (原始内容存档于2009-06-29)
- Hawkins, Gerald S., Mindsteps to the Cosmos, HarperCollins, August 1983, ISBN 0-06-015156-0
- Heylighen, Francis, Accelerating Socio-Technological Evolution: from ephemeralization and stigmergy to the global brain (PDF), Modelski, G.; Devezas, T.; Thompson, W. (编), Globalization as an Evolutionary Process: Modeling Global Change, London: Routledge, 2007 [2015-08-28], ISBN 978-0-415-77361-4, (原始内容存档 (PDF)于2021-02-24)
- Hibbard, Bill. Ethical Artificial Intelligence. 5 November 2014. arXiv:1411.1373 [cs.AI].
- Johansen, Anders; Sornette, Didier, Finite-time singularity in the dynamics of the world population, economic and financial indices (PDF), Physica A 294 (3–4), 25 January 2001, 294 (3–4): 465–502 [2007-10-30], Bibcode:2001PhyA..294..465J, arXiv:cond-mat/0002075 , doi:10.1016/S0378-4371(01)00105-4, (原始内容 (PDF)存档于2007-11-29)
- Joy, Bill, Why the future doesn't need us, Wired Magazine (Viking Adult), April 2000, (8.04) [2007-08-07], ISBN 0-670-03249-2, (原始内容存档于2014-03-21)
- Kurzweil, Raymond, The Law of Accelerating Returns, Nature Physics (Lifeboat Foundation), 2001, 4 (7): 507 [2007-08-07], Bibcode:2008NatPh...4..507B, doi:10.1038/nphys1010, (原始内容存档于2018-08-27)
- Kurzweil, Raymond, The Singularity Is Near, New York: Viking, 2005, ISBN 0-670-03384-7
- Moravec, Hans, Pigs in Cyberspace, On the Cosmology and Ecology of Cyberspace, January 1992 [2007-11-21], (原始内容存档于2021-02-24)
- Mahmud, Ashik, Post/Human Beings & Techno-salvation: Exploring Artificial Intelligence in Selected Science Fictions, Socrates Journal, June 2015 [2015-06-26], doi:10.7910/DVN/VAELLN, (原始内容存档于2015-06-26)
- Schmidhuber, Jürgen. New Millennium AI and the Convergence of History. 29 June 2006. arXiv:cs/0606081
|class=
被忽略 (帮助). - Singularity Institute for Artificial Intelligence, Why Artificial Intelligence?, 2002, (原始内容存档于2006-10-04)
- Singularity Institute for Artificial Intelligence, 3 Laws Unsafe, 2004 [2007-08-07], (原始内容存档于2011-03-23)
- Singularity Institute for Artificial Intelligence, What is the Singularity?, 2007 [2008-01-04], (原始内容存档于2007-12-30)
- Smart, John, On Huebner Innovation, Acceleration Studies Foundation, September 2005 [2007-08-07], (原始内容存档于2006-06-16)
- Ulam, Stanislaw, Tribute to John von Neumann, Bulletin of the American Mathematical Society, May 1958, 64 (nr 3, part 2): 1–49, doi:10.1090/S0002-9904-1958-10189-5
- Vinge, Vernor, The Coming Technological Singularity, Vision-21: Interdisciplinary Science & Engineering in the Era of CyberSpace, proceedings of a Symposium held at NASA Lewis Research Center (NASA Conference Publication CP-10129), 30–31 March 1993 [2007-08-07], (原始内容存档于2007-01-01). See also this HTML version (页面存档备份,存于互联网档案馆), retrieved on 2009-03-29.
- Warwick, Kevin, March of The Machines, University of Illinois Press, 2004, ISBN 978-0-252-07223-9
延伸阅读
[编辑]- Marcus, Gary, "Am I Human?: Researchers need new ways to distinguish artificial intelligence from the natural kind", Scientific American, vol. 316, no. 3 (March 2017), pp. 58–63. Multiple tests of artificial-intelligence efficacy are needed because, "just as there is no single test of athletic prowess, there cannot be one ultimate test of intelligence." One such test, a "Construction Challenge", would test perception and physical action—"two important elements of intelligent behavior that were entirely absent from the original Turing test." Another proposal has been to give machines the same standardized tests of science and other disciplines that schoolchildren take. A so far insuperable stumbling block to artificial intelligence is an incapacity for reliable disambiguation. "[V]irtually every sentence [that people generate] is ambiguous, often in multiple ways." A prominent example is known as the "pronoun disambiguation problem": a machine has no way of determining to whom or what a pronoun in a sentence—such as "he", "she" or "it"—refers.
- Scaruffi, Piero, "Intelligence is not Artificial" (2016) for a critique of the singularity movement and its similarities to religious cults.
- da Silva, Wilson, "Tipping Point?" (页面存档备份,存于互联网档案馆) (2009) for an essay on the singularity movement and its scientific validity.
相关
[编辑]外部链接
[编辑]- Intelligence Explosion FAQ (页面存档备份,存于互联网档案馆) by the Machine Intelligence Research Institute
- Blog on bootstrapping artificial intelligence (页面存档备份,存于互联网档案馆) by Jacques Pitrat
- Why an Intelligence Explosion is Probable (Mar 2011)
- Why an Intelligence Explosion is Impossible (页面存档备份,存于互联网档案馆) (Nov 2017)