跳至內容

通用人工智能

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書
通用人工智能
假想技術、​智慧類型
上級分類人工智能模型、​智力 編輯
所屬實體strong AI and weak AI 編輯
話題方面智能代理 編輯
簡稱AGI 編輯
相對概念弱人工智能 編輯

強人工智能(英語:strong AI)或通用人工智能artificial general intelligenceAGI)是具備與人類同等智能、或超越人類的人工智能,能表現正常人類所具有的所有智能行為。[1]

概述

[編輯]

強人工智能是人工智能研究的主要目標之一,同時也是科幻小說未來學家所討論的主要議題。相對的,弱人工智能(applied AI,narrow AI,weak AI[2], artificial narrow intelligence, ANI[3])只處理特定的問題[4]弱人工智能不需要具有人類完整的認知能力,甚至是完全不具有人類所擁有的感官認知能力,只要設計得看起來像有智能就可以了。由於過去的智能程式多是弱人工智能,發現這個具有領域的侷限性,人們一度覺得強人工智能是不可能的。而強人工智能也指通用人工智能(artificial general intelligence,AGI),或具備執行一般智能行為的能力。[5]強人工智能通常把人工智能和意識、感性、知識和自覺等人類的特徵互相連結。

因而,這樣的具備意識的強人工智能是否存在?目前模擬出簡單的一個生物頭已經不是不可能的事,一如化學技術累積發展下,現在許多研發藥品已經使用計算機模型來推演藥物效果,以減少受試動物的痛苦等。從前在使用電腦語言的時代,原先電腦被認為是不可能具備自我解決能力的,電腦只是看起來聰明,實質上還是按照設計好的規則行事,並不能應付突如其來的狀況,仍舊會犯下錯誤,而近年來從電腦在摩爾定律神經科學研究的協助下,透過在電腦上對生物神經元系統複雜的電位衝動模擬上取得了明顯的突破,使人工智能越過發展中的坎——神經處理機制的發現,因為生物的獨特是在於刺激與反應下會強化其反饋作用,這類能夠透過試錯學習經驗並總結,以回應各種刺激的系統(例如玩多次網球遊戲便能從生疏至熟巧),還能從每種反饋中又觸發其他迴路來升級改進思考結構,做出更複雜的精細反應(例如在對話中選擇誠實、說謊、漠然之後考慮其不同行為的後果等),這樣的仿生領域已經得到長足的進步,使人腦與AI的區別逐漸變得模糊;但是,在機器是否存在有自主「思想」上的議題,將還會一直是人們爭辯的對象,特別是在智能理性與心理感性部分要如何區別、統合,更需要進一步引導其具有人性,來為人類提供最佳解,目前這些方法都還沒有探索出來。在一些能夠自動推理出最佳解的工具已經出現,如Google旗下的深思公司(DeepMind)在此領域進展最多,成功開發出了能解決任意問題的通用思考機器,他們將其類人腦神經程式稱「人工通用智能技術」,而「通用」一詞就代表着這是一個可以透過自主「進化發展」的通用智能。[6]

標準

[編輯]

人們提出過很多人工智能的定義(例如能夠通過圖靈測試),但是沒有一個定義能夠得到所有人的認同[7];然而,人工智能的研究者們普遍同意,以下特質是一個智能所必須要擁有的:[8]

還有一些重要的能力,包括機器知覺(例如電腦視覺),以及在智能行為的世界中行動的能力(例如機械人移動自身和其他物體的能力)。[9] 它可能包括探知與迴避危險的能力。[10] 許多研究智能的交叉領域(例如認知科學機器智能決策)試圖強調一些額外的特徵,例如想像力(不依靠預設而建構精神影像與概念的能力)[11] 以及自主性[12] 基於電腦的系統中的確已經存在許多這樣的能力,例如計算創造性英語computational creativity自動推理決策支援系統機械人進化計算智能代理,然而並未達到人類的水平。

檢驗強人工智能的操作性手段

[編輯]

一個強人工智能需要通過什麼樣的測試標準,科學家們有很多不同的想法,他們之中包括阿蘭·圖靈本·格策爾英語Ben Goertzel尼爾斯·尼爾森英語Nils John Nilsson,他們提出的測試包括:

圖靈測試(圖靈)

[編輯]
同人類交流的試驗。

咖啡測試

[編輯]
生活中空間、操作技能的測試。將一部機器帶到任何一個普通的美國家庭中,讓它在不經刻意設計的條件下,懂得泡好一杯咖啡。它需要主動在陌生空間中認識咖啡機、辨識咖啡和水、找到合適的杯子並放好,然後按正確的鍵和操作以沖泡咖啡。這需要仰賴機械人學、圖像辨識的演算。

機械人學生測試

[編輯]
透過機器學習,分析和回答單一問題的測試 。讓一個機器去註冊一所大學,參加和人類學生同樣的考試,然後通過並獲得學位。例如日本的東大AI或是IBM參加搶答節目的華生

僱員測試

[編輯]
測試統籌、推斷、發想、規劃解決複雜問題的能力。讓機器處在一個經濟上重要的職位,需要它能夠和同樣職位的人類做得同樣好或者更好。

這些測試檢測了一系列必要的特質,包括推理和學習能力。[13]

強人工智能需要解決的問題

[編輯]

人們將對於電腦來說最困難的問題,非正式地稱為「人工智能完備英語AI-complete」(AI-complete)或者「人工智能困難」(AI-hard)的,以此說明解決了這些計算性問題就相當於解決了人工智能的核心問題——讓電腦和人類或者強人工智能一樣聰明。[14] 將一個問題稱為「人工智能完備的」,意味着它不能被一個簡單的特定演算法解決。

人們假定人工智能完備的問題包括電腦視覺自然語言理解,以及處理真實世界中的意外情況。[15]目前為止,人工智能完備的問題仍然不能單靠現代電腦技術解決,而是需要人類計算英語human computation。這一點在某些方面很有用,例如通過驗證碼來判別人類和機器,以及在電腦安全方面用於阻止暴力破解法[16][17]

人工智能研究的主流

[編輯]

強人工智能研究的主流歷史

[編輯]

現代人工智能研究開始於1950年代中期。[18] 最早的一批人工智能研究者相信強人工智能不僅是可能的,而且將在幾十年內出現。人工智能先驅司馬賀在1965年寫道:「在20年之內,機器就能夠做到一個人能做到的任何事。」[19] 啟發這一預言的是斯坦利·庫布里克亞瑟·查理斯·克拉克創作的角色,HAL 9000。當時的人工智能研究者確信,能夠在2001年製造出這樣的機器。值得一提的是,人工智能先驅馬文·閔斯基,在創作HAL 9000的工作中, [20] 他擔任了儘量將其製作得與當時主流研究界預言一致的專案顧問;根據Crevier所參照他在1967年所說的話:「在一代人之內...製造『人工智能』的問題就將被基本解決」。[21]

然而,到了1970年代早期,研究者們意識到他們遠遠低估了其中的困難。資助AI專案的機構開始對強人工智能產生懷疑,向研究者們施壓要求他們轉向更有用的技術,所謂的「應用AI」。[22] 在1980年代初,日本的第五代電腦開始重新對強人工智能恢復興趣,制定的十年計劃中包括一些強人工智能的目標,比如「進行日常對話」。[23] 同時,專家系統的成功和它一起促成了工業界和政府的資金重新開始注入這個領域。[24] 然而,人工智能的市場在1980年代晚期發生劇烈崩塌,而第五代電腦的目標從未實現。[25] 再一次,人工智能研究者們對於強人工智能即將到來的預言在20年之內被證明超出了他們的能力。結果到了1990年代,人工智能研究者背上了無法實現自己承諾的名聲,他們拒絕再作出任何預言。[26] 並且避免提到任何「人類水平」的人工智能,以免被貼上「白日夢」的標籤。[27]

今日的人工智能研究主流

[編輯]

在1990年代和21世紀初,主流的人工智能在商業成果和學術地位上已經達到了一個新高度,依靠的是專注於細分的專門問題的解決。他們可以提供許多方案和商業應用,例如類神經網絡機器視覺以及數據探勘[28] 這些「應用人工智能」今天已經在工業技術和研究中得到廣泛和深入應用,在學術和產業方面都得到了許多資助。

大多數主流的人工智能研究者希望,能夠通過將解決局部問題的方法組合起來實現強人工智能,例如將智能體架構英語agent architecture認知架構或者包容式架構英語subsumption architecture整合起來。漢斯·莫拉維克在1988年寫道:

"我相信,有一天人工智能的自下而上的研究路線,會與傳統的自上而下的路線半途相遇,從而獲得真實世界中的能力,以及對於推理程式來說極其困難的常識知識庫。這兩種方向結合在一起的時刻,會成為了產生真正智能機器的所謂「金釘子」。"[29]

然而,在人工智能研究者之間也存在一些爭論,甚至涉及這個領域的哲學基礎;例如,普林斯頓大學的S.Harnad在1990年關於符號基礎假設的論文中這樣寫道:

"人們期待,模型認知的「自上而下的」(符號的)研究會在某個點上遇到「自下而上」(感覺的)研究。但是如果這篇文章有關落地的考慮是正確的,那麼這個希望不會實現,只有一個可行從感覺到符號的路線,就是自下而上。一個獨立的符號層面,就像電腦的軟件層面,從不需要這樣的路徑來到達(反之亦然)——也不清楚我們為何要努力達到這樣的層面,因為這個過程反而將我們的符號從原生的意義中連根拔起(於是僅僅是將我們化簡為與可程式化電腦功能上等價的東西)。"[30]

現代通用人工智能研究

[編輯]

「通用人工智能」這一術語於 1997 年被馬克·古布魯德在一次關於全自動軍事生產於操作的研討會中使用。大約在 2002 年,該術語被沙恩萊格和本·格策爾重新提及和推廣。那些研究目標非常古老,例如如道格拉斯·萊納特的 CYC 專案(始於 1984 年),以及艾倫·紐厄爾的 Soar 專案也被認為屬於 AGI 的範疇。王培和本·格策爾將 2006 年的 AGI 研究活動描述為「創作出版物和早期的結果」。第一次 AGI 暑期學校於 2009 年,在中國廈門,廈門大學的人工大腦實驗室和 OpenCog 所舉辦。在 2010 和 2011 年,保加利亞的普羅夫迪夫大學,托多爾·阿納多夫開設了相關課程。MIT 在 2018 年開設了 AGI 的課程,由萊克斯·弗里德曼組織,以眾多客座講師為特色。但是,在當下,伴隨着「智能」過於複雜以至於無法在短期內被完全複製的警告,大多數 AI 研究者僅在 AGI 投入少量精力。不過,仍然有一小批電腦科學家活躍在 AGI 研究以及 AGI 會議中,他們的研究形形色色並富有開拓性。格策爾在他書中的介紹中說到,實現真正靈活的 AGI 所需要的時間從 10 年到一個世紀不等,但是,看起來 AGI 社區中的共識是,雷蒙德·庫茨魏爾在奇點迫近中討論的時間表是可信的。

理論

[編輯]

「強人工智能」引發起一連串哲學爭論,例如如果一台機器能完全理解語言並回答問題的機器是不是有思維。哲學家希爾勒認為不可能。

關於強人工智能的爭論,不同於更廣義的一元論和二元論的爭論。其爭論要點是:如果一台機器的唯一工作原理就是轉換編碼數據,那麼這台機器是不是有思維的?希爾勒認為這是不可能的。他舉了著名的中文房間的例子來說明,如果機器僅僅是轉換數據,而數據本身是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關係的前提下,機器不可能對其處理的數據有任何理解。基於這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有思維和意識。

也有哲學家持不同的觀點。丹尼爾·丹尼特(Daniel C. Dennett)在其著作《意識的闡釋》(Consciousness Explained)里認為,人也不過是一台有靈魂的機器而已,為什麼我們認為:「人可以有智能,而普通機器就不能」呢?他認為像上述的數據轉換機器是有可能有思維和意識的。

參見

[編輯]

參考資料

[編輯]
  1. ^ (Kurzweil 2005,第260頁) or see Advanced Human Intelligence頁面存檔備份,存於互聯網檔案館) where he defines strong AI as "machine intelligence with the full range of human intelligence."
  2. ^ The Open University on Strong and Weak AI. [2013-09-22]. (原始內容存檔於2009-09-25). 
  3. ^ AI創世紀, pp.68
  4. ^ Encyclopædia Britannica Strong AI, applied AI, and cognitive simulation頁面存檔備份,存於互聯網檔案館) or Jack Copeland What is artificial intelligence?頁面存檔備份,存於互聯網檔案館) on AlanTuring.net
  5. ^ Newell & Simon 1976. This the term they use for "human-level" intelligence in the physical symbol system hypothesis.
  6. ^ http://www.inside.com.tw/2016/02/21/the-superhero-of-artificial-intelligence-can-this-genius-keep-it-in-check頁面存檔備份,存於互聯網檔案館) 人工智能有多恐怖?聽聽「天才」Demis Hassabis 怎麼說!
  7. ^ AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent." McCarthy, John. Basic Questions. Stanford University. 2007 [2016-03-03]. (原始內容存檔於2019-02-15).  (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
  8. ^ This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  9. ^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  10. ^ White, R. W. (1959). Motivation reconsidered: The concept of competence. Psychological Review, 66, 297-333
  11. ^ Johnson 1987
  12. ^ deCharms, R. (1968). Personal causation. New York: Academic Press.
  13. ^ Muehlhauser, Luke. What is AGI?. Machine Intelligence Research Institute. [1 May 2014]. (原始內容存檔於2019-01-04). 
  14. ^ Shapiro, Stuart C. (1992). Artificial Intelligence頁面存檔備份,存於互聯網檔案館) In Stuart C. Shapiro (Ed.), Encyclopedia of Artificial Intelligence (Second Edition, pp. 54–57). New York: John Wiley. (Section 4 is on "AI-Complete Tasks".)
  15. ^ Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness . In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3-17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf頁面存檔備份,存於互聯網檔案館
  16. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security頁面存檔備份,存於互聯網檔案館). In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294-311.
  17. ^ Bergmair, Richard. Natural Language Steganography and an "AI-complete" Security Primitive. January 7, 2006. CiteSeerX: 10.1.1.105.129可免費查閱.  (unpublished?)
  18. ^ Crevier 1993,第48–50頁
  19. ^ Simon 1965,第96頁 quoted in Crevier 1993,第109頁
  20. ^ Scientist on the Set: An Interview with Marvin Minsky. [2016-03-04]. (原始內容存檔於2012-07-16). 
  21. ^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993,第109頁).
  22. ^ The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England. (Lighthill 1973; Howe 1994) In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research". See (NRC 1999) under "Shift to Applied Research Increases Investment". See also (Crevier 1993,第115–117頁) and (Russell & Norvig 2003,第21–22頁)
  23. ^ Crevier 1993,第211頁, Russell & Norvig 2003,第24頁 and see also Feigenbaum & McCorduck 1983
  24. ^ Crevier 1993,第161–162,197–203,240頁; Russell & Norvig 2003,第25頁; NRC 1999,under "Shift to Applied Research Increases Investment"
  25. ^ Crevier 1993,第209–212頁
  26. ^ As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case." McCarthy, John. Reply to Lighthill. Stanford University. 2000 [2016-03-04]. (原始內容存檔於2008-09-30). 
  27. ^ "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers."Markoff, John. Behind Artificial Intelligence, a Squadron of Bright Real People. The New York Times. 2005-10-14 [2007-07-30]. 
  28. ^ Russell & Norvig 2003,第25–26頁
  29. ^ Moravec 1988,第20頁
  30. ^ Harnad, S. (1990) The Symbol Grounding Problem. Physica D 42: 335-346.