跳至內容

人工智能

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書
「人工智能」的各地常用名稱
中國大陸人工智能
臺灣人工智慧
港澳人工智能
星馬人工智能、人工智慧
日韓人工知能
越南智慧人造

人工智能(英語:artificial intelligence,縮寫為AI),亦稱機器智慧,指由人製造出來的機器所表現出來的智慧。通常人工智能是指用普通電腦程式來呈現人類智慧的技術。該詞也指出研究這樣的智慧系統是否能夠實現,以及如何實現。同時,隨着醫學神經科學機械人學統計學等方面的發展,普遍認為人類的部分職業也逐漸被其取代。[1][2]

人工智能於一般教材中的定義領域是「智慧主體(intelligent agent)的研究與設計」[3],智慧主體指一個可以觀察周遭環境並作出行動以達致目標的系統[4]約翰·麥卡錫於1955年的定義是[5]「製造智慧機器的科學與工程」[6]安德烈亞斯·卡普蘭米高·海恩萊因(Michael Haenlein)將人工智能定義為「系統正確解釋外部數據,從這些數據中學習,並利用這些知識透過靈活適應達成特定目標和任務的能力」。[7] 人工智能可以定義為模仿人類與人類思維相關的認知功能的機器或計算機,如學習和解決問題。人工智能是電腦科學的一個分支,它感知其環境並採取行動,最大限度地提高其成功機會。此外,人工智能能夠從過去的經驗中學習,做出合理的決策,並快速回應。因此,人工智能研究人員的科學目標是通過構建具有象徵意義的推理或推理的計算機程式來理解智慧。人工智能的四個主要組成部分是:

  • 專家系統:作為專家處理正在審查的情況,併產生預期或預期的績效。
  • 啟發式演算法:包括評估小範圍的解決方案,並可能涉及一些猜測,以找到接近最佳的解決方案。
  • 自然語言處理:在自然語言中實現人機之間的交流。
  • 計算機視覺:自動生成識別形狀和功能的能力 [8]

人工智能的研究是高度技術性和專業的,各分支領域都是深入且各不相通的,因而涉及範圍極廣[9]。人工智能的研究可以分為幾個技術問題。其分支領域主要集中在解決具體問題,其中之一是,如何使用各種不同的工具完成特定的應用程式。

AI的核心問題包括建構能夠跟人類似甚至超卓的推理知識計劃學習交流感知移動移物使用工具和操控機械的能力等[10]通用人工智能(AGI)目前仍然是該領域的長遠目標[11]。目前弱人工智能已經有初步成果,甚至在一些影像辨識、語言分析、棋類遊戲等等單方面的能力達到了超越人類的水準,而且人工智能的通用性代表着,能解決上述的問題的是一樣的AI程式,無須重新開發演算法就可以直接使用現有的AI完成任務,與人類的處理能力相同,但達到具備思考能力的統合強人工智能還需要時間研究,比較流行的方法包括統計方法,計算智慧和傳統意義的AI。目前有大量的工具應用了人工智能,其中包括搜尋和數學最佳化、邏輯推演。而基於仿生學認知心理學,以及基於概率論經濟學演算法等等也在逐步探索當中。

概論

[編輯]

人工智能的定義可以分為兩部分,即「人工」和「智能」。「人工」即由人設計,為人創造、製造。

關於甚麼是「智能」,較有爭議性。這涉及到其它諸如意識自我心靈,包括無意識的精神等等問題。人唯一瞭解的智慧是人本身的智慧,這是普遍認同的觀點。但是目前,人類對人類自身智慧,與對構成人所擁有智慧的必要元素的瞭解都十分有限,因此很難準確定義甚麼是「人工」製造的「智能」。因此人工智能的研究往往涉及對人智慧本身的研究。其它關於動物或其它人造系統的智慧也普遍被認為是人工智能相關的研究課題。

人工智能目前在電腦領域內,得到了愈加廣泛的發揮。並在機械人、經濟政治決策、控制系統仿真系統中得到應用。

人工智能也廣泛應用於許多不同領域。機械人經營餐館和商店並修復城市基礎設施。人工智能管理運輸系統和自動駕駛車輛。智慧平台管理多個城市領域,例如垃圾收集和空氣質素監測。事實上,城市人工智能體現在城市空間、基礎設施和技術中,將我們的城市變成了無人監督的自治實體。可以方便地實時實現數碼化支援的智慧響應服務。許多城市現在主動利用大數據和人工智能,通過為我們的基礎設施提供更好的能源、計算能力和連接性來提高經濟回報[12]

最近,由於人工智能減少了行政成本和時間,許多政府開始將人工智能用於各種公共服務。例如,移民流程的機械人自動化減少了處理時間並提高了效率。人工智能為地方政府服務帶來技術突破。人工智能代理協助城市規劃者基於目標導向的蒙特卡羅樹搜尋進行場景規劃。目標推理人工智能代理提供最佳的土地利用解決方案,幫助人類制定民主的城市土地利用規劃。人工智能利用在線數據來監控和修改環境威脅政策。在2019 年水危機期間,潛在狄利克雷分配方法確定了Twitter (X) 中討論最多的主題,這是一種樸素的推文分類方法,對乾旱的影響和原因、政府響應和潛在解決方案等主題進行了分類。人工智能工具與司法部門的人類法官相輔相成,提供客觀、一致的風險評估[13]

發展史

[編輯]
年代 20世紀40年代 20世紀50年代 20世紀60年代 20世紀70年代 20世紀80年代 20世紀90年代 21世紀00年代 21世紀10年代 21世紀20年代
計算機 1945 電腦ENIAC
人工智能研究 1953 博弈論
1956 達特矛斯會議
1977 知識工程英語Knowledge engineering宣言 1982 第五代電腦計劃開始 1991 類神經網絡 2007 深度學習 2018 大語言模型 2022 多模態模型
人工智能語言 1957 FORTRAN語言 1960 LISP語言 1973 PROLOG語言
知識表示 約1960 向量資料庫英語Vector_database 1973 生產系統
1976 框架理論
專家系統 1965 DENDRAL英語Dendral 1975 MYCIN英語Mycin 1980 Xcon

對機器或「形式」的推理研究起源於古代哲學家和數學家。邏輯學的研究直接催生了艾倫·圖靈計算理論,理論提出,一台透過操作簡單符號「0」和「1」的機器,能夠模擬任意複雜的數學推理過程。[14][15]這一理論,連同在控制論資訊論神經生物學方面的同期發現,推動研究人員考慮構建一台「電子大腦」的可能性。[a] 此外,他們還開拓了未來成為人工智能領域一部分的多個研究分支,[17] 比如1943年沃倫·麥卡洛克沃爾特·皮茨設計的「類神經元」,[18]以及圖靈於1950年發表的具有深遠影響的論文《電腦器與智慧英語Computing Machinery and Intelligence》,其中提出了「圖靈測試」,展示了「機器智慧」的可行性。[19][15]

人工智能研究領域正式成立於1956年在達特茅斯學院舉行的「達特茅斯會議」。[b][21] 與會者後來在20世紀60年代成為該領域的先驅者。[c] 他們及其學生研發出的程式被媒體譽為「令人驚嘆」:[d] 電腦不僅能學會國際跳棋策略,還能解決代數文字難題、證明邏輯定理,甚至能進行英語對話。[e][24] 在20世紀50年代末至60年代初,許多英國和美國的大學紛紛建立了人工智能實驗室。[15]

20世紀60年代至70年代,研究人員堅信他們的方法最終能夠成功創造出具有通用智慧的機器,並將此視為他們研究領域的最高目標。[25]赫伯特·西蒙(Herbert Simon)曾預言:「在未來二十年內,機器能夠勝任所有人類能夠完成的工作。」[26] 馬文·閔斯基(Marvin Minsky)對此表示贊同,他認為:「在一代人的時間內,『人工智能』這一難題將會得到實質性的解決。」[27] 但事實證明他們低估了這個問題所涉及的複雜性。[28]1974年,受到詹姆斯·萊特希爾爵士(Sir James Lighthill)[29]的批評以及美國國會傾向於資助更為有成效專案的趨勢[30]美國和英國政府都中斷了探索性研究。閔斯基西摩·佩珀特(Seymour Papert)在其著作《感知器》(Perceptrons)中提出的觀點,被誤認為已經證明類神經網絡在解決現實世界問題上毫無用處,從而完全否定了這種方法。[31]隨後出現了 「人工智能寒冬」,即人工智能專案難以獲得資助的時期。[32]

20世紀80年代初期,人工智能研究因專家系統的商業成功而再次活躍,[33] 一種人工智能程式,旨在模擬人類專家的知識和分析技巧。到了1985年,AI市場估值超過10億美元。與此同時,日本的第五代電腦專案推動英美兩國恢復學術研究的資助。[34] 但從1987年Lisp機器市場的衰退開始,人工智能再次發展挫折,第二個較長的低迷期開始了。[35]

在此之前,人工智能的主要資金用於進階符號專案,用以表徵如計劃、目標、信念等概念性對象。20世紀80年代,一些研究人員開始懷疑,這種方法能否模仿人類認知的所有過程,特別是感知機械人學習圖型識別[36]並開始研究「次符號」方法。[37]羅德尼·布魯克斯(Rodney Brooks)普遍不認同「表徵」這一概念,並將研究重心轉向了設計能夠移動和自持生存的機器工程。[f] 朱迪亞·珀爾盧特菲·澤德等學者發展了多種方法,這些方法基於合理推斷處理不完備或不確定的資訊,而非依賴於嚴格的邏輯。[42][43]但最顯著的進展是,傑弗里·辛頓與其他研究者協力,在「聯結主義」及其涉及的神經網絡研究方面,取得了重要突破。[44]1990年,楊立昆(Yann Le Cun)展示了卷積神經網絡能夠辨識手寫數字,這項突破性的研究為神經網絡在多個實際應用領域的應用奠定了基礎。[45]

20世紀末至21世紀初期,人工智能利用形式化的數學方法,結合針對特定問題制定的策略,逐步在學術界重建了聲譽。這種「聚焦」與「規範化」的研究方法讓研究者能產出可驗證的成果,並促進了與統計學經濟學數學等其他學科的交叉合作。[46] 至2000年,人工智能領域研究的解決方案獲得了廣泛的應用,儘管在1990年代,這些方案往往不被直接標識為「人工智能」。[47] 當前,部分人工智能領域的學者提出觀點,關注研究重點可能未全面覆蓋創造具備多功能性和全面智慧的機器這一初始目標。2002至2010年間,通用人工智能(AGI)領域內成立了多個獲得充分資金支援的研究機構。[48]

2012年以來,深度學習開始主導行業標準,並迅速成為該領域內廣泛採用的方法。[49] 在多種場合,替代性方法被淘汰,深度學習得到優先採用。[g]深度學習的突破性成果,既得力於硬件的顯著進步(如計算速度更快的電腦[51] 圖形處理單元以及雲端運算技術[52]),也依賴於廣泛的數據可用性[53](包括精心策劃的數據集,[52]譬如ImageNet)。深度學習的成果引發了公眾對於人工智能的濃厚興趣並促使資金投入的大幅度增加。[h]2015年至2019年期間,機器學習領域的出版物數目上升了50%。[54]

2016年,在機器學習會議上,公平性英語Fairness (machine learning)與技術濫用成為突出話題;相關論文發表數量急劇增加,研究經費隨之提供,眾多研究人員轉而聚焦這些議題。對齊問題逐漸成為學術探討的重要議題。[55]

2010年代末至2020年代初,AGI公司推出引發廣泛關注的程式。2015年,由DeepMind研發的「阿爾法狗」戰勝了世界圍棋冠軍。該程式僅被輸入了遊戲規則並自主形成了策略。GPT-3OpenAI在2020年推出的一款強大的語言模型,它能生成高質素、類人的文字。[56] 這些及其他程式引發了劇烈的AI熱潮,主要企業投入數十億美元於AI研究。AI Impacts預測,到2022年,僅在美國,人工智能領域的年投資就將達到約500億美元,大約20%的美國新晉電腦科學博士生將專注於AI領域。[57]在2022年,美國預計將有大約80萬的人工智能相關職位空缺。[58]

研究課題

[編輯]

目前人工智能的研究方向已經被分成幾個子領域,研究人員希望一個人工智能系統應該具有某些特定能力,以下將這些能力列出並說明。[10]

演繹、推理和解決問題

[編輯]

早期的人工智能研究人員直接模仿人類進行逐步的推理,就像是玩棋盤遊戲或進行邏輯推理時人類的思考模式。[59]到了1980和1990年代,利用概率經濟學上的概念,人工智能研究還發展了非常成功的方法處理不確定或不完整的資訊。[42]

對於困難的問題,有可能需要大量的運算資源,也就是發生了「可能組合爆增」:當問題超過一定的規模時,電腦會需要天文數量級的記憶體或是運算時間。尋找更有效的演算法是優先的人工智能研究專案。[60]

人類解決問題的模式通常是用最快捷、直觀的判斷,而不是有意識的、一步一步的推導,早期人工智能研究通常使用逐步推導的方式。[61]人工智能研究已經於這種「次表徵性的」解決問題方法取得進展:實體化Agent研究強調感知運動的重要性。神經網絡研究試圖以模擬人類和動物的大腦結構重現這種技能。

知識表示法

[編輯]
本體論將知識表示為一個領域內的一組概念以及這些概念之間的關係。

知識表示是人工智能領域的核心研究問題之一,它的目標是讓機器儲存相應的知識,並且能夠按照某種規則推理演繹得到新的知識。有許多需要解決的問題需要大量的對世界的知識,這些知識包括事先儲存的先驗知識和透過智慧推理得到的知識。事先儲存的先驗知識指:人類用某種方式告訴給機器的知識。透過智慧推理得到的知識指:結合先驗知識和某種特定的推理規則(邏輯推理)得到的知識。首先,先驗知識可以指描述目標,特徵,種類及物件之間的關係的知識, 也可以描述事件,時間,狀態,原因和結果, 以及任何知識你想要機器儲存的。比如:今天沒有太陽,沒有太陽就是陰天。那麼以命題邏輯語言,這些知識可以被表示為:今天 → 沒有太陽,沒有太陽 → 陰天。這些知識是先驗知識,那麼推理可以得到新知識:今天 → 陰天。由此例子可以看出,先驗知識的正確性非常重要,這個例子中沒有太陽就是陰天,這個命題是不嚴謹的、比較籠統的,因為沒有太陽可能是下雨,也可能下雪。另外如果人工智能能看出太陽,除了該如何判斷的這件問題,在這個前提之下,應該也能判斷出陰天與晴天的差異。邏輯命題表示在知識表示中非常重要,邏輯推理規則是目前主要推理規則。可以在機器中用邏輯符號定義每一個邏輯命題,然後再讓機器儲存相應的邏輯推理規則,那麼自然而然機器便可進行推理。目前知識表達有許多困境尚無法解決,比如:建立一個完備的知識庫幾乎不可能,所以知識庫的資源受到限制;先驗知識的正確性需要進行檢驗,而且先驗知識有時候不一定是只有對或者錯兩種選擇。

規劃

[編輯]

智慧Agent必須能夠制定目標和達成這些目標。[62]他們需要一種方法來建立一個可預測的世界模型(將整個世界狀態用數學模型表現出來,並能預測它們的行為將如何改變這個世界),這樣就可以選擇功效最大的行為。[63] 在傳統的規劃問題中,智慧Agent被假定它是世界中唯一具有影響力的,所以它要做出什麼行為是已經確定的。[64]但是,如果事實並非如此,它必須定期檢查世界模型的狀態是否和自己的預測相符合。如果不符合,它必須改變它的計劃。因此智慧代理必須具有在不確定結果的狀態下推理的能力。[65]在多Agent中,多個Agent規劃以合作和競爭的方式去完成一定的目標,使用演化演算法和群體智慧可以達成一個整體的突現行為目標。[66]

機器學習

[編輯]

機器學習的主要目的是為了讓機器從用戶和輸入數據等處獲得知識,從而讓機器自動地去判斷和輸出相應的結果。這一方法可以幫助解決更多問題、減少錯誤,提高解決問題的效率。對於人工智能來說,機器學習從一開始就很重要。1956年,在最初的達特茅斯夏季會議上,雷蒙德·索洛莫諾夫[來源請求]寫了一篇關於不監視的概率性機器學習:一個歸納推理的機器。

機器學習的方法各種各樣,主要分為監督學習和非監督學習兩大類。監督學習指事先給定機器一些訓練樣本並且告訴樣本的類別,然後根據這些樣本的類別進行訓練,提取出這些樣本的共同屬性或者訓練一個分類器,等新來一個樣本,則透過訓練得到的共同屬性或者分類器進行判斷該樣本的類別。監督學習根據輸出結果的離散性和連續性,分為分類和回歸兩類。非監督學習是不給定訓練樣本,直接給定一些樣本和一些規則,讓機器自動根據一些規則進行分類。無論哪種學習方法都會進行誤差分析,從而知道所提的方法在理論上是否誤差有上限。

自然語言處理

[編輯]

自然語言處理探討如何處理及運用自然語言,自然語言認知則是指讓電腦「懂」人類的語言。自然語言生成系統把計算機數據轉化為自然語言。自然語言理解系統把自然語言轉化為計算機程式更易於處理的形式。

運動和控制

[編輯]

知覺

[編輯]

機器感知[67]是指能夠使用感測器所輸入的資料(如照相機麥克風聲納以及其他的特殊感測器)然後推斷世界的狀態。電腦視覺[68]能夠分析影像輸入。另外還有語音識別[69]人面辨識物體辨識[70]

社交

[編輯]
Kismet,一個具有表情等社交能力的機械人[71]

情感和社交技能對於一個智慧agent是很重要的。首先,透過了解他們的動機和情感狀態,代理人能夠預測別人的行動(這涉及要素 博弈論、決策理論以及能夠塑造人的情感和情緒感知能力檢測)。此外,為了良好的人機互動,智慧代理人也需要表現出情緒來。至少它必須出現禮貌地和人類打交道。至少,它本身應該有正常的情緒。

創造力

[編輯]

一個人工智能的子領域,代表了理論(從哲學和心理學的角度)和實際(通過特定的實現產生的系統的輸出是可以考慮的創意,或系統識別和評估創造力)所定義的創造力。相關領域的研究包括了人工直覺人工想像

倫理管理

[編輯]

史蒂芬·霍金比爾蓋茨埃隆·馬斯克、Jaan Tallinn以及Nick Bostrom等人都對於人工智能技術的未來公開表示憂心[72],人工智能若在許多方面超越人類智慧水準的智慧、不斷更新、自我提升,進而取得控制管理權,人類是否有足夠的能力及時停止人工智能領域的「軍備競賽」,能否保有最高掌控權,現有事實是:機器常失控導致人員傷亡,這樣的情況是否會更加擴大規模出現,歷史顯然無法給出可靠的樂觀答案。特斯拉電動車馬斯克(Elon Musk)在麻省理工學院(MIT)航空航天部門百年紀念研討會上稱人工智能是「召喚惡魔」行為,英國發明家Clive Sinclair認為一旦開始製造抵抗人類和超越人類的智慧機器,人類可能很難生存,蓋茨同意馬斯克和其它人所言,且不知道為何有些人不擔憂這個問題。[73]

DeepMind的人工智能(AI)系統在2016年「AlphaGo」對戰南韓棋王李世乭獲勝,開發商表示在內部設立倫理委員會,針對人工智能的應用制定政策,防範人工智能淪為犯罪開發者。[74]

科技進步,人工智能科技產生「自主武器」軍備競賽已悄悄展開,英國、以色列與挪威,都已部署自主飛彈與無人操控的無人機,具「射後不理」(fire-and-forget)能力的飛彈,多枚飛彈還可互相溝通,分享找到攻擊目標。這些武器還未被大量投入,但很快就會出現在戰場上,且並非使用人類所設計的程式,而是完全利用機器自行決策。 霍金等人在英國獨立報發表文章警告未來人工智能可能會比人類金融市場、科學家、人類領袖更能操縱人心、甚至研發出人們無法理解的武器。專家恐發展到無法控制的局面,援引聯合國禁止研發某些特定武器的「特定常規武器公約」加以限制。[75]新南威爾斯大學人工智能的托比·沃爾什英語Toby_Walsh教授認為這是一種欺騙,因為機器無區別戰敵和平民的技術。[76]

經濟衝擊

[編輯]

CNN財經網數碼媒體未來學家Amy Webb英語Amy Webb美國線上[77]等紛紛預測一些即將被機械人取代的職業,日本野村綜合研究所也與英國牛津大學的研究學者共同調查指出,10至20年後,日本有49%的職業(235種職業)可能會被機械和人工智能取代而消失,直接影響約達2500萬人[78],例如:超市店員、一般事務員、計程車司機、收費站運營商和收銀員、市場營銷人員、客服人員、製造業工人、金融中間人和分析師、新聞記者、電話公司職員、麻醉師、士兵和保安、律師、醫生、軟件開發者和操盤手、股票交易員等等高薪酬的腦力職業將最先受到衝擊[79]

2017年6月份馬雲在美國底特律舉行「鏈結世界」(Gateway 17)產業大會,會上提出人工智能可能導致第三次世界大戰,因為前兩次產業革命都導致兩次大戰,戰爭原因並非這些創新發明本身,而是發明對社會上許多人的生活方式衝擊處理不當,新科技在社會上產生新工作也取代舊工作,產生了新的輸家和贏家,若是輸家的人數太多將造成一股社會不穩的能量而這股能量被有心人利用可能導致各種事件。他認為各國應該強制訂定規定AI機器只能用於人類不能做的工作,避免短時間大量人類被取代的失業大潮,但馬雲沒有提出這種世界性規定將如何實現並確保遵守的細節方案。[80]

數據科學和人工智能被哈佛商業評論稱為《二十一世紀最Sexy的職業》[81],人工智能需求量大,鼓勵了不少大學諸如伯克利大學專門成立數據科學系。矽谷和紐約為主的《The Data Incubator英語The Data Incubator》公司於2012年成立,焦點是數據科學大數據,和人工智能企業培訓,提供國際大數據培訓服務。

AI對人類的威脅

[編輯]

此議題目前分成兩個學派:

悲觀學派

[編輯]

此學派的代表是天文物理學家史蒂芬·霍金,以及特斯拉行政總裁伊隆·馬斯克。霍金認為AI對人類將來有很大的威脅,主要有以下理由:

  1. AI會遵循科技發展的加速度理論。
  2. AI可能會有自我改造創新的能力。
  3. AI進步的速度遠遠超過人類。
  4. 人類會有被滅絕的危機。

樂觀學派

[編輯]

主要是Google、Facebook等AI的主要技術發展者,他們對AI持樂觀看法的理由:

  1. 人類只要關掉電源就能除掉AI機械人。
  2. 任何的科技都會有瓶頸,摩爾定律到目前也遇到相當的瓶頸,AI科技也不會無限成長,依然存在許多難以克服的瓶頸。
  3. 依目前的研究方向,電腦無法突變、甦醒、產生自我意志,AI也不可能具有創意與智慧、同情心與審美等這方面的能力。

AI與管理

[編輯]

AI逐漸普及後,將會在企業管理中扮演很重要的角色,而人類的管理者應如何適度的調整自己的工作職能,有以下幾點建議:

  1. 放棄行政工作;
  2. 退守分析預測的領域而強化自己的綜合判斷力;
  3. 把AI當作同事,形成協同合作的團隊;
  4. 多琢磨在創造力以及各種流程架構設計師角色;
  5. 強化自己人際網絡、溝通協調、談判上的能力;
  6. 培養自身領導能力,能有效地帶領一個士氣高、團結及凝結力高的工作夥伴。

[82]

強人工智能和弱人工智能

[編輯]

人工智能的一個比較流行的定義,也是該領域較早的定義,是由當時麻省理工學院約翰·麥卡錫於1956年的達特矛斯會議上提出的:人工智能就是要讓機器的行為看起來就像是人所表現出的智慧行為一樣。但是這個定義似乎忽略了強人工智能的可能性(見下)。另一個定義指人工智能是人造機器所表現出來的智慧。總體來講,目前對人工智能的定義大多可劃分為四類,即機器「像人一樣思考」、「像人一樣行動」、「理性地思考」和「理性地行動」。這裏「行動」應廣義地理解為採取行動,或制定行動的決策,而不是肢體動作。

強人工智能

[編輯]

強人工智能觀點認為「有可能」製造出「真正」能推理解決問題的智慧機器,並且,這樣的機器將被認為是具有知覺、有自我意識的。強人工智能可以有兩類:

  • 人類的人工智能,即機器的思考和推理就像人的思維一樣。
  • 非人類的人工智能,即機器產生了和人完全不一樣的知覺和意識,使用和人完全不一樣的推理方式。

弱人工智能

[編輯]

弱人工智能觀點認為「不可能」製造出能「真正」地推理解決問題的智慧機器,這些機器只不過「看起來」像是智慧的,但是並不真正擁有智慧,也不會有自主意識。

弱人工智能是對比強人工智能才出現的,因為人工智能的研究一度處於停滯不前的狀態下,直到類神經網絡有了強大的運算能力加以模擬後,才開始改變並大幅超前。但人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解強人工智能和弱人工智能的內容與差別,對定義爭論不休。

就當下的人工智能研究領域來看,研究者已大量造出「看起來」像是智慧的機器,取得相當豐碩的理論上和實質上的成果,如2009年康乃爾大學教授Hod Lipson 和其博士研究生Michael Schmidt 研發出的 Eureqa電腦程式,只要給予一些資料,這電腦程式自己只用幾十個小時計算就推論出牛頓花費多年研究才發現的牛頓力學公式,等於只用幾十個小時就自己重新發現牛頓力學公式,這電腦程式也能用來研究很多其他領域的科學問題上。這些所謂的弱人工智能在神經網絡發展下已經有巨大進步,但對於要如何整合成強人工智能,現在還沒有明確定論。

對強人工智能的哲學爭論

[編輯]

主條目:人工智能哲學圖靈測試物理符號系統皇帝新腦德雷福斯對人工智能的看法英語Hubert Dreyfus's views on artificial intelligenceAI效應英語AI effect

「強人工智能」一詞最初是約翰·瑟爾針對電腦和其它資訊處理機器創造的,其定義為:

「強人工智能觀點認為計算機不僅是用來研究人的思維的一種工具;相反,只要運行適當的程式,計算機本身就是有思維的。」(J Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980)

關於強人工智能的爭論,不同於更廣義的一元論二元論的爭論。其爭論要點是:如果一台機器的唯一工作原理就是轉換編碼數據,那麼這台機器是不是有思維的?希爾勒認為這是不可能的。他舉了個中文房間的例子來說明,如果機器僅僅是轉換數據,而數據本身是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關係的前提下,機器不可能對其處理的數據有任何理解。基於這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有自我思維和自由意識。

也有哲學家持不同的觀點。丹尼爾·丹尼特在其著作《意識的解釋英語Consciousness Explained》(Consciousness Explained)裏認為,人也不過是一台有靈魂的機器而已,為什麼我們認為:「人可以有智慧,而普通機器就不能」呢?他認為像上述的數據轉換機器是有可能有思維和意識的。

有的哲學家認為如果弱人工智能是可實現的,那麼強人工智能也是可實現的。比如西蒙·布萊克本英語Simon Blackburn(Simon Blackburn)在其哲學入門教材Think裏說道,一個人的看起來是「智慧」的行動並不能真正說明這個人就真的是智慧的。我永遠不可能知道另一個人是否真的像我一樣是智慧的,還是說她/他僅僅是「看起來」是智慧的。基於這個論點,既然弱人工智能認為可以令機器「看起來」像是智慧的,那就不能完全否定這機器是真的有智慧的。布萊克本認為這是一個主觀認定的問題。

需要指出的是,弱人工智能並非和強人工智能完全對立,也就是說,即使強人工智能是可能的,弱人工智能仍然是有意義的。至少,今日的計算機能做的事,像算術運算等,在一百多年前是被認為很需要智慧的。並且,即使強人工智能被證明為可能的,也不代表強人工智能必定能被研製出來。

研究方法

[編輯]

目前沒有統一的原理或範式指導人工智能研究。許多問題上研究者都存在爭論。[83]

其中幾個長久以來仍沒有結論的問題是:是否應從心理神經方面模擬人工智能?或者像鳥類生物學對於航空工程一樣,人類生物學對於人工智能研究是沒有關係的?[84]智慧行為能否用簡單的原則(如邏輯最佳化)來描述?還是必須解決大量完全無關的問題?[85]

智慧是否可以使用進階符號表達,如詞和想法?還是需要「子符號」的處理?[86] 約翰·豪格蘭德(John Haugeland)提出了GOFAI(出色的老式人工智能)的概念,也提議人工智能應歸類為synthetic intelligence英語synthetic intelligence[87]這個概念後來被某些非GOFAI研究者採納。[88][89]

控制論與大腦模擬

[編輯]

20世紀40年代到50年代,許多研究者探索神經學資訊理論控制論之間的聯絡。其中還造出一些使用電子網絡絡構造的初步智慧,如威廉·格雷·沃爾特英語William Grey Walter的烏龜(turtle)和約翰霍普金斯野獸

這些研究者還經常在普林斯頓大學和英國的Ratio Club舉行技術協會會議[90]。直到1960,大部分人已經放棄這個方法,儘管在80年代再次提出這些原理。

符號處理

[編輯]

當20世紀50年代,數碼電腦研製成功,研究者開始探索人類智慧是否能簡化成符號處理。研究主要集中在卡內基梅隆大學史丹福大學麻省理工學院,而各自有獨立的研究風格。約翰·豪格蘭德(John Haugeland)稱這些方法為GOFAI(出色的老式人工智能)[91]。60年代,符號方法在小型證明程式上模擬進階思考有很大的成就。基於控制論類神經網絡的方法則置於次要[92]。60-70年代的研究者確信符號方法最終可以成功創造強人工智能的機器,同時這也是他們的目標。

  • 基於知識:大約在1970年出現大容量主記憶體電腦,研究者分別以三個方法開始把知識構造成應用軟件[99]。這場「知識革命」促成專家系統的開發與計劃,這是第一個成功的人工智能軟件形式[100]。「知識革命」同時讓人們意識到許多簡單的人工智能軟件可能需要大量的知識。

子符號方法

[編輯]

1980年代符號人工智能停滯不前,很多人認為符號系統永遠不可能模仿人類所有的認知過程,特別是感知、機械人、機器學習和圖型識別。很多研究者開始關注子符號方法解決特定的人工智能問題[86]

  • 自下而上、介面agent、嵌入環境(機械人)、行為主義、新式AI:機械人領域相關的研究者,如羅德尼·布魯克斯,否定符號人工智能而專注於機械人移動和求生等基本的工程問題。[101]他們的工作再次關注早期控制論研究者的觀點,同時提出了在人工智能中使用控制理論。這與認知科學領域中的表徵感知論點是一致的:更高的智慧需要個體的表徵(如移動,感知和形象)。

統計學方法

[編輯]

1990年代,人工智能研究發展出複雜的數學工具來解決特定的分支問題。這些工具是真正的科學方法,即這些方法的結果是可測量的和可驗證的,同時也是近期人工智能成功的原因。共用的數學語言也允許已有學科的合作(如數學,經濟或運籌學)。Stuart J.Russell英語Stuart_J._Russell彼德·諾米格指出這些進步不亞於「革命」和「neats的成功」[104]。有人批評這些技術太專注於特定的問題,而沒有考慮長遠的強人工智能目標[105]

整合方法

[編輯]
  • 智慧agent範式:智慧agent是一個會感知環境並作出行動以達致目標的系統。最簡單的智慧agent是那些可以解決特定問題的程式。更複雜的agent包括人類和人類組織(如公司)。這些範式可以讓研究者研究單獨的問題和找出有用且可驗證的方案,而不需考慮單一的方法。一個解決特定問題的agent可以使用任何可行的方法-一些agent用符號方法和邏輯方法,一些則是子符號神經網絡或其他新的方法。範式同時也給研究者提供一個與其他領域溝通的共同語言--如決策論和經濟學(也使用abstract agents的概念)。1990年代智慧agent範式被廣泛接受。[4]

基本應用

[編輯]

人工智能基本的應用可分為四大部分:

感知能力(Perception)

[編輯]

指的是人類透過感官所收到環境的刺激,察覺訊息的能力,簡單的說就是人類五官的看、聽、說、讀、寫等能力,學習人類的感知能力是AI目前主要的焦點之一,包括:

  • 「看」:電腦視覺(Computer Vision)、圖像辨識(Image Recognition)、人面辨識(Face Recognition)、物件偵測(Object Detection)。
  • 「聽」:語音辨識(Sound Recognition)。
  • 「說」:語音生成(Sound Generation)、文字轉換語音(Text-to-Speech)。
  • 「讀」:自然語言處理(Natural Language Processing,NLP)、語音轉換文字(Speech-to-Text)。
  • 「寫」:機器翻譯(Machine Translation)、文字生成(Text Generation)

認知能力(Cognition)

[編輯]

指的是人類透過學習、判斷、分析等等心理活動來瞭解訊息、獲取知識的過程與能力,對人類認知的模仿與學習也是目前AI第二個焦點領域,主要包括:

  • 分析辨識能力:例如醫學圖像分析、產品推薦、垃圾郵件辨識、法律案件分析、犯罪偵測、信用風險分析、消費行為分析等。
  • 預測能力:例如AI執行的預防性維修(Predictive Maintenance)、智慧天然災害預測與防治。
  • 判斷能力:例如AI下圍棋、自動駕駛車、健保詐欺判斷、癌症判斷等。
  • 學習能力:例如機器學習、深度學習、增強式學習等等各種學習方法。

創造力(Creativity)

[編輯]

指的是人類產生新思想,新發現,新方法,新理論,新設計,創造新事物的能力,它是結合知識、智力、能力、個性及潛意識等各種因素優化而成,這個領域目前人類仍遙遙領先AI,但AI也試着急起直追,主要領域包括:AI作曲、AI作詩、AI小說、AI繪畫、AI設計等。

智慧(Wisdom)

[編輯]

指的是人類深刻瞭解人、事、物的真相,能探求真實真理、明辨是非,指導人類可以過着有意義生活的一種能力,這個領域牽涉人類自我意識、自我認知與價值觀,是目前AI尚未觸及的一部分,也是人類最難以模仿的一個領域。 [107]

實際應用

[編輯]

機器視覺指紋辨識人面辨識視網膜辨識虹膜辨識掌紋辨識專家系統自動規劃無人載具等。

學科範疇

[編輯]

人工智能是一門邊緣學科,屬於自然科學社會科學的交叉。

涉及學科

[編輯]

研究範疇

[編輯]

應用領域

[編輯]

濫用

[編輯]

2019年6月,基於神經網絡技術DeepNude軟件面世,該軟件可以將人物相片的衣着褪去,顯示出裸體[108]。隨後,經該軟件處理後的色情圖片在網絡上泛濫並引發爭議,此後該軟件在批評聲中被下架[108]。據美國網絡安全公司Sensity統計,DeepNude已經產生了68萬以上女性的假裸照,其中70%的原相片來自社交網絡中的真實女性[108],而經DeepFake技術處理的影片在以每6個月翻一番的數量增長[109]。截至2020年12月 (2020-12),Sensity檢測到的相關影片數量超過8.5萬個[109]。而惡用該技術則可能涉嫌違反《著作權法》等法律,日本警方便多次處理過使用人工智能技術去除色情影片中的馬賽克[110]、替換色情影片中女優容貌[111]等相關案件。

參看

[編輯]

參考文獻

[編輯]

參照

[編輯]
  1. ^ 人工智能(AI)造福社會 同時也帶來威脅. [2021-02-17]. (原始內容存檔於2020-11-27). 
  2. ^ 人工智能「搶飯碗」 2020年會計師將被AI取代. [2021-02-17]. (原始內容存檔於2020-11-27). 
  3. ^ 針對研究智慧代理的人工智能定義:
  4. ^ 4.0 4.1 智慧代理範式: 此處使用的定義--目的,動作,感知與環境出自Russell & Norvig (2003).
  5. ^ 儘管這點上存在爭論(見Crevier (1993,第50頁)), McCarthy在一個訪談中明確的說"我想出了這個詞" . (Skillings 2006)
  6. ^ McCarthy對人工智能的定義:
  7. ^ Andreas Kaplan; Michael Haenlein (2019) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1), 15-25. [2018-11-17]. (原始內容存檔於2018-11-21). 
  8. ^ Yigitcanlar, T.et al. Artificial Intelligence Technologies and Related Urban Planning and Development Concepts: How Are They Perceived and Utilized in Australia? J. Open Innov. Technol. Mark. Complex. 2020, 6, 187. https://doi.org/10.3390/joitmc6040187
  9. ^ Pamela McCorduck (2004,第424頁) writes of "the rough shattering of AI in subfields—vision, natural language, decision theory, genetic algorithms, robotics ... and these with own sub-subfield—that would hardly have anything to say to each other."
  10. ^ 10.0 10.1 這些智慧的特徵出自以下教材:
  11. ^ 強人工智能常出現在人工智能的導論中:
  12. ^ (2023) Artificial Intelligence in Local Government Services: Public Perceptions from Australia and Hong Kong, Government Information Quarterly, 40(3), 101833
  13. ^ (2023) Artificial Intelligence in Local Government Services: Public Perceptions from Australia and Hong Kong, Government Information Quarterly, 40(3), 101833
  14. ^ 14.0 14.1 Russell & Norvig 2021,第9頁.
  15. ^ 15.0 15.1 15.2 Copeland, J. (編). The Essential Turing: the ideas that gave birth to the computer age. Oxford, England: Clarendon Press. 2004. ISBN 0-19-825079-7 (英語). 
  16. ^ Google books ngram. [2024-05-20]. (原始內容存檔於2023-07-27). 
  17. ^ AI's immediate precursors:
  18. ^ 18.0 18.1 Russell & Norvig (2021),第17頁.
  19. ^ 參照錯誤:沒有為名為Turing test的參考文獻提供內容
  20. ^ Crevier (1993),第47–49頁.
  21. ^ Dartmouth workshop: The proposal:
  22. ^ Russell & Norvig (2003),第17頁.
  23. ^ Russell & Norvig (2003),第18頁.
  24. ^ Successful programs the 1960s:
  25. ^ Newquist (1994),第86–86頁.
  26. ^ Simon (1965,第96頁) quoted in Crevier (1993,第109頁)
  27. ^ Minsky (1967,第2頁) quoted in Crevier (1993,第109頁)
  28. ^ Russell & Norvig (2021),第21頁.
  29. ^ Lighthill (1973).
  30. ^ NRC 1999,第212-213頁.
  31. ^ Russell & Norvig (2021),第22頁.
  32. ^ First AI Winter, Lighthill report, Mansfield Amendment
  33. ^ Expert systems:
  34. ^ Funding initiatives in the early 1980s: Fifth Generation Project (Japan), Alvey (UK), Microelectronics and Computer Technology Corporation (US), Strategic Computing Initiative (US):
  35. ^ Second AI Winter:
  36. ^ Russell & Norvig (2021),第24頁.
  37. ^ Nilsson (1998),第7頁.
  38. ^ McCorduck (2004),第454–462頁.
  39. ^ Moravec (1988).
  40. ^ 40.0 40.1 Brooks (1990).
  41. ^ Developmental robotics:
  42. ^ 42.0 42.1 Uncertain reasoning:
  43. ^ Russell & Norvig (2021),第25頁.
  44. ^
  45. ^ Russell & Norvig (2021),第26頁.
  46. ^ Formal and narrow methods adopted in the 1990s:
  47. ^ AI widely used in the late 1990s:
  48. ^ 參照錯誤:沒有為名為AGI的參考文獻提供內容
  49. ^ Deep learning revolution, AlexNet:
  50. ^ Wong (2023).
  51. ^ Moore's Law and AI:
  52. ^ 52.0 52.1 52.2 Clark (2015b).
  53. ^ Big data:
  54. ^ UNESCO (2021).
  55. ^ Christian (2020),第67, 73頁.
  56. ^ Sagar, Ram. OpenAI Releases GPT-3, The Largest Model So Far. Analytics India Magazine. 2020-06-03 [2023-03-15]. (原始內容存檔於2020-08-04) (美國英語). 
  57. ^ DiFeliciantonio (2023).
  58. ^ Goswami (2023).
  59. ^ Problem solving, puzzle solving, game playing and deduction:
  60. ^ Intractability and efficiency and the combinatorial explosion英語combinatorial explosion:
  61. ^ Psychological evidence of sub-symbolic reasoning:
  62. ^ Planning英語automated planning and scheduling:
  63. ^ Information value theory英語Applied information economics:
  64. ^ Classical planning:
  65. ^ Planning and acting in non-deterministic domains: conditional planning, execution monitoring, replanning and continuous planning:
  66. ^ Multi-agent planning and emergent behavior:
  67. ^ Machine perception英語Machine perception:
  68. ^ Computer vision:
  69. ^ Speech recognition:
  70. ^ Object recognition英語Object recognition:
  71. ^ Kismet. MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. [2012-10-12]. (原始內容存檔於2014-10-17). 
  72. ^ 人工智慧有多恐怖?聽聽「天才」Demis Hassabis 怎麼說!the guardian《The superhero of artificial intelligence: can this genius keep it in check?》. inside / tech2ipo.com. [2016-04-15]. (原始內容存檔於2018-09-03) (中文(臺灣)). 
  73. ^ 人工智能發展是繁榮人類或毀滅人類?. 大紀元/莫琳綜. [2016-04-15]. (原始內容存檔於2021-02-13) (中文(臺灣)). 
  74. ^ AlphaGo贏棋王 靠兩大密技. 2016-03-19 04:01 經濟日報 記者彭慧明. [2016-04-15]. (原始內容存檔於2016-04-26) (中文(臺灣)). 
  75. ^ 專家憂人工智慧武器成「殺人機器」 多國研商限制規範. 2014/11/13 The News Lens關鍵評論 Sid Weng. [2016-04-15]. (原始內容存檔於2016-04-27) (中文(臺灣)). 
  76. ^ 別再讓機器人殺人!反對團體呼籲勿用人工智慧參與戰爭. 風傳媒 蕭喬雲 2015年10月22日. [2016年4月15日]. (原始內容存檔於2021年2月13日) (中文(臺灣)). 
  77. ^ 機器人威脅人類 10大類工作未來恐被取代. 大紀元 / 鄭孝祺. [2016-04-15]. (原始內容存檔於2021-02-13) (中文(臺灣)). 
  78. ^ 日近半職業 將被人工智慧取代. 中國時報. [2016-04-15]. (原始內容存檔於2021-02-13) (中文(臺灣)). 
  79. ^ 人工智慧:提前到來的職業殺手. Evans Data調查 April. [2016-04-15]. (原始內容存檔於2019-05-11) (中文(臺灣)). 
  80. ^ 中時-馬雲談AI的風險. [2017-06-23]. (原始內容存檔於2017-06-22). 
  81. ^ 数据科学:二十一世纪最Sexy的职业. 哈佛商業評論. [2017-09-22]. (原始內容存檔於2017-06-14). 
  82. ^ 林東清. 資訊管理 e化企業的核心競爭能力 七版. 台北市: 智勝. 2019-06: 187. ISBN 978-957-511-112-0. 
  83. ^ Nils Nilsson英語Nils Nilsson (researcher)寫道:"Simply put, there is wide disagreement in the field about what AI is all about" (Nilsson 1983,第10頁).
  84. ^ 84.0 84.1 Biological intelligence vs. intelligence in general:
    • Russell & Norvig 2003,第2–3頁, who make the analogy with aeronautical engineering.
    • McCorduck 2004,第100–101頁, who writes that there are "two major branches of artificial intelligence: one aimed at producing intelligent behavior regardless of how it was accomplioshed, and the other aimed at modeling intelligent processes found in nature, particularly human ones."
    • Kolata 1982, a paper in Science, which describes McCathy's indifference to biological models. Kolata quotes McCarthy as writing: "This is AI, so we don't care if it's psychologically real"[1]頁面存檔備份,存於互聯網檔案館). McCarthy recently reiterated his position at the AI@50英語AI@50 conference where he said "Artificial intelligence is not, by definition, simulation of human intelligence" (Maker 2006).
  85. ^ 85.0 85.1 Neats vs. scruffies英語Neats vs. scruffies:
  86. ^ 86.0 86.1 Symbolic vs. sub-symbolic AI:
  87. ^ Haugeland 1985,第255頁.
  88. ^ 存档副本. [2012-10-13]. (原始內容存檔於2017-11-05). 
  89. ^ Pei Wang. Artificial general intelligence, 2008: proceedings of the First AGI Conference. IOS Press. 2008: 63 [2011-10-31]. ISBN 978-1-58603-833-5. (原始內容存檔於2020-08-21). 
  90. ^ AI's immediate precursors: See also Template:See section. Among the researchers who laid the foundations of AI were Alan Turing, John Von Neumann, Norbert Wiener, Claude Shannon, Warren McCullough, Walter Pitts and Donald Hebb.
  91. ^ Haugeland 1985,第112–117頁
  92. ^ The most dramatic case of sub-symbolic AI being pushed into the background was the devastating critique of perceptrons by Marvin Minsky and Seymour Papert in 1969. See History of AI, AI winter, or Frank Rosenblatt英語Frank Rosenblatt.
  93. ^ Cognitive simulation, Newell and Simon, AI at CMU (then called Carnegie Tech):
  94. ^ Soar (history):
  95. ^ McCarthy and AI research at SAIL英語Stanford Artificial Intelligence Laboratory and SRI International:
  96. ^ AI research at Edinburgh and in France, birth of Prolog:
  97. ^ AI at MIT under Marvin Minsky in the 1960s :
  98. ^ Cyc:
  99. ^ Knowledge revolution:
  100. ^ Expert systems:
  101. ^ Embodied英語Embodied agent approaches to AI:
  102. ^ Revival of connectionism:
  103. ^ Computational intelligence英語Computational intelligence
  104. ^ 形式方法是當前首選的("簡約派的勝利"):
  105. ^ Pat Langley, "The changing science of machine learning"[永久失效連結], Machine Learning, Volume 82, Number 3, 275–279, doi:10.1007/s10994-011-5242-y
  106. ^ Agent architecture英語Agent architectures, hybrid intelligent system英語hybrid intelligent systems:
  107. ^ 林, 東清. 資訊管理:e化企業的核心競爭力. 台北: 元照. 2019: 93. ISBN 978-957-511-112-0. 
  108. ^ 108.0 108.1 108.2 陳根. 人工智能“脱衣”再现,技术与道德的撕裂对立. 澎湃. 2020-11-02 [2022-05-07] (中文). 
  109. ^ 109.0 109.1 Reports. Sensity. [2022-05-07]. (原始內容存檔於2022-05-19) (美國英語). 
  110. ^ 「モザイク破壊」AIでアダルト動画を加工 著作権法など違反疑いの男逮捕|社会|地域のニュース|京都新聞. 京都新聞. [2022-05-07]. (原始內容存檔於2022-05-25) (日語). 
  111. ^ IPPA | 宮城県警察本部サイバー犯罪対策課による『フェイク動画』DVD販売摘発に関するお知らせ. www.ippa.jp. [2022-05-07]. 

來源

[編輯]
中文書


教材
人工智能歷史
其他

擴展閱讀

[編輯]

外部連結

[編輯]


參照錯誤:頁面中存在<ref group="lower-alpha">標籤或{{efn}}模板,但沒有找到相應的<references group="lower-alpha" />標籤或{{notelist}}模板