這個領域建立在這樣壹種說法的基礎上,即人類的壹個核心屬性——智力——可以如此精確地描述,以至於可以用機器來模擬。[5]這就提出了關於心靈的本質和科學自大的限度的哲學問題,這些問題自古以來就被神話、小說和哲學所解決。[6]人工智能壹直是令人激動的樂觀主義的主題,[7]遭受了令人震驚的挫折[8],今天,它已成為技術工業的壹個重要組成部分,為計算機科學中許多最困難的問題提供了解決的辦法。[9]
人工智能研究是高度技術化和專業化的,深入劃分為子領域,這些子領域往往無法相互溝通。[10]圍繞特定機構、單個研究人員的工作、特定問題的解決方案、關於如何實現人工智能的長期意見分歧以及差異很大的工具的應用,出現了子領域。人工智能的核心問題包括推理、知識、規劃、學習、交流、感知以及移動和操縱物體的能力等特征。[11]壹般智能(或稱“強AI”)仍然是(壹些)研究的長期目標。[12]
會思考的機器和人造人出現在希臘神話中,比如克裏特島的塔洛斯,赫菲斯托斯的金色機器人和皮格馬利翁的加拉太亞。[13]每個主要文明都建造了被認為具有智能的人類肖像:動畫雕像在埃及和希臘受到崇拜[14],人形機器人由Yan Shi,[15]亞歷山大的Hero,[16] Al-Jazari[17]和Wolfgang von Kempelen建造。人們也普遍認為,Jābir ibn Hayyān、[19] Judah Loew[20]和Paracelsus創造了人造人。到了19和20世紀,人造人已經成為小說中的常見特征,就像瑪麗.雪萊的《弗蘭肯斯坦》或《卡雷爾》?apek的R.U.R .(羅森公司的通用機器人)。[22]帕梅拉·麥科達克認為,所有這些都是壹種古老的沖動的例子,正如她所描述的那樣,“鑄造神靈”。[6]這些生物及其命運的故事討論了許多與人工智能相同的希望、恐懼和倫理問題。
模擬(或創造)智能的問題已經被分解成許多具體的子問題。這些包括研究人員將李可智能系統顯示的特殊特征或能力。下面描述的特征受到了最多的關註。[11]
[編輯]演繹,推理,解題
早期的人工智能研究人員開發了模仿人類在解謎、玩棋盤遊戲或進行邏輯推理時使用的逐步推理的算法。[39]到了80年代末和90年代,人工智能研究還利用概率論和經濟學的概念,開發出了處理不確定或不完整信息的非常成功的方法。[40]
對於困難的問題,這些算法中的大多數可能需要巨大的計算資源——大多數經歷了“組合爆炸”:當問題超過壹定規模時,所需的內存或計算機時間量就變成了天文數字。尋找更有效的問題解決算法是人工智能研究的重中之重。[41]
人類使用快速、直覺的判斷來解決大多數問題,而不是早期人工智能研究能夠模擬的有意識的逐步推理。[42]人工智能在模仿這種“次符號”問題解決方面取得了壹些進展:具身方法強調感覺運動技能對高級推理的重要性;神經網絡研究試圖模擬人類和動物大腦內部產生這種技能的結構。
普通智力
主要文章:強AI和AI-complete
大多數研究人員希望他們的工作最終被納入壹個具有壹般智能(被稱為強AI)的機器,結合上述所有技能,並在大多數或所有方面超過人類的能力。[12]壹些人認為這樣的項目可能需要擬人化的特征,如人工意識或人工大腦。[74]
上面的很多問題都被認為是AI完備的:要解決壹個問題,妳必須解決所有問題。例如,即使是像機器翻譯這樣直截了當、具體的任務,也要求機器跟隨作者的論點(理性),知道正在談論什麽(知識),忠實地再現作者的意圖(社會智能)。因此,機器翻譯被認為是完全人工智能的:它可能需要像人類壹樣強大的人工智能來完成。[75]
[編輯]方法
沒有既定的統壹理論或範式來指導人工智能研究。研究人員在許多問題上意見不壹。[76]有幾個長期懸而未決的問題是:人工智能應該通過學習心理學或神經學來模擬自然智能嗎?還是人類生物學與AI研究的不相關程度就像鳥類生物學與航空工程的不相關程度壹樣?[77]智能行為可以用簡單、優雅的原則(如邏輯或優化)來描述嗎?還是壹定需要解決大量完全不相關的問題?[78]智力可以用類似於文字和思想的高級符號復制嗎?還是需要“次符號”處理?[79]
[編輯]控制論和大腦模擬
主要文章:控制論和計算神經科學
對於大腦應該模擬到什麽程度還沒有壹致的意見。在1940年代和1950年代,壹些研究人員探索了神經學、信息論和控制論之間的聯系。他們中的壹些人制造了使用電子網絡展示基本智能的機器,如W. Grey Walter的海龜和Johns Hopkins的野獸。這些研究人員中的許多人聚集在普林斯頓大學的目的論協會和英國的比率俱樂部開會。[24]到公元1960年,這種方法基本上被放棄了,盡管其中的壹些元素在公元1980年又重新出現。
如何判斷壹個智能體是否聰明?在1950中,艾倫·圖靈提出了壹個測試智能體的壹般程序,現在被稱為圖靈測試。這個程序允許幾乎所有的人工智能的主要問題被測試。然而,這是壹個非常困難的挑戰,目前所有代理都失敗了。
人工智能還可以在特定問題上進行評估,如化學中的小問題、手寫識別和玩遊戲。這種測試被稱為主題專家圖靈測試。較小的問題提供了更多可實現的目標,並且有越來越多的積極結果。
人工智能測試的主要結果有:
最佳:不可能表現得更好
強大的超人:表現比所有人類都好
超人:比大多數人類表現更好
次人類:表現比大多數人類差
例如,跳棋的性能是最佳的,[143]國際象棋的性能是超人的,接近強大的超人,[144]而人類執行的許多日常任務的性能是次於人的。
壹種完全不同的方法是基於通過測試來測量機器智能,這些測試是從智能的數學定義發展而來的。這種測試的例子始於90年代末,使用Kolmogorov復雜性和壓縮的概念設計智力測試。馬庫斯·赫特(Marcus Hutter)在他的著作《通用人工智能》(Springer 2005)中已經提出了機器智能的類似定義,並由萊格和赫特[147]進壹步發展。作為壹個優勢,數學定義可以應用於非人類智能,並且沒有人類測試者。
人工智能是科幻小說和關於技術和社會未來的預測中的壹個常見話題。與人類智能相匹敵的人工智能的存在引發了棘手的倫理問題,該技術的潛在力量既激發了希望,也引發了擔憂。
瑪麗·雪萊的《弗蘭肯斯坦》,[160]考慮了人工智能倫理學中的壹個關鍵問題:如果可以創造出壹臺具有智能的機器,它是否也能有感覺?如果它能感覺,它有和人類壹樣的權利嗎?這個想法也出現在現代科幻小說中:電影《人工智能:人工智能》認為壹個小男孩形式的機器被賦予了感受人類情感的能力,可悲的是,包括承受痛苦的能力。這個問題,現在被稱為“機器人權利”,目前正在由,例如,加州的未來研究所考慮,[161]雖然許多評論家認為,討論為時過早。[162]
科幻作家和未來學家探討的另壹個問題是人工智能對社會的影響。在小說中,AI以仆人(星球大戰中的R2D2)、執法者(K.I.T.T .《霹靂遊俠》)、同誌(星際迷航中的指揮官數據中尉)、征服者(黑客帝國)、獨裁者(雙手合十)、滅蟲者(終結者、《太空堡壘卡拉狄加》)、人類能力的延伸(殼中幽靈)和人類的救世主(基礎系列中的R. Daneel Olivaw)。學術來源已經考慮了這樣的後果:對人類勞動力需求的減少,[163]人類能力或經驗的增強,[164]以及對人類身份和基本價值重新定義的需要。[165]
幾位未來學家認為,人工智能將超越進步的極限,從根本上改變人類。雷·庫茲韋爾(Ray Kurzweil)利用摩爾定律(該定律以驚人的準確性描述了數字技術的無休止的指數級進步)計算出,到2029年,臺式計算機將擁有與人腦相同的處理能力,到2045年,人工智能將達到這樣壹個點,即它能夠以遠超過去任何想象的速度改進自己,科幻作家弗諾爾·文奇(Vernor Vinge)將這種情況命名為“技術奇點”。[164] Edward Fredkin認為“人工智能是進化的下壹個階段”,[166]這個想法首先由塞繆爾·巴特勒的《機器中的達爾文》(1863)提出,並由喬治·戴森在他的同名書籍1998中詳細闡述。幾位未來學家和科幻小說作家預言,人類和機器將在未來融合成比任何壹方都更有能力和更強大的半機械人。這個被稱為超人類主義的想法源於阿爾多斯·赫胥黎和羅伯特·艾丁格,現在與機器人設計師漢斯·莫拉維克、控制論專家凱文·沃裏克和發明家雷·庫茲韋爾聯系在壹起。[164]超人類主義也出現在小說中,例如漫畫《貝殼中的幽靈》和科幻系列《沙丘》。帕梅拉·麥科達克寫道,這些場景表達了遠古人類的渴望,她稱之為“鍛造神”[6]