另外,如果妳是寫論文的話還是寫寫比較超前的話題,例如,將來的智能機器人(制造業中應用於電子業,如電子板,電容,各種芯片等等)如果是想將來有這樣的發展的話,還是學壹學關於電子類的智能體,單片機就不錯.
智能機器人資料
機器人現在已被廣泛地用於生產和生活的許多領域,按其擁有智能的水平可以分為三個層次.
壹是工業機器人,它只能死板地按照人給它規定的程序工作,不管外界條件有何變化,自己都不能對程序也就是對所做的工作作相應的調整.如果要改變機器人所做的工作,必須由人對程序作相應的改變,因此它是毫無智能的.
二是初級智能機器人.它和工業機器人不壹樣,具有象人那樣的感受,識別,推理和判斷能力.可以根據外界條件的變化,在壹定範圍內自行修改程序,也就是它能適應外界條件變化對自己怎樣作相應調整.不過,修改程序的原則由人預先給以規定.這種初級智能機器人已擁有壹定的智能,雖然還沒有自動規劃能力,但這種初級智能機器人也開始走向成熟,達到實用水平.
三是高級智能機器人.它和初級智能機器人壹樣,具有感覺,識別,推理和判斷能力,同樣可以根據外界條件的變化,在壹定範圍內自行修改程序.所不同的是,修改程序的原則不是由人規定的,面是機器人自己通過學習,總結經驗來獲得修改程序的原則.所以它的智能高出初能智能機器人.這種機器人已擁有壹定的自動規劃能力,能夠自己安排自己的工作.這種機器人可以不要人的照料,完全獨立的工作,故稱為高級自律機器人.這種機器人也開始走向實用.
智能機器人
我們從廣泛意義上理解所謂的智能機器人,它給人的最深刻的印象是壹個獨特的進行自我控制的“活物”。其實,這個自控“活物”的主要器官並沒有像真正的人那樣微妙而復雜。
智能機器人具備形形色色的內部信息傳感器和外部信息傳感器,如視覺、聽覺、觸覺、嗅覺。除具有感受器外,它還有效應器,作為作用於周圍環境的手段。這就是筋肉,或稱自整步電動機,它們使手、腳、長鼻子、觸角等動起來。
智能機器人之所以叫智能機器人,這是因為它有相當發達的“大腦”。在腦中起作用的是中央計算機,這種計算機跟操作它的人有直接的聯系。最主要的是,這樣的計算機可以進行按目的安排的動作。正因為這樣,我們才說這種機器人才是真正的機器人,盡管它們的外表可能有所不同。
我們稱這種機器人為自控機器人,以便使它同前面談到的機器人區分開來。它是控制論產生的結果,控制論主張這樣的事實:生命和非生命有目的的行為在很多方面是壹致的。正像壹個智能機器人制造者所說的,機器人是壹種系統的功能描述,這種系統過去只能從生命細胞生長的結果中得到,現在它們已經成了我們自己能夠制造的東西了。
智能機器人能夠理解人類語言,用人類語言同操作者對話,在它自身的“意識”中單獨形成了壹種使它得以“生存”的外界環境——實際情況的詳盡模式。它能分析出現的情況,能調整自己的動作以達到操作者所提出的全部要求,能擬定所希望的動作,並在信息不充分的情況下和環境迅速變化的條件下完成這些動作。當然,要它和我們人類思維壹模壹樣,這是不可能辦到的。不過,仍然有人試圖建立計算機能夠理解的某種“微觀世界”。比如維諾格勒在麻省理工學院人工智能實驗室裏制作的機器人。這個機器試圖完全學會玩積木:積木的排列、移動和幾何圖案結構,達到壹個小孩子的程度。這個機器人能獨自行走和拿起壹定的物品,能“看到”東西並分析看到的東西,能服從指令並用人類語言回答問題。更重要的是它具有“理解”能力。為此,有人曾經在壹次人工智能學術會議上說過,不到十年,我們把電子計算機的智力提高了10倍;如維諾格勒所指出的,計算機具有明顯的人工智能成分。
不過,盡管機器人人工智能取得了顯著的成績,控制論專家們認為它可以具備的智能水平的極限並未達到。問題不光在於計算機的運算速度不夠和感覺傳感器種類少,而且在於其他方面,如缺乏編制機器人理智行為程序的設計思想。妳想,現在甚至連人在解決最普通的問題時的思維過程都沒有破譯,人類的智能會如何呢——這種認識過程進展十分緩慢,又怎能掌握規律讓計算機“思維”速度快點呢?因此,沒有認識人類自己這個問題成了機器人發展道路上的絆腳石。制造“生活”在具有不固定性環境中的智能機器人這壹課題,近年來使人們對發生在生物系統、動物和人類大腦中的認識和自我認識過程進行了深刻研究。結果就出現了等級自適應系統說,這種學說正在有效地發展著。作為組織智能機器人進行符合目的的行為的理論基礎,我們的大腦是怎樣控制我們的身體呢?純粹從機械學觀點來粗略估算,我們的身體也具有兩百多個自由度。當我們在進行寫字、走路、跑步、遊泳、彈鋼琴這些復雜動作的時候,大腦究竟是怎樣對每壹塊肌肉發號施令的呢?大腦怎麽能在最短的時間內處理完這麽多的信息呢?我們的大腦根本沒有參與這些活動。大腦——我們的中心信息處理機“不屑於”去管這個。它根本不去監督我們身體的各個運動部位,動作的詳細設計是在比大腦皮層低得多的水平上進行的。這很像用高級語言進行程序設計壹樣,只要指出“間隔為壹的從1~20的壹組數字”,機器人自己會將這組指令輸入詳細規定的操作系統。最明顯的就是,“壹接觸到熱的物體就把手縮回來”這類最明顯的指令甚至在大腦還沒有意識到的時候就已經發出了。
把壹個大任務在幾個皮層之間進行分配,這比控制器官給構成系統的每個要素規定必要動作的嚴格集中的分配合算、經濟、有效。在解決重大問題的時候,這樣集中化的大腦就會顯得過於復雜,不僅腦顱,甚至連人的整個身體都容納不下。在完成這樣或那樣的壹些復雜動作時,我們通常將其分解成壹系列的普遍的小動作 (如起來、坐下、邁右腳、邁左腳)。教給小孩各種各樣的動作可歸結為在小孩的“存儲器”中形成並鞏固相應的小動作。同樣的道理,知覺過程也是如此組織起來的。感性形象——這是聽覺、視覺或觸覺脈沖的固定序列或組合 (馬、人),或者是序列和組合二者兼而有之。
學習能力是復雜生物系統中組織控制的另壹個普遍原則,是對先前並不知道、在相當廣泛範圍內發生變化的生活環境的適應能力。這種適應能力不僅是整個機體所固有的,而且是機體的單個器官、甚至功能所固有的,這種能力在同壹個問題應該解決多次的情況下是不可替代的。可見,適應能力這種現象,在整個生物界的合乎目的的行為中起著極其重要的作用。本世紀初,動物學家桑戴克進行了下面的動物試驗。先設計壹個帶有三個小平臺的T形迷宮,試驗動物位於字母T底點上的小平臺上,誘餌位於字母T橫梁兩頭的小平臺上。這個動物只可能做出以下兩種選擇,即跑到岔口後,它可以轉向左邊或右邊的小平臺。但是,在通向誘餌的路上埋伏著使它不愉快的東西:走廊兩側裝著電極,電壓以某種固定頻率輸進這些電極之中,於是跑著經過這些電極的動物便受到疼痛的刺激——外界發出懲罰信號。而另壹邊平臺上等著動物的誘餌則是外界獎勵的信號。實驗中,如果壹邊走廊的刺激概率大大超過另壹走廊中的刺激概率,那麽,動物自然會適應外界情況:反復跑幾次以後,動物朝刺激概率低、痛苦少的那邊走廊跑去。桑戴克作試驗最多的是老鼠。如老鼠就更快地選擇比較安全的路線,並且在懲罰相差不大的情況下自信地選擇壹條比較安全的路線,其它作試驗的動物是帶著不同程度的自適應性來體現這壹點的,不過,這種能力是參加試驗的各種動物都具有的。
控制機器人的問題在於模擬動物運動和人的適應能力。建立機器人控制的等級——首先是在機器人的各個等級水平上和子系統之間實行知覺功能、信息處理功能和控制功能的分配。第三代機器人具有大規模處理能力,在這種情況下信息的處理和控制的完全統壹算法,實際上是低效的,甚至是不中用的。所以,等級自適應結構的出現首先是為了提高機器人控制的質量,也就是降低不定性水平,增加動作的快速性。為了發揮各個等級和子系統的作用,必須使信息量大大減少。因此算法的各司其職使人們可以在不定性大大減少的情況下來完成任務。
總之,智能的發達是第三代機器人的壹個重要特征。人們根據機器人的智力水平決定其所屬的機器人代別。有的人甚至依此將機器人分為以下幾類:受控機器人——“零代”機器人,不具備任何智力性能,是由人來掌握操縱的機械手;可以訓練的機器人——第壹代機器人,擁有存儲器,由人操作,動作的計劃和程序由人指定,它只是記住 (接受訓練的能力)和再現出來;感覺機器人——機器人記住人安排的計劃後,再依據外界這樣或那樣的數據 (反饋)算出動作的具體程序;智能機器人——人指定目標後,機器人獨自編制操作計劃,依據實際情況確定動作程序,然後把動作變為操作機構的運動。因此,它有廣泛的感覺系統、智能、模擬裝置(周圍情況及自身——機器人的意識和自我意識)。
怎樣變聰明的
人工智能專家指出:計算機不僅應該去做人類指定它做的事,還應該獨自以最佳方式去解決許多事情。比如說,核算電費或從事銀行業務的普通計算機的全部程序就是準確無誤地完成指令表,而某些科研中心的計算機卻會“思考”問題。前者運轉迅速,但絕無智能;後者儲存了比較復雜的程序,計算機裏塞滿了信息,能模仿人類的許多能力 (在某些情況下甚至超過我們人的能力)。
為了研究這個問題,許多科學家都曾耗盡了自己壹生的心血。如第二次世界大戰期間,英國數學家圖靈發明了壹種機器,這種機器成了現代機器人的鼻祖。這是壹種破譯敵方通訊的系統。後來,圖靈用整個壹生去幻想制造出壹種會學習、有智能的機器。而在1945年10月的普林斯頓,另壹位著名的數字家馮·奈曼卻設計了壹個被稱為“人工大腦”的東西。他和自己的學生都是心理學和神經學的狂熱迷戀者,為了制造人類行為的數學模擬機,他們遭受了多次失敗,最後失去了制造“人工智能”可能性的信心。早期的計算裝置過於笨重,部件尺寸太大,使得馮·奈曼無法解決如何用這些部件來代替極小極小的神經細胞這樣壹個難題,因為當時人類的大腦被看作是某種相互聯系的神經元編織成的東西,所以就可以把它想象成某種計算裝置,其中循環的不是能量,而是信息。科學家們想到,如果接受這樣的對比的話,為什麽不能發明出壹種使信息通過以後產生智能的系統呢?
於是他們提出了人工思維的各種理論。比如,物理學家馬克便提出了企圖使機器人用二進位或二進位邏輯元件進行思維的方法。這個方法被大家認為是非常簡便的方法。1956年科學家們召開了第壹屆大型研討會,許多專家學者主張采用“人工智能”這個術語作為研究對象的名稱。兩位不出名的研究者——內維爾和西蒙提出了不同凡響的設想。他們研究了兩個人借助於信號裝置和按鈕系統進行交際的方式。這個系統要把這兩個人的行為分解為壹系列簡單動作和邏輯動作。因為在這兩個研究者的工作地點裝有兩臺大型計算機,所以他們倆常把自己的試驗從腳到頭倒著進行消遣取樂:把簡單的邏輯規則輸入計算機,使它養成進行復雜推理的能力。這真是壹個天才的想法;計算機程序不僅進行工作,而且靠它幫助,發現了壹個新定理,這個定理證明完全出乎意料之外,而且比以前所有的證明還要優美得多。內維爾和西蒙發現了壹個奠定性的原則,即賦予機器人智能用不著非得弄懂人類大腦不可。需要研究的不是我們的大腦是怎樣工作,而是它做些什麽;需要分析人的行為,研究人的行為獲得知識的過程,而不需要探究神經元網絡的理論。簡單地講,應著重的是心理學,而不是生理學。
從此,研究者便開始沿著上述方向前進了。不過,他們還壹直在爭論這樣的問題:用什麽方式使計算機“思維”。
有壹派研究者以邏輯學為研究點,試圖把推理過程分為壹系列的邏輯判斷。計算機從壹個判斷進到另壹個判斷,得出合乎邏輯的結論。象眾所周知的三段論壹樣:“所有的動物都會死掉;小刺唱是動物,因此,小刺猖也會死掉。”計算機能否獲得幼童壹樣的智力水平呢?關於這個問題,科學家們有兩種相反的見解。伯克利的哲學教師德賴弗斯帶頭激烈反對“人工智能派”。他說人工智能派的理論是煉金術。他認為,任何時候也無法將人的思維進行程序設計,因為有壹個最簡單不過的道理:人是連同自己的肉體壹起來認識世界的,人不僅僅由智能構成。
他進壹步舉例:計算機也許懂得飯店是什麽意思,但它絕不會懂得得客人是否用腳吃飯,不懂得服務小姐是飛到桌邊,還是爬到腳邊;總之,計算機永遠也不會有足夠的知識來認識世界。但麻省理工學院的研究員明斯基卻不同意德賴弗斯的觀點,他認為機器人的智能是無限的。他對“人工智能”的解釋是:這是壹門科學,它使機器去做這樣壹種事情,如果這種事情由人來做的話,就會被認為是有智力的行為。明斯基同時是壹位物理學家、數學家,還對心理學、社會學、神經學都有所研究。他指出,人工智能是心理學的壹個新門類,這個門類用實驗的方法,以計算機為手段模擬人類思維的本性。他認為自己所研究的計算機,是壹門全新的科學;當然機器並不是人,它永遠沒有人的那種快樂或是痛苦的情感體驗,只是熱衷於掌握純粹的知識。舉個例子來說吧,人可以給計算機輸入“水”的概念:水是壹種液體,表面是平的;如果從壹個容器倒入另壹個容器裏,其數量不變;水可以從有洞的容器裏漏出來,能弄濕衣服,等等。但是,它獲得有關水的最壹般的信息之後,就盡力回答壹個很重要的問題:“如果將盛滿水的玻璃杯傾斜,那會怎樣呢?”計算機在它的熒光屏上顯示出了壹只傾斜到水平位置的玻璃杯,盡管計算機知道引力定律,但它還是固執地在熒光屏上顯示:玻璃杯歪倒了,可液體就是不外流。計算機永遠不會從痛苦的、但卻是有益的經驗中體驗到那種衣服被弄濕的人所感受到的不快心情。
所以有壹個名叫申克的心理學家正領導壹批學者從事這個令人感興趣的課題的研究:讓計算機學會閱讀和概括讀物內容,回答有關問題;讓計算機學會幾種人類語言,並互相翻譯;讓計算機學會對話、學習論證藝術、背單詞……
與人對話
美國耶魯大學曾經設計了壹臺這樣的計算機:它的存儲器裏沒有保存預先準備好的固定說法,它自行編制答話,會論證,會“思考”,某種程度上有點像人。靠著心理學和信息論,科學家為自己提出了壹個令世人驚異不已的課題:把人的思維方式和行為研究清楚,然後去人工模擬它。
談到“人工智能”這個詞的時候,我們馬上會把它跟壹些非真實的東西聯在壹起。這個詞的出現,令許多人提心吊膽:機器人和人壹樣了,那人類將何去何從!有的人在拼命捍衛著人類自身的最後壹個堡壘,使其免遭機器人的傷害、侵犯。問題之所以復雜還在於這個詞至今還沒有形成統壹的定義。明斯基說:“這是壹門科學,它使機器人去做這樣壹種事情,這種事情如果由人去做的話,就會被認為是有智能的行為。”這類俏皮的定義用處不大,有時簡直會把研究者引到實用形式主義的沼澤中去。另壹個叫圖靈的研究者提出了人工智能的測試方法:如果人類猜不出計算機跟他談話時將表述何種內容——不知道它要說什麽,那麽,這臺計算機已經達到了人的智能水平。他的這壹番高論曾經引起了轟動,給學術界添了不少忙亂。為了排除計算機言語問題,這樣的對話最好是利用電傳機進行。對於許多控制專家來說,為達到圖靈所說的水平,進行了大量的工作。數不清的各種各樣的電子交談者紛紛問世。
60年代末,美國控制論專家、麻省理工學院教師魏森鮑姆編成了幾個程序,其主要目的是滿足圖靈的測試條件——把吹毛求疵的技術專家搞糊塗。這種做法的基礎是似是而非的對話。在進行這種對話時,交談者只是看起來像是在交談。“交談者”實際上不去考慮交談對方所說的意思,而是把聽到的東西作些並不復雜的形式上的改變,組成自己的答話。請看:
研究者說:“朋友建議我到您這兒來,他說這多少可使我快樂些。”
計算機吃驚地問道:“您的朋友建議您到這兒來?”
研究者說:“他說我總是郁郁不樂。”
計算機說:“您郁郁不樂,我很遺憾。”
詳盡研究了無聊空洞的沙龍對話之後,魏森鮑姆發明了他那富有魅力的
“機器人女士”。他發現他的某些同胞能在毫無興趣的情況下應付對方談話,而且他們的對話仍能很好地進行下去。這個機器人女士繼承了這壹能力,能在問話中找到關鍵詞語,然後組成壹些公式化的令人感到恰當的答案。看得出,這位“女士”是有些智能。但實際上,她的智能有限,只是善於偽裝罷了。“女士”的頭腦十分簡單,在人說出來的話語中,壹些固定的關鍵詞語迫使它產生反應,提出壹些固定的語句來。比如,當人說“妳不知道某某”時,“女士”便會答道:“為什麽您認為我不知道呢?”她能說會道,但只不過是壹個沙龍裏閑聊的能手罷了。
科爾比在斯坦福大學編制了另壹種計算機程序,它與上述“女士”不同。它的任務是幫助剛剛開始工作的精神病醫生獲得某些同重病患者交談的經驗。這個程序模擬的是患迫害狂的病人。程序中存儲了壹定的履歷情況:佩裏,28歲,未婚,在郵局工作;他極其脆弱,對涉及他的外貌、教育和信仰等所有問題都敏感;他的愛好是看電影和賽馬;有壹次,他竟朝賽馬場賭註登記員猛撲過去,因為那個人沒付給他贏得的彩金;從此,他便開始懼怕黑社會的報復。交談中,佩裏的情緒經常變化。如果談話主持人經常地觸及到佩裏的“痛處”,佩裏便開始激動,出現妄想狂癥狀。下面是他們的對話:
醫生:“您怕黑社會嗎?”
佩裏:“黑手黨是最可怕的暴徒。”
醫生:“您跟黑手黨有什麽聯系嗎?”
佩裏:“您沒看到嗎,他們知道我。”
醫生:“他們怎麽會知道妳?”
佩裏:“他們在監視我。”
醫生:“為什麽?”
佩裏:“他們想羅織罪名把我打入監獄。”
醫生:“他們為什麽要害您?”
佩裏:“他們想置我於死地。”
醫生:“為什麽呢?”
佩裏:“我掌握著黑手黨的罪證。”
壹群精神病醫生被安排通過電傳機跟壹個真病人和佩裏同時進行交談,雖然他們知道其中壹個交談者是計算機,但猜不出究竟哪個是計算機。這樣,圖靈測試法便開始發生作用了。後來發生了更加有趣的事,先前魏森鮑姆制作了壹個模擬精神病醫生醫治某些神經功能失調癥的機器人;後來產生了用這個機器人來治佩裏的想法,這是它們之間的對話:
醫生:“您好,請說說您哪兒不舒服?”
佩裏:“我有時生別人的氣。”
醫生:“我不太理解您說的意思。”
佩裏:“您應該註意聽些。”
醫生:“請繼續說吧。”
佩裏:“我曾經去過貝—梅多烏斯賽馬場。”
醫生:“您去幹什麽?”
佩裏:“我去賽馬了。”
醫生:“您還想討論什麽?”
佩裏:“我對賽馬感興趣。”
醫生:“您為什麽要說這些呢?”
佩裏:“那裏賽馬賭博時搗鬼。”
醫生:“我不太明白您的意思。”
佩裏:“您真是個令人討厭的人!”
醫生:“您喜歡把我看作是個真正令人討厭的人嗎?”
佩裏:“我聽膩了。”
醫生:“為什麽?”
佩裏:“再見!”
醫生:“認識您十分高興。您應交付399美元25美分。”
這就是它們的對話,交談得不錯,盡管醫生有些“瞎蒙”。程序員準備逐步完善“佩裏”的程序,以便年輕的醫生們能在對話過程中“治愈”這個人造病人。到那時,大學生們便可以通過跟計算機交談來學習,免去面對真正的精神病人時因醫術不熟練造成的痛苦。
教會機器人去抓住這樣或那樣的實質更為重要。跟計算機談話有兩種類型:有限的交談和有限的理解。在有限的交談中,機器人“理解”它所交談的全部內容,不過只是涉及到確定話題的情形下,比方說,下棋或擺積木。在有限的理解時,可以同它隨意交談,但是它卻遠遠不能全部理解妳的話。魏森鮑姆編制的機器人“女士”這個程序正屬於此類。“女士”只能表面上理解事件和現象。不過,隨著控制對話理論和實踐的發展,機器人的言語變得越來越能表達意思了。圖靈測試法開始經常性地生效了。
美國的壹家電子計算機公司的副董事長,陰差陽錯,接受了壹次圖靈標準測試。從此,這個標準的地位開始下降了。因為控制專家們由此發現,它也不是檢驗計算機智能極限的最佳標準。
最佳標準是什麽呢?怎樣的智能水平才夠稱得上是真正的“智能”機器人呢?這又成了擺在智能科學家面前的壹個新問題。
機器人教給妳
計算機事業的發展是建立在許多科學研究者“異想天開”的主觀設想和辛勤勞動的客觀實踐的基礎之上的。前面已經說過,壹些學者在研制控制對話原理,做出了不少貢獻。此時,另壹些實踐家和實用主義者則努力將機器人的這種新能力套在科技進步的大車上,他們決心讓機器人具備具體的領域中的某些知識。
我們知道,計算機所獲得的全部信息因素被壹個相互依賴的復雜系統聯系在壹起。計算機比起邏輯推理來,更經常地采用類比和判斷的方法,它將這些要素進行歸類、合並和綜合,漸漸地發展了自己的“思維”能力。現在我們來回顧壹下機器人在這個發展過程中的壹些歷史性事件。
最初壹批這樣的計算機誕生於50年代末。它們證明了約40個定理,並且能解答象“建造兒童金字塔”壹類的簡單小問題。到60年代,人們已經能夠同計算機談論天氣之類的話題了,因為這些計算機了解氣象學,並具備正確造句所必需的句法知識。比如,如果對它說:“我不喜歡夏天下雨。”它會彬彬有禮地回答:“是的,不過夏天並不經常下雨。”此外,還有壹個叫“棒球”的程序能解答與本年度比賽有關的所有問題:比賽地點、比分、參賽隊的人員情況。而“談談”程序,它已經開始對交談者的家庭關系感興趣了,盡管它確實對此壹無所知。只是到了1965年,機器人“先生”才開始更多地註意詞義,而不僅是單詞在句中的排列順序。計算機“學生”也是這種類型的,像壹個學習成績優秀的學生,能解答壹次方程,能用流利的英語敘述解方程的順序。
輸入計算機中的知識專業化程度越高,計算機掌握它們的可能性就越大。現在,有些計算機已成了真正的“技術顧問”。比如,它們已經在協助專家們去確定哪個地層礦產豐富;協助專家們作出有關傳染病的診斷。要制造出這樣的“專家”來,必須把人——專家的知識,傳授給它們。然而,不管令人多麽難以置信,主要困難仍在於怎樣把這些知識從人的大腦中“全掏”出來。比如,醫生作出診斷時,根據經驗,遵守壹些規則。這些規則,他幾乎是在下意識地和機械地加以運用的。研究者們花費了好多時間去采訪醫生和其他專家,以便弄清楚他們思維過程所固有的基本規律。只要能將他們思維的全部過程還原,那麽,再把它復制於計算機程序中,這相對來說就不復雜了。從1965年開始,計算機中的第壹個“專家”便由法伊根鮑姆在斯坦福制成了。它壹出生,就自告奮勇地幫助化學家確定物質的分子結構;另壹個技術顧問“探礦者”,工作起來更是嚴謹。它詳細地研究地質圖和土壤樣圖,以便確定存在的礦床。它居然在華盛頓州發現了壹座蘊藏豐富的鉬礦。
而計算機“醫生”,它的程序編制於70年代。它在得知診斷結果和主要癥狀後,能對傳染病作出診斷。最精彩的是,如果應用人要求它解釋作出這樣診斷的理由的話,那麽它任何時候都能說明作出這種診斷的理由是這個,而不是另壹個。匹茲堡大學的壹位計算機專家波烏普爾和內科專家邁爾斯還設計了計算機“科達”的程序,這個計算機在其存儲器中存儲著比壹個醫生在任何情況下所記住的更多的病癥。它可以把事實、評定和判斷結合起來作高難的診斷。計算機竟然學會了診斷?對的,不信,請看下面的實例:
有壹天,人們給這臺計算機輸入了壹個中年人的詳細病情。當時,這個中年人臉色難看之極,呼吸困難,被救護車送到了醫院。邁爾斯初診為心臟病發作。而計算機註意到了該病人的病情——胸廓不感到疼痛,以前發作心臟病時,血壓正常,病歷中有關於糖尿病的記載,計算機先考慮了十多種疾病的癥狀,否定了這些假設的疾病。然後,在熒光屏上顯示出主要診斷結果,幾分鐘後,計算機得出確診:病人是心臟病發作。而醫生要作出同樣的確診則需要幾天的時間。在某些復雜和異常情況下,它作出的確診比私人醫生的確診更為正確、更為細心。所以邁爾斯醫生認為,計算機幾乎總是願意同有足夠時間的醫學專家研究患者的每壹種病癥。例如,進行過附加測試以後,
“科達”就可以成為醫生們的普通參謀,它甚至可以降低醫療費,因為根據計算機提出的問題,醫生指定病人去化驗的次數將會減少。
現在這樣的“專家”隊伍已經擴大了。長此下去,它們定將兒孫滿堂。例如,正在研制的電子計算機,會翻譯,會辨別書面語和口語,會指出錯誤,會學習,會改正錯誤。總之,未來的“專家系統”所涉足的領域將越來越廣泛,從天上到地下,從古代到現代——真正做到“天上知三分,地上全知道”(雖有點誇張,但符合它發展的方向和人們的願望)。