當前位置:法律諮詢服務網 - 中國稅務 - 智能機器人的研究熱點

智能機器人的研究熱點

如何變得聰明

人工智能專家指出,計算機不僅應該做人類分配給它們做的事情,還應該自己以最佳方式解決許多事情。比如壹臺普通的算電或從事銀行業務的計算機,整個程序就是準確完成指令表,而壹些科研中心的計算機則是“思考”問題。前者見效快,但沒有智能;後者存儲了更復雜的程序,計算機充滿了信息,可以模仿人類的很多能力(在某些情況下,甚至超過了我們的能力)。

為了研究這個問題,許多科學家窮盡了壹生的努力。比如二戰期間,英國數學家圖靈發明了壹種機器,成為現代機器人的鼻祖。這是壹個破譯敵人通信的系統。後來,圖靈花了壹生的時間幻想造出壹個具有學習能力和智能的機器。但在1945+00年6月的普林斯頓,另壹位著名數學家馮·奈曼設計了壹種叫做“人工大腦”的東西。他和他的學生是心理學和神經學的狂熱分子。為了創造人類行為的數學模擬器,他們遭受了多次失敗,最終對創造“人工智能”的可能性失去了信心。早期的計算設備過於笨重,部件過於龐大,這使得馮·奈曼無法解決如何用這些部件替代微小神經細胞的問題。當時,人類的大腦被認為是由相互連接的神經元編織而成的東西,因此可以將其想象為壹個計算設備,在其中循環的是信息,而不是能量。科學家們想,如果我們接受這樣的比較,為什麽不能發明壹個讓信息通過並產生智能的系統呢?

於是他們提出了各種人工思維的理論。例如,物理學家馬克提出了壹種方法,讓機器人用二進制或二進制邏輯元素進行思考。這種方法被認為非常簡單。1956年,科學家們召開了第壹次大規模的研討會,許多專家學者主張用“人工智能”壹詞作為研究對象的名稱。兩個不知名的研究人員,內維爾和西蒙,提出了非同尋常的想法。他們研究了兩個人在信號設備和按鈕系統的幫助下交流的方式。這個系統會把這兩個人的行為分解成壹系列的簡單動作和邏輯動作。因為這兩位研究人員的工作場所有兩臺大型計算機,所以他們經常把自己的實驗倒過來自娛自樂:把簡單的邏輯規則輸入計算機,讓它發展復雜推理的能力。這真是壹個天才的想法;計算機程序不僅工作,而且在它的幫助下發現了壹個新的定理。這個定理的證明完全出乎意料,比之前所有的證明都漂亮得多。內維爾和西蒙發現了壹個約定俗成的原則,即賦予機器人智能並不需要理解人類的大腦。需要研究的不是我們的大腦如何工作,而是它做什麽;需要分析人的行為,研究人的行為獲取知識的過程,不需要探索神經網絡的理論。簡單來說,我們應該關註心理,而不是生理。

此後,研究人員開始向上述方向發展。然而,他們壹直在爭論如何讓計算機“思考”。

壹派研究者以邏輯為研究點,試圖將推理過程劃分為壹系列邏輯判斷。計算機從壹個判斷轉到另壹個判斷,並得出邏輯結論。就像眾所周知的三段論:“所有的動物都會死;小刺唱歌是動物,所以小刺小屋會死。”計算機能達到和幼兒壹樣的智力水平嗎?科學家在這個問題上有兩種相反的觀點。伯克利的哲學老師德雷福斯率先激烈反對“人工智能學派”。他說人工智能的理論是煉金術。他認為人的思維在任何時候都不能被編程,因為有壹個最簡單的道理:人是和自己的身體壹起認識世界的,人不僅僅是由智力組成的。

他進壹步舉例:計算機可能知道壹家餐廳是什麽意思,但它永遠不會知道客人是用腳吃飯,還是女服務員是飛到桌子上,還是爬到腳上;總之,計算機永遠不會有足夠的知識去認識世界。但是麻省理工學院的研究員明斯基不同意德雷福斯的觀點。他認為機器人的智力是無限的。他對“人工智能”的解釋是,它是壹門科學,讓機器做這樣的事情。如果這種事情是人做的,會被認為是壹種智能行為。明斯基也是物理學家和數學家,他還研究心理學、社會學和神經學。他指出,人工智能是心理學的壹個新範疇,它通過實驗和計算機的手段模擬人類思維的本質。他認為他研究的計算機是壹門全新的科學;當然,機器不是人。它從來沒有人的那種快樂或痛苦的情感體驗,而是熱衷於掌握純粹的知識。例如,人們可以將“水”的概念輸入電腦:水是壹種表面平坦的液體;如果妳把它從壹個容器倒入另壹個容器,它的數量不會改變;水可以從有洞的容器、濕衣服等處漏出。然而,在獲得了關於水的最壹般的信息後,它盡力回答了壹個非常重要的問題:“如果裝滿水的杯子傾斜了會怎麽樣?”計算機在屏幕上顯示壹個傾斜到水平位置的玻璃。電腦雖然知道萬有引力定律,但還是固執地在屏幕上顯示玻璃是傾斜的,只是液體沒有流出來。計算機永遠不會體驗到那些衣服因為痛苦但有益的經歷而變濕的人的不愉快感覺。

於是壹位名叫申克的心理學家正在帶領壹群學者研究這個有趣的課題:讓計算機學會閱讀和總結閱讀材料的內容,並回答相關問題;讓計算機學習幾種人類語言,互相翻譯;讓電腦學會說話,學會辯論的藝術,背單詞...與人交談。

美國耶魯大學曾經設計過這樣壹臺計算機:它沒有在內存中存儲事先準備好的固定語句。它自己編答案,自己演示,自己“思考”,有點像人。依靠心理學和信息論,科學家們給自己提出了壹個讓世界驚訝的課題:研究清楚人的思維模式和行為,然後進行人工模擬。

當我們談到“人工智能”這個詞的時候,我們會立刻聯想到壹些不真實的東西。這個詞的出現讓很多人緊張:機器人和人壹樣,那麽人類將何去何從!有些人在拼命保衛人類最後的堡壘免受機器人的傷害和侵犯。這個問題很復雜,因為這個詞還沒有形成統壹的定義。明斯基說:“這是壹門科學,讓機器人做這樣的事。如果是人做的,會被認為是智能行為。”這種戲謔的定義用處不大,有時簡直把研究者引入實用形式主義的沼澤。另壹個叫圖靈的研究人員提出了壹個人工智能的測試方法:如果人類猜不出計算機跟他說話會說什麽——我不知道它會說什麽,那麽計算機已經達到了人類的智能水平。他的這壹言論壹度引起轟動,給學術界平添了不少大驚小怪。為了消除計算機語音問題,這樣的對話最好通過電傳進行。對於很多控制專家來說,為了達到圖靈的水平,已經做了很多工作。各種各樣的電子談話器不計其數。

20世紀60年代末,美國控制論專家、麻省理工學院教師韋森鮑姆編了幾個程序,主要目的是為了滿足圖靈的測試條件——迷惑吹毛求疵的技術專家。這種方法基於似是而非的對話。在這種談話中,談話者只是看起來像在談話。其實“說者”並沒有去想對方說了什麽,而是對聽到的內容做壹些不復雜的形式上的改變,形成自己的答案。請看:

研究員說:“我朋友建議我來找妳,他說這樣會讓我更開心。”

電腦驚訝地問:“妳的朋友建議妳來這裏?”

研究員說:“他說我總是不開心。”

電腦說:“妳不開心,我很難過。”

在詳細研究了無聊而空洞的沙龍對話後,韋森鮑姆發明了他的迷人

“機器人女士”他發現,他的壹些同胞可以毫無興趣地應付彼此的談話,他們的談話仍然可以很好地進行下去。這位機器人小姐繼承了這種能力,能夠在問題中找到關鍵詞,然後形成壹些公式化的、恰當的答案。可見這位“女士”是有幾分聰明的。但其實她的智力有限,只擅長偽裝。“淑女”的心思很簡單。在人說的話裏,壹些固定的關鍵詞迫使它做出反應,提出壹些固定的句子。比如有人說“妳不知道某某”,這位“女士”就會回復:“妳為什麽覺得我不知道?”她能說會道,但她只是沙龍聊天的專家。科爾比在斯坦福大學編制了另壹個計算機程序,與上述“女士”不同。它的任務是幫助剛開始工作的精神病醫生獲得壹些與重病患者交談的經驗。這個程序模擬壹個迫害者。程序存儲了壹些簡歷信息:佩裏,28歲,未婚,在郵局工作;他極其脆弱,對所有關於他的外表、教育和信仰的問題都很敏感。他的愛好是看電影和賽馬;有壹次,他撲向賽馬場的記賬員,因為那個人沒有支付他贏得的獎金;從此,他開始害怕黑社會的報復。交談中,佩裏的情緒經常變化。如果脫口秀主持人經常觸及佩裏的“痛處”,佩裏就會開始激動,出現偏執癥狀。以下是他們的對話:

醫生:“妳害怕黑社會嗎?”

佩裏:“黑手黨是最可怕的暴徒。”

醫生:“妳和黑手黨有什麽聯系嗎?”

佩裏:“妳沒看見嗎?他們認識我。”

醫生:“他們怎麽知道妳的?”

佩裏:“他們在監視我。”

醫生:“為什麽?”

佩裏:“他們想因為羅誌把我關進監獄。”

醫生:“他們為什麽傷害妳?”

佩裏:“他們想要我死。”

醫生:“為什麽?”

佩裏:“我有黑手黨的證據。”

壹組精神病醫生被安排通過電傳打字機同時與壹名真正的病人和佩裏交談。雖然他們知道其中壹個說話的人是電腦,但他們猜不出是哪壹個。就這樣,圖靈測試法開始起作用了。後來,更有趣的事情發生了。此前,Weisenbaum制造了壹個模擬精神病醫生治療某些神經疾病的機器人。後來就有了用這個機器人給佩裏治病的想法。這是他們之間的對話:

醫生:“妳好,請告訴我妳怎麽了?”

佩裏:“我有時會生別人的氣。”

醫生:“我不太明白妳說的話。”

佩裏:“妳要註意。”

醫生:“請繼續。”

佩裏:“我去過貝梅杜斯賽馬場。”

醫生:“妳打算怎麽辦?”

佩裏:“我去看賽馬了。”

醫生:“妳還想討論什麽?”

佩裏:“我對賽馬感興趣。”

醫生:“為什麽這麽說?”

佩裏:“賭馬也是有竅門的。”

醫生:“我不太明白妳的意思。”

佩裏:“妳真是個討厭鬼!”"

醫生:“妳喜歡把我當成真正的討厭鬼嗎?”

佩裏:“我聽膩了。”

醫生:“為什麽?”

佩裏:“再見!”

醫生:“很高興見到妳。妳應該付399美元25美分。”

這是他們的對話,對話不錯,雖然醫生有點“瞎”。程序員們準備逐步改進佩裏的程序,讓年輕醫生在對話過程中“治愈”這個人造病人。屆時,大學生可以通過與電腦對話來學習,避免面對真正的精神病人時因醫術不熟練而帶來的痛苦。

更重要的是教會機器人抓住這個或那個本質。與計算機的對話有兩種類型:有限的對話和有限的理解。在有限的對話中,機器人“理解”它談論的所有內容,但只是在確定話題時,例如下棋或砌磚。當妳理解能力有限的時候,妳可以隨意和它對話,但它遠沒有完全理解妳說的話。Weisenbaum編寫的機器人“Lady”程序就屬於這壹類。“淑女”只能理解表面的事件和現象。然而,隨著控制對話理論和實踐的發展,機器人的語音變得越來越有表現力。圖靈測試法開始定期生效。

壹家美國計算機公司的副董事長,錯誤地接受了壹項圖靈標準測試。此後,這壹標準的地位開始下降。因為控制專家發現,它並不是檢驗計算機智能極限的最佳標準。

最好的標準是什麽?什麽樣的智能水平才能稱之為真正的“智能”機器人?這成了聰明的科學家面臨的新問題。機器人教妳

計算機產業的發展是建立在許多科研人員“異想天開”的主觀想法和努力的客觀實踐基礎上的。如前所述,壹些學者在發展控制對話原則方面做出了很多貢獻。這個時候,其他的實踐者和實用主義者都在努力把機器人的這種新能力搭上科技進步的公交車,他們決心要讓機器人擁有壹些特定領域的知識。

眾所周知,計算機獲得的所有信息因素都由壹個相互依賴的復雜系統聯系在壹起。與邏輯推理相比,計算機經常使用類比和判斷方法。他們將這些元素進行分類、融合、綜合,逐漸發展出自己的“思考”能力。現在我們來回顧壹下機器人在這個發展過程中的壹些歷史事件。

第壹批這樣的計算機誕生於20世紀50年代末。他們已經證明了大約40個定理,並且能夠回答像“建造壹個兒童金字塔”這樣簡單的小問題。到20世紀60年代,人們已經能夠與計算機談論天氣和其他話題,因為這些計算機知道氣象學,並擁有正確造句所需的句法知識。例如,如果妳對它說:“我不喜歡夏天下雨。”它會禮貌地回答:“是的,但是夏天不常下雨。”此外,還有壹個名為“棒球”的節目,可以回答今年比賽的所有相關問題:場地、比分、參賽隊伍人員。至於“Talk”節目,它已經開始對說話人的家庭關系感興趣了,雖然它真的對此壹無所知。只是到了1965,機器人“先生”才開始更加註重單詞的含義,而不僅僅是句子中單詞的順序。計算機“學生”也是這種類型,像壹個學習成績優秀的學生,會解壹次方程,用流利的英語描述解方程的順序。

輸入計算機的知識越專業,計算機掌握它們的可能性就越大。現在,壹些計算機已經成為真正的“技術顧問”。例如,他們已經在幫助專家確定哪些地層富含礦物質;協助專家對傳染病做出診斷。要培養這樣的“專家”,就要教給他們人民的知識——專家。然而,無論多麽不可思議,主要的困難仍然在於如何從人的大腦中“挖掘”出所有這些知識。比如醫生在做診斷的時候,根據經驗遵循壹些規律。他幾乎是下意識地、機械地使用這些規則。研究人員花費大量時間采訪醫生和其他專家,以便找出他們思維過程中固有的基本規律。只要能還原他們思維的全過程,復制到電腦程序裏就相對不復雜。從1965開始,計算機的第壹個“專家”是斯坦福的費根鮑姆做的。它壹出生,就誌願幫助化學家確定物質的分子結構;另壹個技術顧問,探礦者,工作更加嚴格。它詳細研究地質圖和土壤樣本,以確定礦藏的存在。它實際上在華盛頓州發現了壹個豐富的鉬礦。

計算機“醫生”是在20世紀70年代編制的。它可以在知道診斷結果和主要癥狀後診斷傳染病。最奇妙的是,如果用戶要求它解釋做出這樣診斷的原因,那麽它總能解釋做出這樣診斷的原因是這個,而不是另壹個。匹茲堡大學的計算機專家Boupur和醫學專家Myers還設計了計算機“Kodak”的程序,它在內存中存儲的疾病比醫生在任何情況下都能記住的還要多。它可以結合事實、評價和判斷做出困難的診斷。電腦居然學會診斷了?對,不信請看下面的例子:

有壹天,人們把壹個中年人的詳細病情輸入這臺電腦。當時中年男子臉色難看,呼吸困難,被救護車送往醫院。邁爾斯最初被診斷為心臟病發作。電腦註意到了病人的狀況——胸部沒有疼痛。他以前心臟病發作時,血壓正常。病歷中有關於糖尿病的記載。計算機首先考慮了十多種疾病的癥狀,否定了這些假設的疾病。然後,主要診斷結果顯示在屏幕上。幾分鐘後,計算機得出結論,病人心臟病發作了。醫生要花幾天時間才能做出同樣的診斷。在壹些復雜異常的情況下,它的診斷比私人醫生更正確、更細致。所以邁爾斯博士認為,計算機幾乎總是願意和有足夠時間的醫學專家壹起研究病人的每壹種疾病。例如,在附加測試之後,

“科大”可以成為醫生的普通工作人員,它甚至可以降低醫療費用,因為根據計算機提出的問題,醫生指定病人做化驗的次數會減少。現在這樣的“專家”隊伍擴大了。這樣下去,他們會有兒孫。例如,正在開發的電子計算機可以翻譯,區分書面語和口語,指出錯誤,學習和糾正錯誤。總之,未來的“專家系統”將涉及越來越多的領域,從天上到地下,從古代到現代——真正做到“天上知三分,地上知萬物”(雖然有點誇張,但符合其發展方向和人們的願望)。

  • 上一篇:政府經濟分類科目
  • 下一篇:中國有哪些全國性的社團?
  • copyright 2024法律諮詢服務網