如果有誰有資格談論正在進行的“人工智能革命”,特裏·塞伊諾夫斯基壹定是其中之壹。
當智能翻譯、無人駕駛、阿爾法狗和微軟蕭冰還被視為遙遠的願景時,謝諾夫斯基已經在為深度學習領域打下基礎。
特裏·塞伊諾夫斯基教授。
圖片:索爾克研究所
Senovsky是20世紀80年代挑戰構建人工智能主流方法的少數研究人員之壹。他們認為,受大腦生物學啟發的被稱為“神經網絡”、“連接主義”和“並行分布式處理”的AI實現方法,最終將解決困擾基於邏輯的AI研究的問題,並由此提出壹種可以從數據中學習技能的數學模型。正是這壹小群研究人員證明了基於腦基計算的新方法是可行的,從而為“深度學習”的發展奠定了基礎。
在《深度學習:智能時代的核心驅動力》壹書出版之際,美國科技媒體The Verge采訪了特倫斯·謝諾夫斯基(Terrence Senovsky),與他探討了人工智能、神經網絡、深度學習和機器學習的區別。為什麽「深度學習」突然變得無處不在,它能做什麽?妳不能做什麽?以下為采訪全文:
深度學習:智能時代的核心驅動力
中信出版集團2019.2
問:首先我想問壹下定義。人們幾乎可以互換使用“人工智能”、“神經網絡”、“深度學習”和“機器學習”這些詞。但這是兩碼事。能解釋壹下嗎?
人工智能可以追溯到1956年的美國,當時工程師們決定編寫壹個試圖模仿智能的計算機程序。
在人工智能中,壹個新的領域已經成長起來,稱為機器學習。不是寫壹個壹步壹步的程序去做某件事——這是人工智能中的傳統方法——而是收集大量關於妳試圖理解的東西的數據。例如,假設您正在嘗試識別物體,因此您可以收集大量的物體圖像。然後,通過機器學習,這是壹個可以分析各種特征的自動化過程,可以確定壹個對象是汽車,另壹個是訂書機。
機器學習是壹個非常大的領域,它的歷史可以追溯到更長的時期。起初,人們稱之為“模式識別”。後來,算法在數學中變得更加廣泛和復雜。
在機器學習中,有大腦啟發的神經網絡,然後是深度學習。深度學習算法有特定的架構,其中有很多層網絡,數據通過這些網絡流動。
基本上,深度學習是機器學習的壹部分,機器學習是人工智能的壹部分。
問:“深度學習”有什麽是其他程序做不到的?
寫程序是非常耗費人力的。在過去,計算機速度很慢,內存很貴,所以人們使用邏輯(計算機的工作原理)來編寫程序。他們通過基本的機器語言操縱信息。電腦太慢,計算太貴。
但是現在,計算能力越來越便宜,人工越來越貴。計算能力已經變得如此廉價,慢慢地,讓計算機學習將比讓人類編寫程序更有效。到那時,深度學習將開始解決以前沒有人寫過程序的問題,比如計算機視覺和翻譯。
機器學習是計算密集型的,但妳只需要寫壹個程序,妳可以通過給它不同的數據集來解決不同的問題。妳不需要成為領域專家。所以對於任何數據量大的東西,都有大量對應的應用。
問:“深度學習”現在似乎無處不在。怎麽變得這麽主導了?
我可以準確的找到這個歷史上的特定時刻:2012 12在NIPS大會(最大的AI大會)上。在那裏,計算機科學家傑夫·辛頓(Geoff Hinton)和他的兩名研究生展示了妳可以使用壹個名為ImageNet的非常大的數據集,其中包含65,438+00,000個類別和65,438+000萬張圖像,並使用深度學習將分類錯誤減少20%。
壹般在這個數據集上,壹年內誤差減少不到1%。壹年之內,20年的研究成果就完成了。
這真的打開了潮水的閘門。
問:深度學習是由大腦激發的。那麽計算機科學和神經科學是如何協同工作的呢?
深度學習的靈感來自神經科學。最成功的深度學習網絡是Yann LeCun開發的卷積神經網絡(CNN)。
如果妳看看CNN的架構,它不僅僅是許多單元,它們以壹種基本上反映大腦的方式連接。大腦最好的部分在視覺系統。在視覺皮層的基礎研究工作中,表明那裏有簡單和復雜的細胞。如果妳看看CNN的架構,妳會發現簡單細胞和復雜細胞是有等價的,這直接來源於我們對視覺系統的理解。
Yann並沒有盲目地試圖復制大腦皮層。他嘗試了許多不同的變體,但他最終以自然收斂的方式收斂。這是壹個重要的觀察。自然和人工智能的融合可以教會我們很多,還有更多可以探索的。
問:我們對計算機科學的理解在多大程度上取決於我們對大腦的理解?
我們現在的大部分AI都是基於我們在20世紀60年代對大腦的理解。我們現在知道的更多,更多的知識被整合到架構中。
打敗圍棋冠軍的程序AlphaGo不僅包括皮層模型,還包括大腦中被稱為“基底神經節”的部分,這對於做出壹系列決定以實現目標非常重要。有壹種算法叫時差,是理查德·薩頓在80年代發明的。當與深度學習結合時,它可以玩壹個人類從未見過的非常復雜的遊戲。
當我們了解大腦的結構,當我們開始了解如何將它們整合到人工系統中時,它將提供越來越多的功能,超出我們現在所擁有的。
問:人工智能也會影響神經科學嗎?
他們並行工作。創新的神經技術取得了巨大的進步,從壹次記錄壹個神經元到同時記錄數千個神經元,同時涉及大腦的許多部分,這完全開辟了壹個全新的世界。
我說人工智能和人類智能是有趨同性的。隨著我們對大腦如何工作的了解越來越多,這些理解將在人工智能中得到反映。但同時,他們實際上創造了壹整套學習理論,可以用來理解大腦,讓我們分析成千上萬的神經元,以及它們的活動是如何產生的。所以在神經科學和人工智能之間有這個反饋回路,我認為這更令人興奮和重要。
問:妳的書討論了許多不同的深度學習應用,從自動駕駛汽車到金融交易。妳覺得哪個特定領域最有趣?
我完全震驚的壹個應用是對抗網絡的產生,或GANS。對於傳統的神經網絡,妳給出壹個輸入,然後得到壹個輸出。甘可以在沒有投入的情況下進行活動——產生產出。
是的,我在網上這些關於制作假視頻的故事背景中聽說過這個。他們真的生產看起來真實的新東西,對嗎?
從某種意義上說,它們會產生內部活動。原來這就是大腦的工作方式。妳可以看著某個地方,看到壹些東西,然後妳可以閉上眼睛,開始想象那裏沒有的東西。妳有視覺想象力,當周圍很安靜的時候,妳的鬧鐘就會響,想法就會浮現。那是因為妳的大腦有生殖能力。現在,這個新的網絡可以產生前所未有的新模式。所以妳可以給它,例如,數百張汽車圖像,它會創造壹個內部結構,它可以生成從未存在過的汽車新圖像,它們看起來和汽車壹模壹樣。
問:另壹方面,妳認為哪些想法可能被過度炒作了?
沒有人能預測或想象這種新技術的引入會對未來事物的組織方式產生什麽影響。當然還有炒作。我們還沒有解決真正困難的問題。在我們擁有普遍智能之前,有人說機器人很快就會取代我們。事實上,機器人遠遠落後於人工智能,因為復制身體被發現比復制大腦更復雜。
我們來看看這種技術進步:激光。它是大約50年前發明的,當時它占據了整個房間。從占據整個房間到我現在演講用的激光筆,技術商業化需要50年。必須把它推到足夠小的尺寸,五塊錢就能買到。同樣的事情也會發生在像自動駕駛汽車這樣被炒作的技術上。預計它不會在明年或未來10年內變得無處不在。這個過程可能需要50年,但重點是會在這個過程中逐步推廣,讓它變得更加靈活,更加安全,與我們組織交通網絡的方式更加兼容。炒作的錯誤在於人們設定了錯誤的時間尺度。他們期望太多的事情在太短的時間內發生,但事實上事情只在正確的時間發生。
關於深度學習的問題,可以在本網頁的視頻中進行講解:AI深度學習——中科院公開課。