01 壹、解釋自動決策的方法
列支敦士登大學的約翰內斯?施耐德(Johannes Schneider),和其他人介紹了壹種系統。該系統會 檢查自己 ,做出的決定,然後為改變(不正確的)。為決定找到,合理的理由。在將屬於互聯網電影資料庫(IMDb)的電影,評論分為正面或負面時。
可靠的模型會通過,強調“令人愉快”和“受贊賞”等詞。來解釋自己為什麽,將壹篇評論歸為正面。不過 施耐德的系統 ,將同壹篇評論標為負面。並指出脫離語境時,某些詞語看起來是壹種批評。
解釋自動決策的方法,是使用壹種被研究人員稱為 “輸入擾動” 的技術。如果想了解哪些輸入,會造成系統批準或拒絕貸款,我們可以 創建多份貸款申請副本 ,並以各種方式 修改輸入 。比如修改申請人的性別,或者略微改收入。提交所有申請並分別記錄其審批結果,就可以發現哪些輸入有影響。這 可以合理地解釋,壹些原本神秘的決策系統,是如何工作的。
不過希瑪賓度 ? 拉克拉珠(Himabindu Lakkaraju),帶領的哈佛大學研究團隊。已開發出壹種 決策系統 ,該系統可以檢測這種探查,並相應地調整其輸出。在接受測試時,系統會 保持其最佳行為。
忽略 種族或性別等 限制因素 。其他時候,則回到其固有的 偏見方式 。這項研究的作者之壹,索菲 ? 希爾加德(Sophie Hilgard)。將使用這種方案(到目前為止,只是壹個理論問題),比作是大眾公司在 汽車 ,進行排放測試時臨時調整發動機參數。使排放的廢氣,比正常情況下更清潔。
02 二、輸出簡單決策樹
另壹種解釋判斷的方法是,輸出壹個 簡單的決策樹 if-then(如果-那麽) 規則清單 。不過決策樹不會,概括整個算法。相反它只包括了,做出有問題的決策時所使用的因素。
2019 年法國國家科學研究中心,埃爾萬 ? 勒 ? 梅勒(Erwan Le Merrer)和吉爾 ? 特雷丹(Gilles Trédan)介紹了壹種 以欺騙方式,構建這些決策樹的辦法 。這樣它們可以用 看似客觀的 術語來解釋信用評級。同時隱藏系統,對申請人的性別、年齡和移民身份的依賴。
是否已經使用或將要使用,這些 欺騙手段 是壹個 懸而未決的問題 。也許某種程度的欺騙,已經很普遍了,比如解釋廣告如何尋找目標的算法。 列支敦士登大學的施耐德說,目前實施的欺騙手段,可能 不是那麽明目張膽 。而且他指出,要符合當前哪些要求, 提供解釋的法律也不難 。“如果妳需要提供解釋,也沒有人告訴妳它應該是什麽樣的。”
雖然 XAI 可能存在欺騙行為,但杜克大學的魯丁,對如何解決潛在問題采取了強硬態度。她認為我們不應該,依賴任何需要解釋的決策系統。她 不提倡可解釋的人工智能 ,而是提倡可解讀的人工智能,即 具有內在透明性的算法 。
“人們真的喜歡自己的黑匣子”。“對於我所見過的,每壹個數據集。妳都可以得到壹個可解讀的(系統),它就像黑匣子壹樣精確。”
與擔保信任相比,解釋可以帶來更多的信任。
比如妳說“我可以使用這個黑匣子,因為我可以解釋它,所以沒關系它可以 安全使用 。”關於透明性使這些系統更容易被玩弄的觀點,魯丁並不買賬。她斷言如果妳能 玩弄它們 ,那就說明它們是糟糕的系統。在產品評級方面,我們會要求透明度。評級算法因其 復雜性 ,或 需要保密而變得不透明 時,每個人都會受影響。
“制造商想要設計出壹輛好車,但他們不知道質量好意味著什麽。”此外她還補充道,人工智能要繼續發展。並非壹定要具備保持, 知識產權私有化 的能力,至少在高風險應用中是如此。如果不得不 公開算法 ,壹些公司可能會失去興趣。但會有其他公司,來填補這壹空白。
卡內基梅隆大學的立普頓,不同意魯丁的觀點。他說許多任務,仍然要求深度神經網絡, 黑匣子 中最神秘的部分表現出 最佳性能。 特別是那些用於圖像,和語音識別的任務。所以對 XAI的需求,將繼續存在。不過他說, 欺騙性 XAI 的可能性,指向了壹個更大的問題。 即使沒有被操縱,解釋也可能有誤導性。
結語: 最終人類必須, 評估自己使用的工具 。如果壹個算法,突出強調了我們自己,在決策過程中也會考慮的因素。我們就可能將其標準評判, 為可接受的 。即使我們沒有獲得,更多見解或者解釋,沒有說明全部情況。 目前尚沒有單壹的理論,或實踐方法來衡量解釋的質量。
這種概念上的模糊,為誤導提供了真正的機會。 在某些情況下,任何解讀嘗試都可能是徒勞的。期盼我們未來,能理解某些復雜的人工智能系統在做什麽。這是 擬人觀的體現, 我們實際應將這些系統視為 外星智能 。或者更確切地說,是壹些深奧的數學函數。其內部運作方式本來就, 超出了我們的掌握範圍 。問壹個系統是如何思考的,那麽“得到的只有錯誤答案”。