AI是指智能水平不低於甚至高於人類的軟件產品,也稱“強AI”。然而,上述新項目中對AI的定義還包括補充或取代人類決策的機器學習和數據驅動算法。
例如,有證據表明,當深色皮膚的用戶將手放在傳感器上時,壹些自動皂液分配器不會工作。這些系統都是開發者親手測試的,而不是在不同膚色的用戶身上。這個例子表明,人類創造的算法會根據開發者的觀點和偏見行事。
有多少CEO真正知道自己的公司是如何獲取和使用AI和AI算法的?
人工智能(AI)越來越多地用於企業應用。它可以通過分析數據獲得對客戶和競爭對手有用的見解,從而提供競爭優勢。但也有壹個平行的趨勢:評估人工智能和企業人工智能算法的道德影響。
就在去年,麻省理工學院(MIT)和哈佛大學聯合發起了壹個探索人工智能倫理的項目,耗資2700萬美元。最近,谷歌2014收購的英國私人公司DeepMindTechnologies成立了壹個新的研究團隊,研究AI倫理。其他最近的人工智能倫理項目包括IEEE全球人工智能和自治系統倫理考慮計劃,紐約大學的AI Now研究所和劍橋大學的Leverhulme未來智能研究中心。
為什麽人工智能道德準則如此有趣,它對商業組織意味著什麽?
最近災難性的品牌聲譽損害和公眾批評揭示了將人工智能部署到企業可能伴隨的道德、社會和企業風險。
AI的定義
有專家堅持認為,AI是指智能水平不低於甚至高於人類的軟件產品,也稱“強AI”。然而,上述新項目中對AI的定義還包括補充或取代人類決策的機器學習和數據驅動算法。
如果我們接受這個更廣泛的定義,那麽我們必須認識到,AI已經成為計算機時代的壹個特征很多年了。如今,在大數據、互聯網和社交媒體時代,使用人工智能帶來的許多優勢已經廣為人知並得到廣泛認可:人工智能可以為企業提供競爭優勢,提高效率,洞察客戶及其行為。
利用算法發現數據中的重要模式和價值,幾乎被壹致認為是為價值創造省錢的方法,尤其是在市場化的競爭環境下。然而,人工智能倫理項目的興起證明,這些看似有益的人工智能應用可能會適得其反。最近災難性的品牌聲譽損害和公眾批評揭示了將人工智能部署到企業可能伴隨的道德、社會和企業風險。
商業機構應該仔細思考他們使用AI的方式,因為它也會帶來商業風險。
如果壹個企業未能發現AI算法或機器學習系統的開發者的潛在偏見,它可能會將企業中所有利益相關者的偏見系統化。
人們的偏見和歧視
AI算法和我們用來訓練這些算法的數據集通常來自人類。因此,這些算法不可避免地反映了人們的偏見。例如,有證據表明,當深色皮膚的用戶將手放在傳感器上時,壹些自動皂液分配器不會工作。這些系統都是開發者親手測試的,而不是在不同膚色的用戶身上。這個例子表明,人類創造的算法會根據開發者的觀點和偏見行事。
這些偏差通常是無意的,但無論後果是有意還是無意,犯上述錯誤的公司都將面臨潛在的風險。更重要的是,不管是有意還是無意,人工算法固有的人類偏見很大程度上規避了審查,這導致了企業使用AI的風險。
如果壹個企業未能發現AI算法或機器學習系統的開發者的潛在偏見,它可能會將企業中所有利益相關者的偏見系統化。這將使企業面臨品牌聲譽受損、法律訴訟、公眾批評的風險,還可能失去員工和客戶的信任。
企業是否應該為自己和社會做更多的事情,而不僅僅是遵紀守法?企業能理直氣壯地說自己對AI的使用是公平、透明、對人類負責的嗎?
人工智能的廣泛應用與風險
有偏見的皂液機只是壹個例子,人工智能算法還可以用於招聘,判決和安全操作。它們是社交媒體正常或非正常運行的內在因素。
簡而言之,AI被用於無數的日常和專業工作中。它變得無處不在,對企業的潛在風險也是如此。我們面臨的挑戰是理解算法是如何設計和審核的,從而避免開發者的意見和偏見(無論是有意還是無意)。這提出了具有挑戰性的問題。
有多少CEO真正知道自己的公司是如何獲取和使用AI和AI算法的?(很多公司與第三方AI解決方案提供商合作。)
公司盡職調查是壹項法律要求。這是否包括審查公司如何生成和使用AI應用程序?對於使用AI的公司,盡職調查和合規的法律定義是否全面?傳統的道德和企業責任概念在這裏適用嗎?
企業是否應該為自己和社會做更多的事情,而不僅僅是遵紀守法?企業能理直氣壯地說自己對AI的使用是公平、透明、對人類負責的嗎?
為了回答這些問題,企業必須審查和澄清它們在企業道德方面的立場,並使用系統的方法來評估風險。
助長這壹趨勢
兩個趨勢可能會加劇AI應用和AI用戶風險評估的緊迫性和重要性。首先,消費者、公民和政策制定者越來越關註和擔憂人工智能的日益普及及其可能的濫用或意想不到的後果。因此,透明度、公平性和問責制作為競爭優勢吸引了更多的關註。
最後,我們希望識別出重要的價值,將其嵌入到AI算法的設計中,理解相關的風險,並在AI實踐中繼續驗證個人、企業和社會的有效性。
行動呼籲
解決這些問題的第壹步是意識。貴公司如何使用AI,哪些人可能會受到影響?是否需要聘請外部專家進行評估?
明確妳公司的核心價值觀也很重要。妳使用AI的方式符合那些價值觀嗎?如果不是,我們如何使兩者匹配?
有資源可以幫助解決這個問題。例如,我是IEEE人工智能和自治系統全球倫理考慮計劃的執行成員,該計劃致力於研究各種AI相關應用的最佳實踐,提供資源以幫助加強這方面的理解和決策指導,並制定AI應用的標準。(IEEE指最大的技術專業組織電氣電子工程師協會,致力於推動技術發展,造福人類。)
壹個重要的資源是該計劃的“倫理設計:人工智能和自主系統優先考慮人類福利的願景”。該文件已出版第二版,鼓勵技術人員在開發獨立和智能技術的過程中優先考慮道德因素。
該計劃與IEEE標準協會建立了密切的合作關系。最近,IEEE標準協會開始制定兒童和學生的數據治理、雇主的透明做法和人類幹預AI的標準,確保影響我們每個人的算法的開發以人類價值觀為導向。
最後,我們希望識別出重要的價值,將其嵌入到AI算法的設計中,理解相關的風險,並在AI實踐中繼續驗證個人、企業和社會的有效性。
請放心,這是壹個新課題,本文所表達的關註點和目標仍然是人們積極研究的領域。然而,為了在人工智能時代成為壹家對社會負責的企業,企業領導人必須意識到問題,並開始確定企業價值觀,並將它們嵌入到人工智能應用的道德設計中。