人工智能技術發展必須遵循的基本倫理原則;
第壹,維護人類安全,追求公共利益。
網絡倫理涉及人與網絡、人與人的關系,以及人們應當遵守的道德標準和規範。網絡倫理原則的確立是立法規範的前提和指導。近年來,人工智能技術為人類提供了便利,但也引發了壹系列問題。但由於國際上暫時缺乏針對人工智能技術的專門法律規範,立法的缺失限制了人工智能技術的發展,也危及人類安全和公共利益。人工智能技術的發展應該建立在為人類做出貢獻和維護人類安全利益的基礎上。
第二,故障是透明的,可追溯的。
作為壹項新技術,人工智能系統的穩定性和安全性直接關系到技術應用領域的安全性。如果人工智能系統出現故障或損壞,可以找出損壞的原因,人工智能系統的安全性和故障性應由人類監管機構進行審核,即人類參與司法決策需要過錯透明和司法透明。這將有助於增加公眾對人工智能技術的信任。如果發生事故,過錯透明原則將有助於事故調查人員查明事故原因。
第三,尊重個人隱私。
人工智能技術應該保障人類的隱私、自由和安全,不應該以犧牲技術發展為代價。考慮到人工智能技術的數據分析和使用功能,人類應該有權訪問、管理和控制數據源和應用程序。未來超級人工智能系統的設計者和建設者,也是人工智能技術利用的利益相關者,應當承擔相應的安全責任。