隨著人工智能的發展,深度偽造技術越來越成熟,尤其是利用深度學習技術將個人的語音、肢體動作、面部表情等制作成虛假內容,如AI變臉、語音模擬、姿態生成等。隨著機器學習能力的提高,深度偽造的內容越來越逼真,很多時候可以達到以假亂真的效果。比如包頭市公安局發布的壹起利用AI技術進行電信詐騙的案件,犯罪分子利用AI變臉技術冒充好友騙取受害人轉賬430萬元。人工智能時代,如何防範深度偽造等人工智能技術的風險,急需法律法規更明確的回應。
防止人工智能技術被惡意利用,引導數字技術向善,是依法治國的題中之義。
首先,要警惕深度偽造等技術帶來的新風險。
新技術的誕生總會伴隨著新的風險,這是技術發展史上的必然規律。汽車引發交通事故,互聯網帶來網絡犯罪,人工智能引發智能犯罪。在美國,生成式人工智能引發了學術造假等問題。可以想象,未來會有更多的人工智能技術運用到犯罪中。“包頭AI詐騙案”只是人工智能技術在犯罪領域的運用,已經出現了“AI換臉”的黑灰產業鏈,即在網絡平臺上提供定制化的視頻換臉服務。法律法規需要及時跟進,完善人工智能技術可能帶來的風險漏洞。
第二,要為人工智能技術的應用設定底線。
面對人工智能技術帶來的風險,各國都在采取措施積極應對。拜登政府已經開始研究是否有必要檢查人工智能工具。中國也在積極立法防範人工智能的風險。國家互聯網信息辦公室發布了《生成式人工智能服務管理辦法(征求意見稿)》,以生成式人工智能為核心,對算法設計、訓練數據選擇、模型生成和優化、服務提供、生成內容、個人信息和隱私保護等方面進行了限制。
法律法規要把人工智能的風險降到可以接受的程度。人工智能產品的主要問題是以假亂真,進而產生虛假信息或被用於詐騙。對此,可以采用“內外雙重識別”的方法來防止人工智能產品的誤導。在用戶的可見性層面上,發布者對於深度偽造技術的視頻和語音,應使用與廣告相同的提示,並設置醒目的“人工智能產品”標誌,可有效防止公眾產生誤解。在機器可見性層面,我們應該為人工智能的產品設置“數字水印”,即將肉眼無法識別的數字識別信息嵌入到人工智能生成的圖像、音頻、視頻中。無論是被他人復制、再加工還是被人工智能復讀,軟件都可以將其識別為人工智能產品,從而防止錯誤生成的內容幹擾其他人工智能產品的深度學習,導致誤傳。
第三,人工智能技術的風險程度不能誇大。
從人類歷史發展的角度來看,新技術總體上讓社會變得更加安全,而不是更加危險。槍比木棍危險得多,但工業時代的謀殺率遠低於石器時代。美國學者在他的《人性中的善良天使——為什麽暴力減少》壹書中,介紹了人類是如何從弱肉強食的群落逐漸演變為安全有序的社會。即使在戰爭最嚴重的年代,現代西方國家的死亡率也不到非國家社會平均死亡率的1/4。從大的歷史角度來看,盡管人類發展的歷程被恐怖主義所困擾,但人類社會仍然是壹個越來越安全的社會。技術總有風險,但先進的技術讓人類更加文明。
壹方面,人工智能技術應該受到謹慎的監管。
防範技術風險的目的是為了更好地開發技術,不能以犧牲開發效率為代價盲目追求零風險。互聯網、大數據、人工智能等數字技術本身是中性的。數字技術在提高社會發展效率的同時,也成為傳播色情、實施電信詐騙的工具。不能因為噎著就放棄吃飯。法律法規否定的是技術的惡意使用,而不是技術本身。法律法規從不禁止新技術,更不用說在產業發展前預設壁壘。在工業發展的早期階段,敏感的立法不得實施。
另壹方面,即使是有風險的技術也是相對中性的。
好人可以用槍來擺脫暴力,壞人也可以用槍來殺人、搶貨。為了防止汽車引發事故的風險,英國當年的紅旗法案規定,當汽車經過時,要有人揮舞紅旗警告路人。結果第壹個發明蒸汽機的國家英國把汽車大國的地位拱手讓給了德國和美國。數字技術也是如此。法律法規在防範技術引發重大風險的同時,也要堅定地鼓勵技術創新,不能因為可能的風險而止步不前。
總之,人工智能的應用確實會帶來新的風險,但“人性之惡”不能簡單理解為“技術之惡”。法律法規要在做好底線監管的同時,推動人工智能技術成為利國利民的好工具。