人臉識別信息應用的社會風險
人臉信息作為壹種通用的新技術,其應用給社會帶來巨大收益的同時,也伴隨著不可預知的風險。由於人臉信息的特殊性,其固有的技術風險主要表現在兩個方面:壹是技術準確性的風險;第二,技術的安全隱患。除了促進技術的進壹步優化,采取技術措施降低技術風險外,更需要完善相關法律規定。基於人臉信息的特殊性和人臉信息應用技術的技術風險,人臉信息技術的應用在實踐中可能產生系統性的社會風險或被非法濫用,具體如下:
1.侵犯個人權利
就社會個體而言,人臉信息應用技術的侵權風險是指在人臉信息應用技術的正常應用或非法濫用中,信息主體的人身權和財產權可能受到侵害的風險,主要表現為:壹是人臉信息應用技術的濫用可能侵犯公民的人身權;二是人臉信息的應用技術可能侵犯公民的隱私權;第三,人臉信息的應用技術可能侵犯公民的平等權;第四,人臉信息應用技術可能侵犯公民財產權。
2.對社會治理結構和公共秩序的影響。
深度偽造技術通過將人臉信息和聲音輸入到機器學習的算法中進行“人臉操作”,即把壹個人的五官和表情覆蓋到其他任何人的臉上,同時利用聲音的逼真處理,制造出實際合成但看似真實的視聽和視頻。這種以人臉信息應用為核心的深度偽造技術對社會治理和公共秩序的影響和危害是不言而喻的:
第壹,沖擊現有的社會治理結構;第二,存在社會失序的風險。在現代社會,人們不能生活在沒有社會的“孤島”狀態中。人臉信息技術的濫用,尤其是深度偽造技術的快速進化,消除了社會對同壹個人的信任,這將使維持人類社會正常秩序的信息陷入真實性的困境,社會信用體系可能崩潰。
3.可能危及國家安全。
人臉信息技術的非法利用為政治抹黑、軍事欺騙、經濟犯罪乃至恐怖主義提供了新的工具,給政治安全、經濟安全和社會安全帶來了新的風險挑戰:壹是偽造技術為抹黑政治人物提供了新的工具;第二,鍛造特定人群影響輿論;第三,深度偽造技術可能成為制造網絡空間戰爭的新武器。此外,雖然人臉信息屬於自然人,具有私密性,但不特定多數人的龐大信息,尤其是壹國國民或特定民族的基因等經過大數據采集分析的特殊信息,壹旦經過跨境流動,借助基因編輯等技術,被用於生化武器研發,將對國家安全構成極大威脅。
人臉識別信息技術接入審計系統的構建
人臉信息技術的非法應用通常通過網絡系統進行,網絡傳播速度快、範圍廣、隱蔽性強的特點使得事後救濟受到嚴重限制。為了有效控制人臉信息技術應用帶來的風險,迫切需要構建人臉信息應用技術預準入制度。任何法律制度設計都要有充分的理論基礎支撐。研究人臉信息應用法律規制的理論基礎,可以明確規制的可行性、基本原則和基本路徑,為具體的路徑設計提供充分的理論支持。
1.借鑒風險防範的原則
是否借鑒風險防範原則,要深入分析人臉信息應用技術的風險基本要素。第壹,風險防範的前提是確實存在損害風險。人臉信息的應用技術除了自身的技術風險外,在實踐中已經存在侵犯公民人格權、隱私權、平等權、財產權等風險,可能沖擊公共秩序,危害國家安全。因此,有必要在借鑒風險防範原則的前提下,構建人臉信息應用技術的相關法律規制。第二,風險在科學認識上具有“不確定性”。
從人臉信息應用的發展,尤其是深度偽造技術的演進來看,這種技術的應用很有可能沖擊公共秩序,危害國家安全。確實需要借鑒風險防範原則,即需要限制技術的發展和應用或者限制目前公民的部分權益,以保護未來更大的合法利益。
2.建立專門的個人信息保護機構。
我國的法律規定滯後於人臉信息應用技術的發展,不能滿足現實需要,但單獨制定生物特征信息保護法需要較長的立法周期。為了遏制人臉信息應用技術的社會風險,避免不可逆的損害結果,人臉識別的法律規制必須強化風險防範意識,重在事前審查而非依賴事後救濟,因此需要政府監管部門的事前審查。
在我國現行法律確立的主管模式下,容易出現權責重疊、推諉扯皮的情況。許多政府部門的監管標準和程序不統壹,影響了政府部門的管理效率,也不利於其履行個人信息保護職責。因此,筆者建議借鑒歐盟和德國的經驗,在我國設立個人信息保護的專門機構,提高人臉信息保護的專業化水平。
3.建立事先許可機制
雖然人臉信息的應用技術帶來了巨大的利益,但也可能帶來社會系統風險,甚至是沖擊公共安全、國家安全等重大法律利益的風險。因此,應借鑒風險防範原則,將事前許可制度引入人臉信息應用的法律規制中,即信息處理者主張使用人臉信息技術必須獲得政府專門機構的許可,從而加強對信息處理者的規制,真正從源頭上控制人臉信息應用中的風險。