隨著人工智能的日益普及,由其引發的侵權責任的認定和承擔是對現行侵權法律制度的又壹新挑戰。
“從現行法律來看,侵權責任主體只能是民事主體,人工智能本身還難以成為新的侵權責任主體。即便如此,人工智能侵權責任的認定也面臨諸多現實問題。”在清華大學法學院教授程曉看來,侵權發生後,誰是人工智能的所有者,誰就應該負責。法律上似乎沒有爭議。“然而,人工智能的具體行為是由程序控制的。當侵權發生時,到底是所有者還是軟件開發者負責,值得商榷。”
同樣,無人駕駛汽車對他人造成損害和侵權時,是駕駛員還是機動車所有人承擔責任,還是汽車制造商或自動駕駛技術的開發者承擔責任?法律是否有必要制定專門的無人駕駛汽車侵權責任規則?這些問題值得進壹步研究。
“現實中,人工智能侵權責任的歸責原則可能涉及更多的危險責任或無過錯責任。”程曉認為,比如在產品責任或者機動車交通事故責任方面,可以適用無過錯責任。但未來需要考慮的是,人工智能技術的應用本身是否屬於高度危險作業(如無人機),這就決定了高度危險作業造成的損害責任是否適用。
“目前,人工智能侵權責任中因果關系、過錯等要素的判斷已經越來越復雜。”程嘯還舉例說,之前曝光的壹些app“大數據殺熟”和“算法歧視”,很難“把算法歧視歸咎於開發者”,因為代碼的不透明和算法本身的自學習和自適應能力。
在程曉看來,針對人工智能帶來的新問題和挑戰,在法律制度研究上未雨綢繆,將為未來的司法實踐贏得主動。“人工智能已經到來,但在生產生活的各個領域分布不均。我們不應該等到未來是均勻分布的,人工智能已經完全融入生產生活的方方面面,才想到從法律上對其進行規範。”程曉說。