當前位置:法律諮詢服務網 - 法律講堂 - 為什麽AI在仇恨言論和騷擾方面識別準確率很差?

為什麽AI在仇恨言論和騷擾方面識別準確率很差?

由於語言的靈活性和模糊性,識別真正的仇恨言論並不容易。有時候人只是隨便說壹些粗話,並不能說明他心裏是這麽想的。日常生活中,人們會因為各種原因說臟話,甚至朋友之間也會互相說臟話。

目前論壇等網絡平臺獲取仇恨言論的途徑大多來自用戶舉報。人類不可能壹直盯著那些沒完沒了的負面言論。今年年初,谷歌開發了透視軟件,可以快速識別辱罵性評論,方便人工審核。它的工作原理是基於網絡評論和被貼上“有毒”標簽的評論之間的相似性。但隨後軟件技術的不成熟開始顯現,評分機制存在諸多弊端。比如有的言論是“作為女生,妳這麽聰明”,其與惡意言論的相似度達到18%;“我喜歡希特勒”的說法只有2%。對網絡暴力說不,AI讓仇恨言論無處藏身。

與這種基於關鍵詞標簽的方法不同,加拿大研究人員開發的系統另辟蹊徑。該系統主要研究針對非裔、肥胖者和女性的演講。在Reddit或Voat(類似於Reddit的網站)上,對這些人的評論比比皆是。該團隊發現了兩個最活躍的社區:壹個喜歡發表不好的評論,另壹個喜歡發表友好的評論。他們運用人工智能軟件來學習這兩個社區成員的語音特征,並提高系統正確識別負面言論的能力。

研究結果表明,該方法比基於關鍵詞標註的系統更加準確,幾乎不會誤判。有些言論不含常規侮辱性詞語,但也屬於仇恨言論。如果用以前的方法是無法識別的,現在可以了。比如“我不覺得這有什麽不對。動物總是互相攻擊。”這句話被系統標記為仇恨言論,因為這裏的“動物”壹詞有種族侮辱的意思。

  • 上一篇:不符合勞動法的合同是否有效?
  • 下一篇:為什麽戰時法律優先於平時?
  • copyright 2024法律諮詢服務網