目前論壇等網絡平臺獲取仇恨言論的途徑大多來自用戶舉報。人類不可能壹直盯著那些沒完沒了的負面言論。今年年初,谷歌開發了透視軟件,可以快速識別辱罵性評論,方便人工審核。它的工作原理是基於網絡評論和被貼上“有毒”標簽的評論之間的相似性。但隨後軟件技術的不成熟開始顯現,評分機制存在諸多弊端。比如有的言論是“作為女生,妳這麽聰明”,其與惡意言論的相似度達到18%;“我喜歡希特勒”的說法只有2%。對網絡暴力說不,AI讓仇恨言論無處藏身。
與這種基於關鍵詞標簽的方法不同,加拿大研究人員開發的系統另辟蹊徑。該系統主要研究針對非裔、肥胖者和女性的演講。在Reddit或Voat(類似於Reddit的網站)上,對這些人的評論比比皆是。該團隊發現了兩個最活躍的社區:壹個喜歡發表不好的評論,另壹個喜歡發表友好的評論。他們運用人工智能軟件來學習這兩個社區成員的語音特征,並提高系統正確識別負面言論的能力。
研究結果表明,該方法比基於關鍵詞標註的系統更加準確,幾乎不會誤判。有些言論不含常規侮辱性詞語,但也屬於仇恨言論。如果用以前的方法是無法識別的,現在可以了。比如“我不覺得這有什麽不對。動物總是互相攻擊。”這句話被系統標記為仇恨言論,因為這裏的“動物”壹詞有種族侮辱的意思。