對(duì)網(wǎng)絡(luò)暴力說(shuō)NO,AI讓仇恨言論無(wú)處可躲
從論壇的評(píng)論區(qū)、社交平臺(tái)到網(wǎng)游的聊天區(qū),瘟疫般的仇恨言論游走在互聯(lián)網(wǎng)的各個(gè)角落。
近日,加拿大麥吉爾大學(xué)的HajiMohammadSaleem及其團(tuán)隊(duì),通過(guò)讓AI軟件學(xué)習(xí)仇恨言論社區(qū)成員的說(shuō)話(huà)方式,從而可以自動(dòng)識(shí)別出仇恨言論。他們?cè)谝粋(gè)數(shù)據(jù)庫(kù)中訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),該數(shù)據(jù)庫(kù)包含了2006年至2016年間Reddit的大部分帖子,庫(kù)卡機(jī)器人,比之前基于關(guān)鍵字標(biāo)記的系統(tǒng)準(zhǔn)確率更高。
因?yàn)檎Z(yǔ)言的靈活性和模糊性,識(shí)別出真正的仇恨言論并不容易。有時(shí)人們只是隨口說(shuō)一些粗魯?shù)脑~匯,并不能表明他們心里就是這么想的。日常生活中,人們會(huì)為了各種原因而罵人,甚至朋友之間也會(huì)互爆粗口。
目前論壇等網(wǎng)絡(luò)平臺(tái)獲取仇恨言論的途徑,大都來(lái)自用戶(hù)舉報(bào)。時(shí)刻緊盯住那些層出不窮的負(fù)面言論,是人力無(wú)法完成的。
今年年初,谷歌開(kāi)發(fā)了Perspective軟件,它可以快速地甄別辱罵性評(píng)論,便于人工審核。它的工作原理是基于在線(xiàn)評(píng)論與被貼上有毒標(biāo)簽的評(píng)論的相似度。但隨后該軟件技術(shù)的不成熟開(kāi)始顯露,評(píng)分機(jī)制出現(xiàn)了諸多弊端,比如:有的言論是作為一個(gè)女孩,你真是太聰明了,它和惡意言論的相似性達(dá)到18%;而我喜歡希特勒這樣的言論卻只有2%。
不同于這種基于關(guān)鍵字標(biāo)記的方法,此次加拿大研究人員研發(fā)的系統(tǒng)另辟蹊徑。
該系統(tǒng)主要研究針對(duì)非洲裔美國(guó)人、肥胖人群以及女性的言論。在Reddit或Voat(一個(gè)和Reddit類(lèi)似的網(wǎng)站)上,以這些人群為主題的言論俯拾皆是。該團(tuán)隊(duì)找到其中最活躍的兩種社區(qū):一種社區(qū)愛(ài)發(fā)惡評(píng),一種社區(qū)愛(ài)發(fā)友好的言論。他們鍛煉AI軟件學(xué)習(xí)這兩種社區(qū)成員的言論特點(diǎn),提高該系統(tǒng)正確識(shí)別負(fù)面言論的能力。
研究結(jié)果證明,該方法比基于關(guān)鍵字標(biāo)記的系統(tǒng)更加精準(zhǔn),并且?guī)缀醪粫?huì)誤判。有些言論中并不包含常規(guī)的侮辱性詞匯,但它也屬于仇恨言論。如果使用以前的方法是識(shí)別不了的,但現(xiàn)在就可以了。比如:我沒(méi)覺(jué)得這有什么問(wèn)題,動(dòng)物之間總是互相攻擊。這句話(huà)就被該系統(tǒng)標(biāo)記為仇恨言論,因?yàn)檫@里的動(dòng)物一詞帶有種族侮辱的含義。
目前該AI軟件能夠成功抓取Reddit平臺(tái)上的仇恨言論,但其研究團(tuán)隊(duì)未表示該系統(tǒng)是否在其他平臺(tái),如Twitter或Facebook上也有同樣的水準(zhǔn)。
這個(gè)方法雖然行得通,但它抓取的結(jié)果并不全面,有時(shí)還會(huì)遺漏。英國(guó)巴斯大學(xué)的JoannaBryson說(shuō)。
正如他所言,該系統(tǒng)會(huì)錯(cuò)過(guò)一些很明顯的仇恨言論,如黑人都很糟糕等具有明顯的歧視言論。然而對(duì)于此類(lèi)言論,工業(yè)機(jī)器人維修,基于關(guān)鍵詞監(jiān)測(cè)的舊辦法卻能輕而易舉地識(shí)別出來(lái)。
但是不可否認(rèn),這些工具確實(shí)能成為平臺(tái)管理人員的得力助手。基本上,仇恨言論是一種主觀現(xiàn)象,需要人們發(fā)揮自己的判斷力去甄別。一名研究人員說(shuō)。
,庫(kù)卡機(jī)器人何服電機(jī)維修



