新浪科技訊北京時間6月16日消息,如何在社交網絡上清除恐怖主義內容?Facebook找到了一些好辦法,人工智能(AI)就是其中一種。
極端內容在Facebook泛濫為公司招來許多批評。周四時,Facebook介紹了自己工作,讓我們深入幕后,看看它是怎樣解決此問題的。
Facebook全球政策管理主管莫妮卡·比科特(Monika Bickert)、反恐政策經理布萊恩·菲什曼(Brian Fishman)在博文中表示:“我們的立場非常簡單:在Facebook沒有恐怖分子的容身之地。我們刪除恐怖主義內容以及支持恐怖主義的內容,一旦發(fā)現就會刪除。當我們收到報告,說某些帖子可以涉及恐怖主義,我們馬上會對帖子進行評估審查?!?/p>
直到最近,Facebook才在反恐方面使用AI技術。其中使用的一種技術就是圖像匹配。也就是說如果用戶發(fā)布一張圖片,上面出現了已知的恐怖分子,Facebook軟件就會自動匹配,比如將圖片與ISIS的宣傳視頻匹配,或者與Facebook上出現的其它極端圖片和視頻匹配,這些圖片視頻已經被刪除。
不只如此,Facebook還在做實驗,對網站上恐怖分子可能使用的語言進行解析。Facebook還準備擴大技術的應用范圍,用在其它App中,包括WhatsApp和Instagram。
比科特和菲什曼說:“我們相信技術、Facebook可以成為解決方案的一部分?!?/p>
隨著規(guī)模和影響力的擴大,Facebook有一些問題需要解決,現在Facebook每月有用戶20億。在過去幾個月里,Facebook受到了假新聞的困擾。一些人還用Facebook Live直播謀殺、暴力內容。
問題在于:用戶可以用Facebook發(fā)布各種內容(幾乎是任何內容),網站必須對內容進行監(jiān)管。
在反恐問題上,Facebook認為技術并不是完美的“答案”,它還依賴人力來控制。Facebook反恐團隊已經有150名成員,有些人之前是檢查官,或者來自執(zhí)法機構,或者是工程師。
不只如此,Facebook還與其它一些機構和組織合作。Facebook說公司定期與執(zhí)法機關和政府合作。去年12月,Facebook與其它科技企業(yè)合作,包括Twitter、微軟、谷歌旗下YouTube,創(chuàng)建一個行業(yè)數據庫,記錄恐怖分子的數字指紋。
博文稱:“我們希望Facebook成為恐怖分子的‘敵對環(huán)境’。在線社區(qū)面臨的挑戰(zhàn)與真實世界的社區(qū)是一樣的:及早發(fā)現,以免造成不可挽回的后果?!保ㄐ呛#?/p>
- QQ:61149512