新浪科技訊北京時間6月16日消息,如何在社交網(wǎng)絡上清除恐怖主義內(nèi)容?Facebook找到了一些好辦法,人工智能(AI)就是其中一種。
極端內(nèi)容在Facebook泛濫為公司招來許多批評。周四時,F(xiàn)acebook介紹了自己工作,讓我們深入幕后,看看它是怎樣解決此問題的。
Facebook全球政策管理主管莫妮卡·比科特(Monika Bickert)、反恐政策經(jīng)理布萊恩·菲什曼(Brian Fishman)在博文中表示:“我們的立場非常簡單:在Facebook沒有恐怖分子的容身之地。我們刪除恐怖主義內(nèi)容以及支持恐怖主義的內(nèi)容,一旦發(fā)現(xiàn)就會刪除。當我們收到報告,說某些帖子可以涉及恐怖主義,我們馬上會對帖子進行評估審查?!?/p>
直到最近,F(xiàn)acebook才在反恐方面使用AI技術(shù)。其中使用的一種技術(shù)就是圖像匹配。也就是說如果用戶發(fā)布一張圖片,上面出現(xiàn)了已知的恐怖分子,F(xiàn)acebook軟件就會自動匹配,比如將圖片與ISIS的宣傳視頻匹配,或者與Facebook上出現(xiàn)的其它極端圖片和視頻匹配,這些圖片視頻已經(jīng)被刪除。
不只如此,F(xiàn)acebook還在做實驗,對網(wǎng)站上恐怖分子可能使用的語言進行解析。Facebook還準備擴大技術(shù)的應用范圍,用在其它App中,包括WhatsApp和Instagram。
比科特和菲什曼說:“我們相信技術(shù)、Facebook可以成為解決方案的一部分?!?/p>
隨著規(guī)模和影響力的擴大,F(xiàn)acebook有一些問題需要解決,現(xiàn)在Facebook每月有用戶20億。在過去幾個月里,F(xiàn)acebook受到了假新聞的困擾。一些人還用Facebook Live直播謀殺、暴力內(nèi)容。
問題在于:用戶可以用Facebook發(fā)布各種內(nèi)容(幾乎是任何內(nèi)容),網(wǎng)站必須對內(nèi)容進行監(jiān)管。
在反恐問題上,F(xiàn)acebook認為技術(shù)并不是完美的“答案”,它還依賴人力來控制。Facebook反恐團隊已經(jīng)有150名成員,有些人之前是檢查官,或者來自執(zhí)法機構(gòu),或者是工程師。
不只如此,F(xiàn)acebook還與其它一些機構(gòu)和組織合作。Facebook說公司定期與執(zhí)法機關(guān)和政府合作。去年12月,F(xiàn)acebook與其它科技企業(yè)合作,包括Twitter、微軟、谷歌旗下YouTube,創(chuàng)建一個行業(yè)數(shù)據(jù)庫,記錄恐怖分子的數(shù)字指紋。
博文稱:“我們希望Facebook成為恐怖分子的‘敵對環(huán)境’。在線社區(qū)面臨的挑戰(zhàn)與真實世界的社區(qū)是一樣的:及早發(fā)現(xiàn),以免造成不可挽回的后果。”(星海)
- QQ:61149512