北京時間7月19日早間消息,Facebook將開始從其平臺上刪除故意煽動暴力行為和其他人身傷害的虛假信息。
“減少錯誤信息的傳播,而不是將其徹底刪除,在言論自由和社區安全之間達成了恰當的平衡。”該公司發言人在聲明中說,“肯定有一些虛假信息會導致人身傷害,我們正在調整政策,讓我們可以將這類內容撤下。我們將在未來幾個月實施這項政策。”
根據新的政策,那些被標記的文本和圖片項目,免備案空間 香港服務器,只要在創建和分享時“煽動、惡化暴力或人身傷害”的目的,都會被刪除。
Facebook將與地方和國際組織合作,還將使用其內部的圖片識別技術來尋找這類違規內容。當事人需要確認信息的確不實,其他組織也會加入進來。
與此同時,Facebook CEO馬克·扎克伯格(Mark Zuckerberg)也曾表示,倘若該公司不認為某些內容會引發暴力行為或人身傷害,就不會將其刪除。不過,他們還是會在用戶的News Feed中對此類內容進行降權處理。
在接受科技網站Recode采訪時,扎克伯格重申該公司不設置專人來決定信息真偽。但他也澄清道,在某些情況下,倘若有人惡意傳播“分裂信息”,Facebook也的確應該介入。
“其實有兩個核心原則。”他說,“一個是讓人們可以發聲,使之可以表達觀點。另外一個則是保證社區安全,我認為這一點非常重要。我們不會讓人們規劃暴力行為,不會讓他們攻擊彼此,也不會讓其做不好的事情。在這樣的框架下,VPS租用 國內服務器,這些原則需要進行一些權衡取舍。在這種情況下,我認為我們的責任就是避免惡意散布的信息不要廣泛流傳。”
扎克伯格還以納粹大屠殺否認者為例,來闡述Facebook不會禁止哪些信息。他隨后澄清道:“我個人認為否認納粹大屠殺非常冒犯,我也不希望為否認此事的人進行任何辯護。我們在假新聞這件事情上的目標不是阻止任何人說任何虛假信息,而是阻止假新聞和虛假信息通過我們的服務傳播。”
扎克伯格和Facebook之前曾經表示,在判斷哪些內容能夠成為新聞時,他們希望保持不可知論的立場。然而,Facebook的團隊卻曾經被控存在偏見,迫使該公司成立了一些團隊來避免個人觀念干擾其人工智能系統。