自從爆發2016 年美國大選 Facebook 平台遭到俄羅斯有意干預後,Facebook 便開始意識到他們在維持平台資訊正確性與使用者發文自由度之間,必須要取得平衡,因此開始執行打擊錯誤訊息的政策。這項政策在今年 4/10 獲得更新。到底臉書近期在「打假」行動上做了些什麼?身為Facebook平台用戶的你,應該要曉得!

正視事實 Facebook發力對抗不實資訊

今年的 F8 (臉書開發者大會)中,Facebook CEO Mark Zuckerberg 雖然宣布平台將轉向私密化(Private),但臉書創立之初為使用者打造的動態消息(News Feed),仍舊是 Facebook 用戶體驗中十分重要的一環。因此,維持用戶可以看見的個人化動態消息內容的正確性,就很關鍵。

自 2016 年起,Facebook 就開始執行「Remove、Reduce、Inform」這三大面對不實資訊(misinformation)的主軸行動。簡單來說,「Remove」就是將違反 Facebook 社群守則的內容移除,這當中包含暴力言論、色情內容、錯誤資訊等等;而「Reduce」就是把有問題的內容降低在動態消息的顯示順序,換言之就是減少它會被看見與散播的機率;「Inform」則是在平台介面上提供更多工具,讓使用者可以分辨哪些內容值得信任、閱讀以及分享。

Facebook打擊不實內容的三大方法

在今年 4/10,Facebook 宣佈在社群守則網站中將會每個月更新究竟有哪些社群守則被修改的追蹤紀錄,讓使用知道你在 Facebook 平台上的貼文內容,是以什麼樣的標準被衡量(是否可以出現或被撤下);並且啟動全新的社團品質(Group Quality )功能並更新社團的強致執行政策。

在動態消息「Reduce」降低顯示順序的打假主軸中,也有一些更新,包含持續與外部專家合作來揪出 Facebook 平台上的不實內容;擴大與第三方事實檢核的機構合作(美聯社已被納入,目前Facebook在全球合作的第三方事實檢核機構有51家,橫跨40種語言);降低持續散播錯誤訊息的臉書社團觸及率;將只有從Faebook獲得大量流量的來源(這可能是代表他們持續在Facebook上散播錯誤訊息的一個指標)列為 Click-Gap,這項指標會納入在動態新聞演算法當中,來降低這些低品質內容被用戶看見的機率。

而在「Inform」主軸中,Facebook 則是將Context Button納入到照片內容之中(讓使用者可以更清楚辨識來源並了解可信度);並且從本週開始在 Messenger 當中加入原本只有 Facebook 才有的認證徽章機制,讓使用者可以清楚辨識是否訊息來自假(冒)帳號(會向全球用戶釋出);且在 Messenger 當中提供使用者可以設定哪些人可向你傳訊的功能(例如朋友的朋友、有你電話號碼的人能不能傳訊給你),避免在此平台中被不認識的用戶騷擾;而在 Messenger 中也將加入Forward Indicator,讓你知道這條內容是不是你朋友轉發自起其他來源的,讓你可以有更多資訊判斷要不要相信、甚至是分享這樣的內容。

事實上,很難幾句話到盡 Facebook 在打擊動態消息不實內容的兩年多來,做了多少努力。然而從這兩年來 Facebook 開始公布透明度報告,對外公開社群守則以及各項細微的改變,以及目前 Facebook 已在全球雇用了超過 3 萬名員工(包含內容檢核人員、工程師、專案管理人員等等)來協助維持平台(及用戶)的安全性與內容的廉正性(integrity),還有Facebook 持續擴大與第三方機構的合作,還有持續尋求、營造與各領域專家的對談來看,關於「打假」,Facebook 絕對是玩真的。就目前成果來看,不能說 Facebook 已經做到完美(當中包含可主動撤下不當內容的AI演算法、社群守則的制定流程等等),但是他們肯定在持續進步中。不過,在重重醜聞的影響下,Facebook 想要重新贏得使用者的信任,並不是一個簡單且短期的任務,也是他們需要持續面對的最大挑戰。

文章來源:Remove, Reduce, Inform: New Steps to Manage Problematic Content
文章來源:Facebook社群守則網站

(中時電子報)

#Facebook #社群守則 #不實內容 #假新聞 #臉書 #AI #演算法 #動態消息