▲日前,37歲數據科學家Frances Haugen爆出臉書放任假消息,被稱為「臉書吹哨人」。。(圖/達志影像/美聯社)
● 沈榮欽/加拿大約克大學副教授
Frances Haugen將數萬頁Facebook內部資料提供給Whistleblower Aid 組織的創始人John Tye後,上節目接受採訪與赴國會作證揭發臉書惡行。
證據顯示,Facebook一直宣傳自己打擊選舉假消息、國會山莊暴動事件、假新聞、種族仇恨與仇恨言論不遺餘力,但事實上Facebook創辦人祖克柏與眾多高管十分清楚,Facebook演算法促進仇恨、暴力等極端言論與假新聞,並擴大其影響,但為了不影響利潤,而對此不加阻擋。
新聞見報之後,很多人對Facebook的演算法提出疑問,《MIT Technology Review》(麻省理工科技評論)因此加以解釋:
Facebook有數百甚至數千種演算法,用以決定廣告定位和內容排序。有些演算法梳理出用戶偏好,排定廣告;有些檢測Facebook定義的不良內容,例如裸露、垃圾郵件或誘騙點擊標題等。
演算法已複雜到無法全盤理解
這些演算法也稱為機器學習演算法,與工程師編碼的傳統演算法不同,機器學習演算法對輸入數據「訓練」以了解其中的相關性,用來自動執行未來的決策。
Facebook的大數據,使其可以開發模型,對使用者判斷出極為精細分類,預判使用者的偏好,以給廣告商帶來更大的收益。同樣的原則也適用於新聞的排名。
在Facebook內部,沒有任何一個團隊負責整個內容排名,而是由工程師根據團隊的目標開發並添加自己團隊的機器學習模型。
這是 Facebook早期的決定,作為其「快速行動並打破常規」文化的一部分。Facebook開發了一個稱為FBLearner Flow的內部工具,使沒有機器學習經驗的工程師也可以輕鬆開發他們需要的任何模型。在 2016 年已經有超過四分之一的Facebook工程團隊使用這個工具。
因為不同團隊可能有彼此競爭的目標,而且系統已經「長大」到如此複雜和笨重,Fecebook內部已經沒有人能夠追溯所有演算法的內容。
▲Facebook的演算法經過多組開發團隊,已經龐大到無法被追溯。(圖/取自免費圖庫Unsplash)
因此Facebook的主要品質控制流程是透過實驗和測量:先在FBLearner「訓練」一個新的機器學習模型,在 一小部分用戶上測試,衡量如何改變參與度指標,例如讚、評論和分享等,只有增加參與度的模型才可能存活下來。
內部放任Facebook增長極端內容
Haugen在證詞中,反復強調Facebook的演算法煽動錯誤訊息、仇恨言論甚至種族暴力。為什麼?
因為增加參與度的機器學習模型大多是有爭議性、假訊息和極端主義,簡單地說,人們喜歡誇張極端的東西,Facebook擴大其傾向。
例如緬甸對羅興亞穆斯林少數民族的病毒式假新聞和仇恨言論將該國的宗教衝突升級為全面的種族滅絕, Facebook在多年淡化其角色後,於2018年承認,沒有採取足夠的措施「幫助防止我們的平台被用來煽動分裂和煽動線下暴力。」
Facebook至少在2016年的研究後就知道這一點,但是為了利潤,而不願改變其演算法。內部後來的研究也證實Facebook會導致使用者越來越兩極化,而且在非英語國家特別嚴重。
▲Facebook放任演算法推行極端內容,導致使用者兩極化。(圖/路透)
2017年,Facebook的CPO Chris Cox成立工作組,於2018年提出建議修復某些缺失,但也在利潤考量下不了了之。
《華爾街日報》報導的使用Instagram會增加少女對身體的焦慮,也與此有關。Haugen後來禁止她的女兒使用Instagram。
熱門點閱》
►向網路巨擘收費》林楚茵/媒體與網路平台議價 政府能扮演什麼角色?
►林忠正/發展「硬科技」緊縮「無聊產業」 中共經濟結構急轉彎!
●本文獲授權,轉載自《沈榮欽專頁》,原始標題為「《MIT Technology Review》科普臉書演算法」。以上言論不代表本網立場,歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net,本網保有文字刪修權。
我們想讓你知道…臉書的演算法經過多個團隊開發,已經無法被追溯。演算法逐漸會助長極端內容,而臉書高層卻為了利益置之不理。