當前位置:文思社>論文>論文精選>

智媒時代下對演算法偏見的研究:構成、機理與策略文獻綜述

文思社 人氣:2.43W

智媒時代下對演算法偏見的研究:構成、機理與策略文獻綜述

智媒時代下對演算法偏見的研究:構成、機理與策略文獻綜述

(一)國內研究現狀

本論文將涉及幾個概念,包括演算法推薦、演算法偏見。以CNKI 資料庫的文獻資料為參考,通過對以上兩個重要概念進行搜尋關鍵詞,篩選符合要求的研究記錄。

1. 關於演算法推薦的研究

所謂“演算法”,是解題方案的準確而完整的描述,是一系列解決問題的清晰指令,能對一定規範的輸入在有限時間內獲得所要求的輸出(呂國英,2006)。而演算法推薦就是指使用演算法技術,將海量使用者的網上行為和釋出的資訊進行資料化,進而挖掘使用者的愛好習慣和社交興趣圖譜。它的主要任務就是匹配使用者和資訊,讓每一位使用者都能最快、最便捷地獲取自己最需要的資訊(李瀟涵,2020)。

根據知網搜尋功能對“演算法推薦”進行檢索,學科限定為新聞與傳媒,共計318條搜尋結果。國內對於演算法推薦的研究始於2014年,並且研究相關文獻逐年呈增長趨勢,在2018 年相關文獻已達64篇、2019 年更是高到115篇,呈現持續增長趨勢。多數文章是圍繞演算法推薦發展現狀和發展策略地研究。筆者對演算法推薦的相關文獻做了以下幾個方面地梳理。

1)對演算法推薦客體影響的研究

一是對演算法推薦的消極影響和反思方面的研究。很多學者從演算法設計入手,探討演算法與新聞在生產模式上的聯絡,進而分析演算法新聞推送對新聞倫理產生的不利影響。演算法推薦新聞對新聞專業主義有著如下幾種倫理挑戰:首先是內容過濾與客觀性、真實性產生矛盾。演算法只是將類似的新聞報道進行整理呈現,但卻缺少質量評估,因此會更容易出現新聞失實、標題黨等新聞亂象,影響新聞的客觀性和真實性。其次,新聞分發中監督力度不足。今日頭條為代表的新聞資訊客戶端,沒有嚴格的內部稽核機制,那麼很容易將不規範的新聞報道分發給受眾。最後就是演算法推薦新聞如今缺乏主流價值的引導。演算法的長期推送強化了使用者固有的認知,以至於很難接受其他資訊。如果這種認知本身違背主流價值,那麼容易使其得不到有效的糾正,產生知識鴻溝。長此以往,主流價值觀得不到有效的傳播,社會共識的凝聚也會愈加困難(王智豪,2020)。與此同時,也有學者從個人資訊權益遭到侵犯的角度來分析演算法推薦技術的倫理風險。演算法新聞推薦蘊藏著侵犯個人資訊權益的風險。首先,演算法新聞中存在隱匿的強制性告知與同意,受眾在使用新聞的時候不得不接受新聞的強制性要求。其次,演算法新聞中存在著對個人資訊的再利用與他用,也在一定程度上侵犯了受眾個人權益。最後,演算法新聞在精準投放資訊的過程中,存在著對受眾個人隱私的侵犯(李寧,2020)。艾嵐等學者也在其文章中論述了演算法推薦技術對受眾隱私帶來的隱患,“受眾所享受的媒介服務是以個人資訊來換取的,演算法技術將受眾的網上“痕跡”進行整合,生成使用者畫像,受眾就像是生活在圓形監獄之中的囚犯。演算法推薦系統掌握著全部受眾的個人資訊,假如此係統遭遇外來入侵,那麼所有受眾的隱私將完全暴露。”演算法推薦技術所帶來的新聞分發方式的改變,不光影響了新聞生產方式,還在價值觀層面對社會產生著一定衝擊。首先,精準的推送會導致資訊窄化,出現“資訊繭房”效應。人工智慧技術為受眾過濾掉大量的無效資訊,受眾可以只看到其想看到的資訊,將其不感興趣、不熟悉的資訊直接過濾掉,大大加強了資訊推送的有效性,但這也導致了受眾長期沉浸於同質化的資訊中,導致資訊窄化現象嚴重。其次,演算法推薦技術會造成受眾的過度依賴,進而淪為演算法的奴隸(艾嵐,2020)。由於演算法推薦新聞對內容有絕對的控制權,通過只為受眾推薦其感興趣的內容,就可以使其極易依賴於這種新聞模式,進而逐漸成為演算法推送工具的“奴隸”。

二是從演算法推薦的積極影響及重構方面來進行探討。演算法推薦技術在發明之初,是以其個性化的推送方式著稱,伴隨著技術發展以及新聞生產理念的革新,演算法新聞的推送方式逐漸實現了從“個性化”向“人性化”的轉向。

其一,它是一種在“個性化發現”基礎之上對使用者消費行為進行的深層次解讀,比如,它不僅考慮到讀者的內容偏好,同時還考慮到使用者的閱讀情境;其二,在資訊過載的時代,對生產者來說,使用者的注意力資源是稀缺品;然而對消費者來說,稀缺的是具有品味的優質資訊,人工編輯的加入可以讓推薦更具“人情味”,更加符合使用者的期待。其三,“人性化”終究要回歸到使用者本身,把選擇權交給讀者,否則受眾只能被動地依賴演算法來消費內容,陷入另一種“困境”(李唯嘉,2020)。

總之,智慧技術應用到新聞推送領域是大勢所趨,媒體平臺也在不斷改進新聞的推送方式。演算法推薦新聞會引發一些倫理方面的問題,但與此同時,也促使著媒介技術理念的更迭和進步。要想避免這些倫理問題,首先要做到的就是在優化演算法技術的同時,逐漸迴歸人類在新聞推送過程中的主體性角色,保障受眾的權利。

2)對演算法推薦本體的多層面研究

有關於這一方面的文獻主要是著眼於演算法推薦技術本身,就技術本身的發展歷程和實踐原理來分析演算法新聞的相關議題。

演算法推薦新聞依託於計算能力、資料與大資料以及演算法模型這三方面,其中資料是人工智慧得以成長的物質基礎,今日頭條將自己定位於“基於資料探勘技術的個性化推薦引擎產品”,也說明了資料在演算法新聞中至關重要的地位。大資料所具備的精準智慧價值匹配的特性,將人與人、人與物、物與物之間的關係進行嶄新的重構,在這樣的作用下,傳媒社會整合、塑造意識形態、整合社會經濟空間也在不斷延伸(喻國明,2017)。在這樣的前提下,我們可以把演算法當作一種權力正規化來進行研究。英國文化研究專家斯科特·拉什強調:“在一個媒體和程式碼無處不在的社會,權力越來越存在於演算法中。”人工智慧的技術本質是演算法,而演算法的社會本質則是一種權力,控制著整個社會。

在大資料時代,資料與演算法正在重塑新聞業的整個生態系統。喻國明、楊瑩瑩等學者對演算法在新聞線索獲取、新聞寫作編輯、新聞事實核查以及新聞分發與推送這些新聞環節中的權力體現進行了具體分析,並考察了媒介和受眾的權力變化過程。演算法技術如今應用在新聞生產的全環節中,受眾的權力也隨技術的發展而有所變化,具體體現為資訊權線上索獲取階段有彌散化趨勢,把關權力在新聞寫作編輯階段被收編,受眾的自由度在一定程度上被窄化等。

3)對演算法推薦引發倫理問題的發生機制的研究

有關於這方面的文獻側重於分析演算法新聞產生諸多倫理問題的背後的原因。演算法分發新聞模式背後存在的多重力量:經濟力量是源動力,技術力量是直接推動力,政治力量是前進方向的規制力,社會力量是演算法分發技術改進的反作用力(張蕩,2020)。正是因為演算法技術在運作時會受到來自多方面的限制,演算法無法成為絕對中立的技術,其背後所代表的政治、商業等利益,往往會讓演算法產生諸多倫理問題。只有對其背後存在的經濟力量、政治力量、社會力量和技術力量進行深入且全面的認知研究,將會使技術得以更好的服務於人類,技術的發展方向也將真正為人所把握。

2. 關於演算法偏見的研究

國內對於演算法偏見的研究始於2016年目前對於演算法偏見的研究還處於初期階段,相關的文獻內容較少,在知網中以演算法偏見為關鍵詞進行檢索,有65篇相關文獻,鮮有比較系統性的研究成果。筆者對演算法偏見的相關文獻做了以下幾個方面地梳理。

1)演算法偏見的發生機制和內在原因

演算法偏見是指演算法技術應用於資訊生產與分發過程中,由於演算法設計,輸入資料,技術侷限等因素造成的演算法決策不客觀、不公正的現象。簡而言之,演算法偏見是指違反公認的規範、法律或道德原則而對資料進行有偏處理。有關於演算法偏見的發生機制,方師師就曾以facebook運作機制為例,分析了2016年facebook偏見門事件,挖掘演算法偏見發生的內在原因。Facebook公司為了提高演算法的精確程度和使用者體驗,設定了一套協同過濾機制,也就是吧讓演算法工程師定期對億萬的點贊、評論和點選進行重估,使之更為有用,而他們的評估都會反饋給Facebook加州總部,供新的演算法來參考調整新聞推送的準度和精度。這種機制再提高使用者體驗感的同時,也會導致資訊操控,當受眾發現“趨勢話題”是由新聞團隊操作的,再編輯打扮成新聞的樣子,就會感到受到了欺騙,因為誰也不能保證這些演算法工程師的客觀公正性,演算法偏見的風險也由此產生。

演算法在進入實際應用前,要經過問題的定義、資料的輸入、機器的學習和訓練等環節,而設計者自身的價值判斷、資料所隱含的社會傾向性等因素貫穿了演算法的整個過程。因此許向東、王怡溪等學者將演算法偏見定義為了社會偏見的延伸,也是媒介偏見在人工智慧時代的升級版。也就是說演算法偏見之所以產生,是因為我們身處的社會本身就存在著很多偏見,而演算法偏見只不過是新聞偏見在新媒體時代的最新表現。演算法偏見具體會產生於運算規則設計中、資料收集處理及運用中,以及運算過程中。

2)演算法偏見客體影響的研究

個人傳播的資訊或觀點中隱含了偏見,只會影響少數人或部分人,而演算法一旦存在偏見,則會在短時間內將錯誤資訊推送指眾多使用者,其危害也會更大。從新聞資訊傳播的角度來看,演算法偏見的影響主要表現在以下幾方面,首先是背離了公平公正的新聞職業規範,新聞媒體要求公平公正,演算法偏見作為一種預設的態度,將錯誤或偏頗的判斷融入新聞傳播活動中,便違背了新聞的職業規範。其次是挑戰了使用者知情權和資訊選擇權,演算法推薦在滿足使用者個性化需求的同時,也窄化了使用者的資訊接觸面,形成較為封閉的空間,增加了出現“迴音室效應”的風險,這便消解了使用者的權利。最後是演算法偏見易於解構社會共識,引發輿論風險。演算法與社交媒體的結合突破了主流媒體對傳播渠道的壟斷,體現了個性化和利益相關性,削弱了傳播的公共性,影響了主流價值觀的構建,很多非理性、煽動的資訊傳播打著個性化的旗號,解構了主流的社會共識,埋下了引發公共輿論的潛在風險(許向東王怡溪,2020)。

演算法偏見對刑法領域構成的挑戰,主要集中在演算法偏見本身導致的犯罪行為和演算法偏見對刑事審判系統人工智慧化的威脅。如今的人工智慧發展還不夠完善,所依據的資料可能會帶有一定偏向性,如果法官所用來的參照資訊經人工智慧系統處理過本身就發生偏差,那麼得出的結論則自然就帶有導向性,那麼也就有違於司法公正(陳洪兵陳禹衡,2019)。

3)對演算法偏見的規制和防治

對於演算法偏見的治理,要從法律法規、職業倫理等多方面進行佈局。首先,要從法律法規層面規約演算法設計者和使用者。如今演算法越來越多的參與到人們生活的決策中來,因此需要有相關法律法規對演算法是否存在歧視性偏見進行評估。在這個過程中,無論是演算法的設計者還是使用者,都承擔著自己的責任和義務(許向東王怡溪,2020)。市場監管部門硬定期和不定期的對企業運營情況進行稽核,監測演算法的運營情況。如果演算法使用者因演算法偏見等問題,損害了受眾的利益,相關部門可以參照法律對其給予懲罰(劉友華,2019)。

其次,要以“技術之力”消除“技術風險”。可以考慮將公平公正的原則這一觀念,嵌入到機器學習中。所謂機器學習,是指利用一些資料,通過訓練摸索出規律,來分析未知的資料。如今人工智慧有著逐漸替代人類決策的趨勢,那麼如果可以從技術層面在機器學習的過程中嵌入“機會平等”的概念,則會大大提高人類決策的工作效率和公平度。

最後,要建立第三方稽核機構,強化行業自律。美國計算機學會公共政策委員會在2017年初發布了《關於演算法透明度和問責制的宣告》,幫助第三方對演算法的倫理問題進行規制。通過行業內的自我監督和引導,或以行業公約的方式來規範行業秩序,有助於預防演算法的偏見與歧視。

(二)國外研究現狀

筆者在社會科學引文索引(SSCI)核心合集以“Arithmetic”、“Algorithm bias”為主題詞,研究領域限定為“COMMUNICATION”、“SOCIAL SCIENCE” 進行搜尋,共搜尋到65篇文獻,經過研讀發現目前西方學界對“演算法偏見”關注的領域主要包括以下三個方面:

1. 對演算法偏見產生的原因以及本體性研究

美國學者羅伯特·塞裡諾認為媒介媒介偏見存在於新聞來源中、新聞省略中、新聞選擇中等十三個方面,並提出媒介偏見在新聞生產中是不可避免的。“一篇報道是知情者和已知的事實的混合產物,觀察者在其中的作用總是帶選擇的,而且通常是帶想象的。”(李普曼,1922/1984:51)自動化的新聞資訊生產過程就是“在沒有或者有限的人類干預下,由預先設定的程式將資料轉化為新聞文字的自動演算法過程”(Carlson, 2015),演算法偏見就是在資料轉化為新聞的這個過程中產生的,而演算法偏見是新媒體時代媒介偏見的新表現。

美國學者巴蒂婭·弗裡德曼和海倫·尼森鮑姆認為演算法存在三種類型的偏見:先存偏見,即演算法偏見根源於帶有偏見的社會制度;技術偏見,即認為演算法偏見是由於技術的限制;突發偏見,即由社會價值觀的變化而帶來的突發性演算法偏見。

對於演算法偏見產生的原因,很多國外學者將目光集中於資料的處理和運用過程中。紐約大學教授麗莎·吉特曼(Lisa Gitelman)在《原始資料只是一種修辭》一書中指出:

資料從來都不可能是原始存在的,而是依照一個人的傾向和價值觀念而被建構出來的。我們最初定下的採集資料的辦法已經決定了資料將以何種面貌呈現出來。資料分析的結果貌似客觀公正,但其實如同所有新聞報道一樣,價值選擇早已貫穿了從構建到解讀的全過程。最終的結果看起來很無私,但實際上從構建到演繹的整個過程一直伴隨著價值選擇。

這就說明,不管演算法使用的資料多麼標榜客觀公正,其內在都會包含一些具有價值偏向的內容,進而導致演算法新聞的偏見。

2. 演算法偏見對新聞傳播的影響

從對社會價值觀的衝擊方面來看,演算法偏見滲透於新聞資訊的生產與傳播的過程中,其所帶來的主要有認知偏見和道德偏見,認知偏見是指個體的認知與社會認知和社會現實不符;道德偏見則是社會知覺或態度與某一群體或社會所擁有的公平原則之間的不一致(Sun,1993:1152)。演算法偏見藉助於新媒體傳播的放大效應,會以更迅速和在更大範圍內的傳播,其危害便是容易造成資訊傳播的混亂,誤導社會輿論,進而導致社會衝突和隔閡。

從對受眾的權利影響來看,“能用技術熟練駕馭新聞釋出渠道的新一代媒體人,對有關現有和潛在讀者的海量量化資訊重度依賴,認為讀者是‘演算法受眾’,這些人有著極容易識別的需求和慾望,用合適的演算法很容易就能識別並給予滿足。”(莫羅佐夫,2013/2014:168)但是受眾的資訊慾望能夠更容易的滿足的同時,其接收資訊的質量卻越發無法得到保證,也就是如今的媒體突出了使用者“欲知”的訴求,而忽略了其“應知”的訴求。

3. 應對演算法偏見的策略

關於解決演算法偏見的策略方面,國外學者多將目光集中在了增強演算法透明度方面。演算法的透明度問題本質上也是新聞生產的透明度問題。演算法自身的複雜性再加上無法洞悉的“演算法黑箱”的存在,增加了公眾對演算法的設計原理、執行邏輯的理解難度。

演算法的透明度不僅牽涉新聞生產流程的“客觀性”“公平公正”,而且關聯著公眾對新聞媒體及其產品的信任。因此,隨著演算法在新聞生產、新聞推送的應用日漸增多,面對的作者的困惑和不願披露的演算法過程,“透明度”越來越多地被用作新聞合法化的規範基礎,透明度不僅可以對演算法進行有價值的檢查,還可以提高演算法對道德、文化和認識論等的影響力(Carlson,2018)。

三、國內外研究現象綜述

“技術比任何其他東西都更能定義它們所描述的時代。”(阿瑟,2009/2014:81)演算法作為一種新興技術,一定程度上代表著我們這個時代的發展現狀,技術的影響是雙面的,我們在享受演算法為我們帶來的便利的同時,也不能忽略演算法偏見這一負面問題。通過對國內及國外有關演算法偏見的文獻梳理,可以大致得出以下幾點結論:首先,國內外的學者都將研究重點放在了演算法偏見出現的原因、演算法偏見產生的影響以及演算法偏見的規制這三個方面上,但側重點有所不同,例如在規制方面,國外的學者比國內的學者更多也更為詳細的闡釋了演算法透明度這個概念及其重要性。

其次,國內學界對演算法新聞方面的研究頗為深入,尤其是2015年之後,文獻數量持續增長狀態,但是對於演算法偏見的研究,相較於國外學界,國內學界暫時處於起步階段,相關領域的研究數量較少。

最後,通過總結國內外研究成果,可以看出如今對於演算法偏見的研究還存在著這樣一個問題:對演算法偏見的研究停留在巨集觀的理論闡述層面,實踐性和操作性不強。如:林愛珺《智慧新聞資訊分發中的演算法偏見與倫理規制》解釋了演算法偏見的產生原因和規避路徑,但是主要停留在理論闡釋的層面,而沒有引用可供佐證的現實案例。