數(shù)媒時代算法傳播倫理問題及其規(guī)制
算法:重構(gòu)人—技術(shù)—環(huán)境之間的關(guān)系
智能媒體時代的來臨,使人類社會的智慧化程度進一步提高,虛擬網(wǎng)絡(luò)和真實物理世界之間的邊界正在逐漸消失。傳媒技術(shù)為人們以及整個社會構(gòu)建了全新的傳媒情境,并在新的傳媒形式下將其具象化。以技術(shù)為支撐的算法影響著整個世界的運作邏輯,重構(gòu)了人、技術(shù)、環(huán)境三者的關(guān)系。對傳播形態(tài)、媒介情境、人的社會互動形式、社會結(jié)構(gòu)也進行了重塑與賦權(quán)。算法解構(gòu)了以往的權(quán)力模式,改變了過去人為主體的傳播地位,個體通過網(wǎng)絡(luò)社交關(guān)系建立聯(lián)結(jié)。在傳統(tǒng)媒體時代,人作為世界的主體,通過人的行為方式與機器、環(huán)境建立起聯(lián)系;而在萬物互聯(lián)的算法時代,在算法的影響下,“人”、“技術(shù)”和“環(huán)境”相互融合,人與人之間的關(guān)系也從單純的、機械的單向傳遞發(fā)展到了“人-機”的雙向交互。人不再是一個絕對的主體,科技也不再是外在的事物,而是“萬物皆為媒介”。
算法傳播的運行邏輯
作為計算機科學的底層技術(shù)架構(gòu),算法是“一套由計算機運行的明確的指令和步驟”,能根據(jù)規(guī)范的輸入,在有限的時間內(nèi)獲得有效的輸出結(jié)果。在此基礎(chǔ)上,以算法為媒介,重構(gòu)了人-機交互的架構(gòu),在算法運行過程中,人類和機器都以協(xié)同的方式參與到算法機理的生成和反饋之中,利用大數(shù)據(jù)分析方法,直接構(gòu)建用戶行為、影響用戶偏好形成、改變用戶行為數(shù)據(jù)。
基于行為數(shù)據(jù)交互的用戶畫像。平臺通過算法運作機制,將不同內(nèi)容推薦給不同的用戶群體。目前平臺算法推薦主要包括三種:協(xié)同過濾、基于內(nèi)容的推薦和關(guān)聯(lián)規(guī)則推薦。協(xié)同過濾是指通過對內(nèi)容、個人、環(huán)境(場景)特征的判斷來進行信息匹配。算法需要采集用戶的數(shù)據(jù),為用戶生成畫像,建立個性化標簽,進行內(nèi)容和服務(wù)的定制化推送,為了讓算法達到精準推送,用戶必須自愿“讓渡”自己的個人信息使用權(quán)利。在算法的深度嵌入下,用戶在互聯(lián)網(wǎng)平臺停駐的時間等交互行為被監(jiān)視,人們的隱私權(quán)逐漸受到侵擾,身陷全景監(jiān)獄之中。
平臺會根據(jù)用戶瀏覽的內(nèi)容、行為習慣、行動軌跡(點贊、評論、轉(zhuǎn)發(fā)、收藏、停留時長)等形成標簽,進行價值提取,算法將擁有同類型標簽的內(nèi)容和用戶相匹配,通過交互性行為產(chǎn)生互動數(shù)據(jù),用戶的個人隱私被不同平臺共享,從而充分挖掘和實現(xiàn)數(shù)據(jù)蘊含的巨大經(jīng)濟和社會價值,可以幫助平臺實現(xiàn)商業(yè)價值利益最大化。
基于圈層文化和“趣緣”群體的信息化身份認同。平臺通過收集到的數(shù)據(jù)對用戶進行精準營銷,使用戶成為平臺忠實粉絲,產(chǎn)生互動鏈接機制和情緒共振,激發(fā)用戶二次創(chuàng)作和互動,提升用戶傳播的興趣和熱情,用戶參與行為為算法推薦提供數(shù)據(jù)參考。用戶集聚形成圈層文化和“趣緣”群體,通過算法不斷地編碼和匹配,處在相同社區(qū)的用戶會被算法推薦類似的內(nèi)容。算法嵌入到人們的社會交往和消費行為中,對人的信息選擇和信息接觸進行強有力的控制,人們對公共性話語的討論逐漸消失,開始轉(zhuǎn)向娛樂話題,使用戶失去自主性。
“擬態(tài)環(huán)境”是由美國著名學者李普曼提出的理論,是指人們在頭腦中構(gòu)建的與外部世界不完全一致的現(xiàn)實。人們無法直接感知和理解復雜的社會現(xiàn)實,而是通過媒體、傳播、文化等方式接收和解釋信息,形成自己的觀念和判斷。在算法精心建構(gòu)的虛擬空間和信息繭房中,用戶的身份認同感是平臺通過疊加數(shù)據(jù)標注、畫像、精準投送等操作而締造的幻想。這可能包括算法技術(shù)掌控者的偏見、刻板印象、虛構(gòu)等元素,不僅影響了人的行為和決策,還影響了公共話題的建構(gòu)。
算法傳播帶來的倫理隱憂問題
喻國明提出,我們正在進入“算法即媒介”的時代,智能化正在滲透我們生活的方方面面。算法能夠為一般用戶提供個性化的信息服務(wù),提高信息生產(chǎn)效率,緩解“信息過載”等問題,但也帶來了一些倫理失范問題。
算法推薦背離價值理性,公共領(lǐng)域建構(gòu)遭到挑戰(zhàn)。媒介的價值理性在于傳播公共信息、建構(gòu)公共領(lǐng)域。在傳統(tǒng)媒體時代,媒介有自己的“把關(guān)人”,編輯們能仔細審核媒介制作和傳播的內(nèi)容,媒介具有價值理性和一定的權(quán)威性。而在數(shù)字媒體時代,大量的不良信息和廣告充斥在網(wǎng)絡(luò)平臺,算法推薦技術(shù)為了迎合用戶的需求服務(wù)和喜好,往往會推薦用戶感興趣的內(nèi)容,企業(yè)為了獲利便大肆投放廣告,這既影響了用戶的媒介使用體驗,也降低了媒體的公共性與社會責任感。
哈貝馬斯提出“交往理性”的概念,他認為公共領(lǐng)域的交互行為是為了達成主體間的理解與共識,這種理解和共識以“交往理性”為前提?;ヂ?lián)網(wǎng)的興起,提供了加速信息傳播和意見交換的技術(shù)支持,作為觀點的自由市場,互聯(lián)網(wǎng)似乎是展開公共討論的最佳場所。然而輿論環(huán)境卻并不理想,許多參與公共討論的人都喪失了“交往理性”,網(wǎng)絡(luò)“鍵盤俠”導致網(wǎng)暴現(xiàn)象頻發(fā)。對于媒介而言,想要建構(gòu)公共領(lǐng)域的有效性,公眾首先要占有信息,參與公共事件的討論。相較于理性信息,情緒化內(nèi)容更容易引發(fā)公眾共鳴。算法推薦技術(shù)能夠?qū)Υ祟悆?nèi)容進行分析整合后設(shè)立標簽,將其推薦給公眾,進一步擴大情感傳播范圍。因此,算法妨礙了公眾意見的合理生成,媒體偏離了建設(shè)公共領(lǐng)域的職責。
公共交往理性削弱,“群體極化”現(xiàn)象嚴重。算法推薦能夠為用戶構(gòu)建個性的網(wǎng)絡(luò)世界,當人們不斷接受符合自己意見的信息時,他們會繼續(xù)加強自己的看法,陷入“信息繭房”,拒不與他人交往,妨礙公眾意見的合理構(gòu)建。由于算法傾向于推薦點擊率高、情感強烈的內(nèi)容,公共話題往往被簡化為易于理解和消化的極端觀點,忽視了問題的復雜性和多面性。媒介應(yīng)該為公共意見交流提供保障,但算法會過濾不同的觀點,不斷強化群體觀點,甚至群體偏見,讓群體間產(chǎn)生不信任,在算法的推動下,個體可能更關(guān)注個人興趣和利益,忽視了公共利益和長遠影響,導致公共決策和行動缺乏理性基礎(chǔ)。
凱斯·桑斯坦提出“群體極化”概念,指群體中既有觀點會在群體討論之后走向寡頭化,也就是極化,變得越來越偏激。在平臺利用算法技術(shù)構(gòu)建的虛擬世界和擬態(tài)環(huán)境中,群體之間存在的同溫層效應(yīng)導致觀點偏向極端,缺乏多元的意見交鋒和討論。人們沉浸在自己的世界,價值觀和社會意識形態(tài)開始分化,技術(shù)人員會在算法編碼的過程中加入自己的觀點,用自己的價值偏向影響用戶,造成用戶的價值異化。群體內(nèi)部的成員傾向于選擇和支持與自己觀點相近的立場,形成兩個相反的極端,中間地帶的觀點逐漸被忽視和邊緣化。隨著群體極化的發(fā)展,成員們更加傾向于與自己觀點相近的成員交流,而對于異己觀點和成員則表現(xiàn)出排斥和攻擊,甚至使用極端化的言論和表達方式,表達自己的觀點,對于異己觀點則會使用攻擊性和嘲諷性的語言。嚴重的“群體極化”可能導致群體內(nèi)部的對立和沖突,成員們會為了自己的觀點進行激烈爭論甚至斗爭,破壞了公共交往的和諧氛圍。
平臺與用戶權(quán)益失衡,用戶淪為“數(shù)字勞工”。達拉斯·斯麥茲提出“受眾商品論”,他認為資本主義控制下的需求是通過廣告來實現(xiàn)的,大眾傳媒是廣告?zhèn)鞑サ闹饕浇?,大眾傳媒通過向受眾提供媒介內(nèi)容以滿足信息需求,與此同時,受眾也被作為商品售賣給廣告商。
在新媒體時代下,用戶借助數(shù)字媒體技術(shù)使傳統(tǒng)的勞動諸要素進行數(shù)字化轉(zhuǎn)化與滲透,從而演變?yōu)?/span>“數(shù)字勞動”這一新的勞動形式,以數(shù)字為外衣的數(shù)字化勞動也走向了商品化。用戶在互聯(lián)網(wǎng)平臺的所有舉動、所產(chǎn)生的數(shù)據(jù)信息并不是勞動者自身所有,而是被媒介公司等企業(yè)平臺所獲取并轉(zhuǎn)售給廣告商。受眾勞動的個人化特征在資本的流轉(zhuǎn)與積累中持續(xù)地融入,而用戶所創(chuàng)造的內(nèi)容則是數(shù)字資本的新剩余價值增長點。在社交媒體等平臺,用戶被鼓勵生產(chǎn)內(nèi)容,但這些內(nèi)容被平臺轉(zhuǎn)化為信息商品,進行新一輪的線上消費,從而增強用戶黏性。用戶的瀏覽記錄、閱讀習慣、興趣愛好等被大數(shù)據(jù)挖掘并用于分析用戶行為,優(yōu)化推薦算法,這些數(shù)據(jù)也被用于廣告定向投放,為用戶推薦相關(guān)商品或服務(wù)。用戶成為了被量化的“數(shù)字勞工”,變成了被“物化”的數(shù)據(jù),這也是用戶對于算法技術(shù)背后的資本平臺來說的真正價值。
然而,用戶生產(chǎn)的內(nèi)容、提供的數(shù)據(jù)等往往被平臺無償使用,用戶并未從中獲得直接的經(jīng)濟回報。用戶付出的勞動和時間被平臺轉(zhuǎn)化為商業(yè)價值,但用戶本身并未獲得相應(yīng)的權(quán)益保障,還遭受了以下問題:算法需要收集大量用戶數(shù)據(jù)以進行個性化推薦,這就導致用戶隱私泄露,用戶的瀏覽記錄、搜索歷史、消費習慣等被平臺收集并可能用于其他目的;算法會基于用戶的歷史數(shù)據(jù)或社會偏見進行推薦,導致信息歧視,用戶群體可能因為算法偏見而難以獲得他們真正需要的信息或服務(wù);算法推薦往往基于用戶的興趣和偏好,導致用戶只接觸到與其觀點相符的信息,形成“信息繭房”,這限制了用戶的視野,使得他們難以接觸到多元化的觀點和信息;在算法推薦下,用戶的選擇權(quán)受到一定限制,往往只能看到平臺推薦的內(nèi)容,用戶的權(quán)益可能受到侵害,如商品信息不真實、交易過程存在欺騙等。
針對算法傳播的媒介倫理建構(gòu)與規(guī)制
治理網(wǎng)絡(luò)公共領(lǐng)域,把關(guān)化解“異化”風險。 算法推薦與傳播帶來的一系列倫理問題,引起網(wǎng)絡(luò)公共領(lǐng)域的異化,把現(xiàn)實社會的秩序和運作邏輯簡單移植到網(wǎng)絡(luò)與算法所構(gòu)建的虛擬社會,導致了兩者的不協(xié)調(diào)。社會多元主體需要共同參與治理網(wǎng)絡(luò)公共領(lǐng)域環(huán)境。社交媒體環(huán)境下,依托算法技術(shù)的媒介平臺能否具備理想的傳播環(huán)境,為異質(zhì)多元、充分的公眾交流提供場所,關(guān)鍵在于個體能否保持個體理性,跳出群體偏執(zhí),避免淪為輿論客體。因此,個人媒介素養(yǎng)提升至關(guān)重要。一方面,政府要將公民媒介素養(yǎng)提升納入教育范圍。另一方面,各媒介平臺要做好內(nèi)容“把關(guān)人”,為公眾提供全面、客觀的事實,形成互補的信息完善機制。個體的異化要求人們能夠擺脫媒介以及信息消費的制約,提升媒介素養(yǎng)。提升媒介素養(yǎng)需要解決的問題不是批判媒介內(nèi)容的問題,而是更深層次的生存與發(fā)展的問題。人要樹立遠大的目標,做獨立自由的人,而不是依附于技術(shù)工具。群體間的交流與交往要從理性出發(fā),避免社群分裂,從而讓媒介服務(wù)于人們的現(xiàn)實生活。
其次,完善網(wǎng)絡(luò)法律體系,明確政府監(jiān)管部門的職責、權(quán)限,解決責權(quán)不明、多頭監(jiān)管等問題。實行許可證制度或注冊登記制度,加強對網(wǎng)絡(luò)運營商的監(jiān)管,從源頭上控制不良網(wǎng)絡(luò)文化。在官方網(wǎng)站上設(shè)立互動平臺,引導網(wǎng)民參與公共政策和國家大事的討論或評論,有針對性地回復網(wǎng)民意見或建議。利用先進網(wǎng)絡(luò)技術(shù)開展網(wǎng)絡(luò)監(jiān)管,嚴厲打擊網(wǎng)絡(luò)欺詐、網(wǎng)絡(luò)造謠、網(wǎng)絡(luò)暴力等不法行為。正確引導海量網(wǎng)絡(luò)信息,在尊重輿論傳播規(guī)律的基礎(chǔ)上,規(guī)范網(wǎng)絡(luò)信息傳播,推動網(wǎng)絡(luò)輿論健康發(fā)展。加強用戶數(shù)據(jù)的收集、存儲、使用和傳輸?shù)陌踩Wo,防止用戶隱私泄露和數(shù)據(jù)濫用,確保用戶數(shù)據(jù)的安全和合法使用。
堅守人本主義理念,把人文關(guān)懷放在首位。作為具有主體性的人,以人為本是我們對待任何技術(shù)都應(yīng)具備的理念與自信。駕馭技術(shù)從而影響時代進程的,永遠是有主體意識的人,雖然算法量化了作為主體的人,但是量化不等于客觀。潘綏銘認為:“所謂的大數(shù)據(jù),其實一點都沒有超出小數(shù)據(jù)的原有局限:剪裁生活,撕毀人生;非要把整體生存的人,視為一堆雜亂的零碎,在實際生活中,人類絕對不是,也不可能這樣來量化地認知和行動。”人本存在主義認為,每個人都擁有自由意志,可以自主地做出選擇和決策。面對算法傳播引發(fā)的倫理問題,我們應(yīng)當堅持人本主義,重視人的價值,提升人的主導作用。算法應(yīng)當在特定的制度、歷史和文化環(huán)境中,作為一種符號體系加以研究,算法倫理學的研究,不能僅僅局限于機器。在機器和算法流行的年代,更要堅守人的價值,人類的價值評判應(yīng)當指導機器的價值評判,在人性與機械的效率之間保持平衡。堅持人本主義觀點,始終把人文關(guān)懷放在首位。
量化用戶勞動數(shù)據(jù),達到平臺與用戶收益平衡。“數(shù)字勞工”現(xiàn)象是網(wǎng)絡(luò)平臺與用戶的權(quán)益失衡,平臺將用戶的個人信息與網(wǎng)絡(luò)活動生成的數(shù)據(jù)進行數(shù)據(jù)化、私有化,并將其出售給廣告主;網(wǎng)民在網(wǎng)絡(luò)上的行為,也通過各種不同的方法,無償?shù)貙⑺麄兊摹皠趧恿Α狈瞰I給了平臺。媒介用戶作為內(nèi)容生產(chǎn)者,實際上處于隱形的被剝削的狀態(tài),平臺規(guī)則不能保障用戶的權(quán)益。使用用戶數(shù)據(jù)的公開透明度不足,對用戶發(fā)布內(nèi)容版權(quán)的保障機制有待完善,這就造成了平臺與用戶的收益不均衡,忽略了人的主體性價值。因此需要打造更好的網(wǎng)絡(luò)平臺生態(tài)環(huán)境,給用戶更多保障,要做到推廣算法的透明化設(shè)計,讓用戶能夠了解算法的工作原理和決策依據(jù),減少算法歧視和偏見的可能性。建立算法決策的責任追究機制,明確算法決策的責任主體和追責程序,確保算法決策的公正性和合理性。
數(shù)據(jù)資產(chǎn)是指企業(yè)在業(yè)務(wù)活動中積累或產(chǎn)生的原始數(shù)據(jù),以及經(jīng)過處理、分析和整合后形成的衍生數(shù)據(jù),包括用戶的購買記錄、偏好、歷史訪問記錄等,數(shù)據(jù)資產(chǎn)的所有權(quán)成為備受關(guān)注的問題。政府需要采取措施規(guī)制數(shù)字媒介平臺的壟斷,平臺也要主動承擔企業(yè)責任,規(guī)范地使用用戶的“數(shù)據(jù)資產(chǎn)”,避免造成受眾商品的異化。平臺需要完善機制,改進利益分配方式,以保證用戶和平臺在生產(chǎn)、交易、分配等環(huán)節(jié)達到利益平衡,可以借助區(qū)塊鏈技術(shù)打破平臺版權(quán)讓渡規(guī)則,讓用戶的勞動時間和勞動量能夠被定量計算,從而進行按勞分配,避免“數(shù)字勞工”的困境加深。
結(jié)語
面對算法傳播引發(fā)的媒介倫理困境,我們需要多方共同努力,在全球范圍內(nèi)加強算法倫理和網(wǎng)絡(luò)公共領(lǐng)域的國際合作和治理,共同應(yīng)對算法帶來的倫理問題和挑戰(zhàn)。各國可以在技術(shù)、政策等方面進行交流和合作,共同探討如何更好地保障公民權(quán)益、促進算法傳播的健康發(fā)展。算法傳播的倫理問題是一個長期而艱巨的任務(wù),隨著技術(shù)的不斷發(fā)展和社會的不斷進步,新聞倫理問題會不斷涌現(xiàn)。在追求技術(shù)進步、算法效率的同時,要注重公平導向的“新聞”,尋找二者之間的平衡點,保持最后的道德底線,實現(xiàn)人與技術(shù)的和諧共生。只有這樣,我們才能確保技術(shù)的進步真正惠及人類社會,實現(xiàn)可持續(xù)發(fā)展的目標。
文章來源: 《聲屏世界》 http://m.00559.cn/w/xf/24481.html
- 2023JCR影響因子正式公布!
- 國內(nèi)核心期刊分級情況概覽及說明!本篇適用人群:需要發(fā)南核、北核、CSCD、科核、AMI、SCD、RCCSE期刊的學者
- 我用了一個很復雜的圖,幫你們解釋下“23版最新北大核心目錄有效期問題”。
- 重磅!CSSCI來源期刊(2023-2024版)最新期刊目錄看點分析!全網(wǎng)首發(fā)!
- CSSCI官方早就公布了最新南核目錄,有心的人已經(jīng)拿到并且投入使用!附南核目錄新增期刊!
- 北大核心期刊目錄換屆,我們應(yīng)該熟知的10個知識點。
- 注意,最新期刊論文格式標準已發(fā)布,論文寫作規(guī)則發(fā)生重大變化!文字版GB/T 7713.2—2022 學術(shù)論文編寫規(guī)則
- 盤點那些評職稱超管用的資源,1,3和5已經(jīng)“絕種”了
- 職稱話題| 為什么黨校更認可省市級黨報?是否有什么說據(jù)?還有哪些機構(gòu)認可黨報?
- 《農(nóng)業(yè)經(jīng)濟》論文投稿解析,難度指數(shù)四顆星,附好發(fā)選題!