優(yōu)勝從選擇開始,我們是您最好的選擇!—— 中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)
0373-5939925
2851259250@qq.com
我要檢測 我要投稿 合法期刊查詢

人工智能時(shí)代算法傳播的倫理失范問題及其治理對策研究

作者:樊小穎來源:《聲屏世界》日期:2024-10-17人氣:78

隨著計(jì)算機(jī)算法的進(jìn)步,我們逐步步入到了人工智能的時(shí)代,2016年作為人工智能元年,人工智能技術(shù)以及相關(guān)的應(yīng)用迎來了里程碑式的突破。新聞傳播行業(yè)與人工智能技術(shù)的連接也越來越緊密,計(jì)算機(jī)算法推動了新聞的自動化生產(chǎn)和多元傳播,重塑了媒體的內(nèi)容生產(chǎn)方式及傳播工作流程。算法傳播所導(dǎo)致的倫理失范問題較之傳統(tǒng)媒體時(shí)代有所不同。傳統(tǒng)媒體時(shí)代的倫理失范問題更多的是因?yàn)閭鞑フ咧鹄鴮?dǎo)致的黃色暴力新聞的發(fā)布以及媒介尋租等現(xiàn)象,而算法傳播使得倫理失范問題更加頻發(fā),還因?yàn)榇髷?shù)據(jù)技術(shù)的成熟出現(xiàn)了隱私權(quán)被侵犯、低俗新聞泛濫、媒介審判等問題。因此本文分析了算法傳播所導(dǎo)致的一系列倫理失范問題,并從傳播主體、傳播渠道、技術(shù)本身幾個(gè)方面探究其原因,給出針對性規(guī)范對策,以期最大程度上減小算法傳播導(dǎo)致的倫理失范現(xiàn)象,讓人工智能技術(shù)在主流價(jià)值觀的引導(dǎo)下發(fā)揮其自身優(yōu)勢為新聞媒體行業(yè)服務(wù)。

算法傳播導(dǎo)致的倫理失范問題的表現(xiàn)

“信息繭房”加劇受眾心理認(rèn)知失衡。算法推薦是通過監(jiān)控用戶對新聞內(nèi)容的瀏覽記錄、閱讀時(shí)長等數(shù)據(jù)判斷用戶的閱讀偏好從而進(jìn)行量身定制的服務(wù),用戶只會接收到自己感興趣的內(nèi)容,被大量同質(zhì)化的信息包圍。長此以往,在算法對新聞內(nèi)容的層層篩選下,用戶對信息的接受面越來越窄化,最終被禁錮在自我認(rèn)知的“信息繭房”中。往往處于這種相對封閉狀態(tài)下的用戶是不自知的,他們會以為自己所看到的片面的信息是事實(shí)的全部,并且只能關(guān)注到與自己的想法相似的觀點(diǎn),沉浸在“回音室”當(dāng)中,從而導(dǎo)致認(rèn)知偏差。用戶在一次又一次的尋求認(rèn)同并得到同類群體的肯定后,容易形成盲目的自信和極端主義。斯通納·詹姆斯將這一現(xiàn)象定義為“群體極化”現(xiàn)象,他認(rèn)為群體極化就是團(tuán)體成員一開始有某種傾向,在群體決策后變得扭曲并形成極端的觀點(diǎn)。如2023年5月23日的“武漢媽媽”事件,武漢弘橋小學(xué)一名男教師在校內(nèi)駕車時(shí),將一名跑進(jìn)其視角盲區(qū)的一年級小學(xué)生撞傷,后該學(xué)生因搶救無效去世。該學(xué)生媽媽在操場哀哭的視頻被傳到網(wǎng)上并不斷發(fā)酵,公眾對這為媽媽的妝容、穿搭等提出質(zhì)疑,認(rèn)為她有炒作的嫌疑。網(wǎng)絡(luò)大V不斷制造謠言煽動公眾情緒,最終引發(fā)了對該學(xué)生媽媽的網(wǎng)暴。6月2日,這位媽媽因雙重打擊悲痛與欲絕跳樓結(jié)束了自己的生命。受眾在這種惡意的信息繭房中認(rèn)知出現(xiàn)了偏差,對這位媽媽進(jìn)行了網(wǎng)暴,最終導(dǎo)致了悲劇的發(fā)生。

過度數(shù)據(jù)抓取形成的“全景監(jiān)獄”。福柯在《規(guī)訓(xùn)與懲罰》中提出了“全景監(jiān)獄”的概念,這一概念由英國哲學(xué)家的“圓形監(jiān)獄”設(shè)想演變而來。圓形監(jiān)獄描述的了一種環(huán)形的建筑,四周是被分割成一個(gè)個(gè)小單元的囚房,中間是一座瞭望塔,監(jiān)視者可以在在瞭望塔上看到囚犯的一舉一動,而囚犯卻看不到監(jiān)視者。??抡J(rèn)為在當(dāng)代社會,這種監(jiān)視不止發(fā)生在監(jiān)獄這種封閉的地方,在整個(gè)社會都存在“被監(jiān)視”的情況。在人工智能時(shí)代福柯的“全景監(jiān)獄”理論得到了有力的驗(yàn)證。數(shù)據(jù)是算法技術(shù)最核心的資源,只有對數(shù)據(jù)進(jìn)行大量挖掘和監(jiān)控,才能進(jìn)行自動化的生產(chǎn)和推送。用戶在網(wǎng)絡(luò)上所有的行為都會被數(shù)據(jù)化處理,個(gè)人隱私隨時(shí)隨地都在被監(jiān)控。而用戶為了獲得自己所偏好的信息就必須將自己的私密數(shù)據(jù)轉(zhuǎn)讓比如各種瀏覽記錄、轉(zhuǎn)贊評等。很多同公司旗下的APP數(shù)據(jù)也會互通,比如你在某社交類APP搜索某個(gè)產(chǎn)品的功能口碑等,很快這款產(chǎn)品就會出現(xiàn)在你的某個(gè)購物APP的首頁。雖然各個(gè)app都推出了一些安全隱私設(shè)置,但是由于平臺和用戶之間的權(quán)力不對等,平臺對用戶的隱私保護(hù)條款往往都含糊不清且篇幅冗長,讓用戶無法清晰的知道自己會在哪個(gè)步驟會泄露自己的隱私。2023年1月4日美國《華盛頓郵報(bào)》報(bào)道Twitter平臺有2.35億個(gè)用戶賬號以及注冊賬號所用的電子郵箱地址被公布在一個(gè)線上黑客論壇上,這些被泄露賬號的用戶都有可能面臨身份曝光、敲詐勒索、電郵詐騙等風(fēng)險(xiǎn),而這已經(jīng)不是Twitter第一次被爆出隱私泄露事件。

低俗新聞泛濫瓦解傳統(tǒng)新聞價(jià)值。人工智能和算法推薦技術(shù)在新聞生產(chǎn)與分發(fā)的過程中大行其道,在新聞內(nèi)容完全被用戶的偏好所左右后,新聞價(jià)值逐漸被瓦解。尼爾·波茲曼早在《童年的消逝》一書中就提出在電視時(shí)代,兒童和成年人之間的變得模糊,兒童被迫進(jìn)入成人的性愛、暴力中,童年在提前消逝。在其另一本著作《娛樂至死》中他認(rèn)為一切公眾話語都以娛樂的方式呈現(xiàn),變得脫離理性、膚淺、碎片化,最終娛樂至死。雖然低俗化的新聞在傳統(tǒng)媒體時(shí)期已經(jīng)存在,但是算法技術(shù)的出現(xiàn)使得低俗新聞更加泛濫,已經(jīng)演變成了危害社會風(fēng)氣的公共問題?,F(xiàn)在判斷新聞價(jià)值的標(biāo)準(zhǔn)只有瀏覽量、點(diǎn)贊量、評論量,為了能夠讓新聞獲得更多的關(guān)注度,某些平臺就會通過算法來迎合部分用戶的獵奇心理,各種標(biāo)題黨、暗含色情暴力的新聞層出不窮,而真正重要的新聞卻被這些“趣味”新聞給淹沒。平臺利用人性的弱點(diǎn) 不斷強(qiáng)化這樣的新聞內(nèi)容輸出,讓這種低俗垃圾新聞奪走用戶所有的關(guān)注。對于缺乏媒介素養(yǎng)的用戶,特別是心智發(fā)展尚不成熟的青少年來說就像“吸毒”一樣侵蝕他們的心智,這些低俗新聞會給他們的心理、思維和行為帶來錯(cuò)誤引導(dǎo),也慢慢瓦解了主流的新聞價(jià)值觀。

算法傳播導(dǎo)致的倫理失范問題的成因

人工智能時(shí)代專業(yè)媒體的主體地位被削弱。人工智能時(shí)代,算法技術(shù)以及各個(gè)新聞聚合平臺的興起極大地削弱了傳統(tǒng)專業(yè)媒體的主體地位。在新興技術(shù)的賦權(quán)下,傳播權(quán)力下放給了每一個(gè)受眾,任何人都可以在公共社交平臺發(fā)聲。而這些用戶都是沒有接受過專業(yè)的職業(yè)訓(xùn)練的,很多人缺乏媒介素養(yǎng),對于新聞事實(shí)的報(bào)道比較片面。雖然這使得新聞報(bào)道有了更多地角度,但是許多人會有意無意地濫用自己的話語權(quán),從而導(dǎo)致各種謠言滿天飛,影響社會輿論地走向。其次,各類新聞聚合平臺承擔(dān)起了新聞發(fā)布和編輯地責(zé)任,專業(yè)媒體的分發(fā)權(quán)轉(zhuǎn)移到了平臺媒體地手里。“今日頭條”的CEO張一鳴曾在公開采訪中表示“你關(guān)心的,才是頭條”這也是眾多新聞聚合平臺的準(zhǔn)則。為了大規(guī)模提高平臺的新聞分發(fā)效率,實(shí)現(xiàn)利益最大化,他們通過算法給用戶進(jìn)行量身定制,實(shí)現(xiàn)精準(zhǔn)推送,這樣的新聞推送模式使得新聞審核變得愈發(fā)困難。在傳統(tǒng)媒體時(shí)代把關(guān)人是新聞生產(chǎn)和傳播環(huán)節(jié)中非常重要的一環(huán),他們會從新聞內(nèi)容、價(jià)值、乃至整個(gè)報(bào)道的過程中把關(guān)新聞,從而與主流價(jià)值觀相一致。但之前的新聞把關(guān)活動之所以可以進(jìn)行,是因?yàn)樾侣劸哂泄残?,大多?shù)地用戶可以接觸到,但是算法分發(fā)下新聞的這種公共性被消解了,不同地用戶多接收到的信息有著明顯的不同,比如抖音平臺同一條視頻下方的評論區(qū)男女用戶看到的不同評論的權(quán)重完全不一樣。算法在無形中削弱了專業(yè)媒體的主體地位,從而引發(fā)一系列的媒介倫理失范問題。

算法工具理性與新聞價(jià)值理性的失衡。算法技術(shù)被引入中國,新聞的生產(chǎn)和傳播開始改變,算法強(qiáng)大的數(shù)據(jù)運(yùn)算和分析能力能夠幫助新聞媒體更好的分析市場的變化,了解用戶的需求,并且極大地拓展寬了新聞反饋渠道,與傳統(tǒng)媒體相比是一大進(jìn)步。馬克斯·韋伯曾提出了“工具理性”一概念,工具理性強(qiáng)調(diào)的是把工具的功效發(fā)揮到最大,算法在新聞地生產(chǎn)傳播工程中,既能滿足用戶地個(gè)性化需求,又能兼顧新聞的及時(shí)性和互動性,充分體現(xiàn)了其“工具理性”,但新聞的“價(jià)值理性”并未得到同樣的發(fā)揮。一些新聞聚合類平臺過度依賴無限放大算法的工具理性,為了快速獲取公眾關(guān)注度、吸引流量,只靠標(biāo)題來吸引眼球,網(wǎng)絡(luò)平臺上充斥著各種“震驚xxx”“不看xx后悔一輩子”等各種聳人聽聞的標(biāo)題。這些新聞平臺完全放棄了新聞的質(zhì)量內(nèi)容以及人文精神,及新聞的“價(jià)值理性”?!皟r(jià)值理性”強(qiáng)調(diào)的是倫理價(jià)值,是對人文主義精神的保護(hù)。而算法顯然是沒有情感和意識的,它只能將人類的一切活動和行為都轉(zhuǎn)化成冷冰冰的數(shù)據(jù),但新聞并不是單純地追求即時(shí)性和熱度,更重要的是傳遞真善美的價(jià)值觀,真正好的新聞是有溫度的。技術(shù)本身并沒有是非對錯(cuò)之分,重要的是我們該如何發(fā)揮自身的主觀能動性去使用技術(shù),如果我們只是被算法牽著鼻子走,就會陷入“劣幣驅(qū)逐良幣”的惡性循環(huán)中。

商業(yè)化平臺過度逐利缺乏主體責(zé)任。今日頭條、一點(diǎn)資訊等新聞平臺,都是為了獲取高額利潤而發(fā)展的。從一開始,他們就通過植入廣告來賺取利潤,從而在新聞產(chǎn)業(yè)中獲得一席之地。這些媒體平臺的創(chuàng)辦者,都把經(jīng)濟(jì)收入視為其主要目標(biāo)。這一管理制度在一定程度上激發(fā)了平臺的發(fā)展?jié)撃?,也凸現(xiàn)了我國市場經(jīng)濟(jì)的優(yōu)勢,但過分強(qiáng)調(diào)經(jīng)濟(jì)利益,極大地削弱了其提高內(nèi)容品質(zhì)的動力。這些媒體的重點(diǎn)是如何獲取更多的點(diǎn)擊率和關(guān)注度,忽略了記者的職業(yè)道德。在“眼球經(jīng)濟(jì)”這片沃土上,算法能夠迅速、不斷地從各處“搬運(yùn)”信息,并盡可能地吸引著用戶,讓他們可以不停地從網(wǎng)頁中獲得信息,用戶不需要考慮自己要看什么,算法會根據(jù)用戶閱讀記錄、興趣等特點(diǎn),自動地向用戶提供信息。為了吸引更多的顧客,獲得更多的利潤,他們的新聞品質(zhì)和內(nèi)容都變得低俗化、娛樂化。同時(shí),為了獲得更多的利潤,很多媒體都向用戶推送各種形式的廣告,這種做法是違背職業(yè)道德和社會道德的。另外,一些含有色情、暴力等負(fù)面新聞的報(bào)道,也給新聞界行業(yè)帶來污染,而一些娛樂新聞,為了滿足網(wǎng)友對明星的隱私的窺視,大肆炒作、消費(fèi)網(wǎng)紅、明星,這使得各種媒介倫理失范的問題頻發(fā)。

對算法傳播媒介倫理的規(guī)范對策

法律加強(qiáng)對新聞的監(jiān)管機(jī)制。我國目前并沒有制定專門新的聞法,現(xiàn)有的《中新聞工作者職業(yè)道德準(zhǔn)則》等文件都是用來規(guī)范新聞的從業(yè)人員的,對于飛速發(fā)展的新聞行業(yè)來說,我國的法律制度還是比較滯后的。很多時(shí)候所出現(xiàn)的新聞倫理失范的問題無法可依,人工智能在新聞行業(yè)的發(fā)展更使得隱私泄露、追責(zé)困難等問題更加頻發(fā)。好在,我國針對于網(wǎng)絡(luò)安全、數(shù)據(jù)安全、個(gè)人隱私等重要議題的法律界定在不斷完善。2017年6月1日我國正式施行了《中華人民共和國網(wǎng)絡(luò)安全法》,其中二十二條明確規(guī)定了:網(wǎng)絡(luò)產(chǎn)品、服務(wù)具有收集用戶信息功能的,其提供者應(yīng)當(dāng)向用戶明示并取得同意。2021年9月1日正式施行《中華人民共和國數(shù)據(jù)安全法》,其中第六條規(guī)定:各地區(qū)、各部門對 本地區(qū)、本部門工作中收集和產(chǎn)生的數(shù)據(jù)及數(shù)據(jù)安全負(fù)責(zé)。2021年11月1日正式施行《中華人民共和國個(gè)人信息保護(hù)法》,其中第十條規(guī)定:任何組織、個(gè)人不得非法收集、使用、加工、傳輸他人個(gè)人信息,不得非法買賣、提供或者公開他人個(gè)人信息。這些法律條例為處理商業(yè)平臺對用戶數(shù)據(jù)的過度挖掘提供了明確的法律規(guī)則,讓個(gè)人信息泄露問題能夠有法可依。不過新技術(shù)還在不斷的涌現(xiàn),很多相關(guān)案例仍游走在法律的灰色地帶無法解決。互聯(lián)網(wǎng)業(yè)務(wù)處于各種監(jiān)管體系的夾縫之中,導(dǎo)致很多相關(guān)責(zé)任方互相推諉,因此對于各方的權(quán)責(zé)劃分仍是我國法律建設(shè)和更新的方向。

打開算法“黑箱”提高透明度。人工智能時(shí)代的法律邊界一定程度上規(guī)范了算法技術(shù)在新聞傳播中的底線,但是對于技術(shù)本身的邊界確認(rèn)還是很難落實(shí)的?!凹夹g(shù)中立論”認(rèn)為,技術(shù)本身只是按照運(yùn)行邏輯來完成任務(wù),不應(yīng)該承擔(dān)任何價(jià)值觀層面的責(zé)任。但是技術(shù)從來都不是獨(dú)立運(yùn)行的,是“人”創(chuàng)造的技術(shù),那么其本身就會存在偏見或傾向。比如,智能識別系統(tǒng)認(rèn)為“所有含有裸體的圖片都涉及色情”,這就是一種偏見,難道諸如世界名畫《馬背上的夫人》等也要被貼上色情的標(biāo)簽?既然技術(shù)無法做到絕對的中立,那就需要將技術(shù)透明化。提高算法透明度是一道重要的技術(shù)道德問題。陳昌鳳認(rèn)為,提高算法透明化的途徑應(yīng)該建立在“開放倫理”的基礎(chǔ)上,也就是強(qiáng)調(diào)用戶的意識。在算法新聞中,用戶既是用戶,又是廠商,所以要把用戶的認(rèn)知、態(tài)度和需求融入到算法透明度的話語結(jié)構(gòu)中,同時(shí)用戶也是算法透明度的檢驗(yàn)和問責(zé)的對象。當(dāng)然完全公開算法內(nèi)容可能會損害商業(yè)利益,也可能被不法人員入侵篡改程序,因此只需做到以下三點(diǎn)。第一,公開算法是如何收集、關(guān)聯(lián)和解釋數(shù)據(jù)的生成,其次是將算法透明度與其他道德準(zhǔn)則如問責(zé)、同意、表達(dá)自由等的關(guān)系公之于眾,三是提供技術(shù)可操作性的保證,比如通過算法審計(jì)、發(fā)布用戶服務(wù)條款、制定有關(guān)道德準(zhǔn)則等措施來保證算法的透明度。

平臺自身嚴(yán)格監(jiān)管承擔(dān)主體責(zé)任我國將新聞媒體視為黨和政府的“喉舌”,新聞傳播事業(yè)是以馬克思主義新聞觀作為指導(dǎo)思想的。而如今以經(jīng)濟(jì)利益為主要目標(biāo)的新聞聚合平臺,只注重用戶規(guī)模、平臺流量,完全把新聞?wù)嬲墓δ芎椭髁鲀r(jià)值觀拋之腦后。人民日報(bào)曾多次發(fā)文批評以算法分發(fā)為核心運(yùn)營模式的新聞聚合平臺存在大量低俗內(nèi)容,并且擠壓了人工編輯的生存空間。中央網(wǎng)信辦等相關(guān)監(jiān)管部門也出臺了各項(xiàng)管制規(guī)定,開展了多次的整治行動,但是平臺的新聞倫理失范問題依舊頻頻發(fā)生。因此在不斷完善法律法規(guī)的同時(shí),還需要制定相應(yīng)的行業(yè)規(guī)范,無論哪個(gè)行業(yè)只靠外在的約束來管制是不會長久的,只有自發(fā)的進(jìn)行自我約束,行業(yè)內(nèi)相互監(jiān)督,形成行業(yè)規(guī)范,才能真正杜絕新聞倫理失范問題的發(fā)生。人工智能技術(shù)在不斷的發(fā)展,各種新問題還是會不斷涌現(xiàn),新聞聚合平臺只有恪守本分,堅(jiān)持以馬克思主義為指導(dǎo)思想,不觸碰法律紅線,嚴(yán)格自我監(jiān)督承擔(dān)主體責(zé)任,才能長久地發(fā)展下去。

結(jié)語

人工智能時(shí)代算法技術(shù)對新聞行業(yè)帶來了巨大地變革。本文重點(diǎn)探討了,算法技術(shù)在新聞傳播領(lǐng)域地應(yīng)用所引發(fā)的新聞倫理失范的問題。但是,從人類和技術(shù)的發(fā)展,到倫理問題的研究,技術(shù)如何為人類服務(wù),如何控制技術(shù)帶來的影響,都是學(xué)術(shù)界永恒的話題。目前算法技術(shù)在新聞傳播的過程當(dāng)中仍然面臨許多倫理風(fēng)險(xiǎn)。但是我相信,只要不斷加強(qiáng)我國的法律法規(guī)建設(shè),提高算法技術(shù)的透明度、平臺加強(qiáng)自身監(jiān)管,在加上用戶和媒體從業(yè)人員的媒介素養(yǎng)不斷提升,算法傳播所導(dǎo)致的新聞的倫理失范問題就一定能夠逐步解決。


文章來源:  《聲屏世界》   http://m.00559.cn/w/xf/24481.html

網(wǎng)絡(luò)客服QQ: 沈編輯

投訴建議:0373-5939925????投訴建議QQ:

招聘合作:2851259250@qq.com (如您是期刊主編、文章高手,可通過郵件合作)

地址:河南省新鄉(xiāng)市金穗大道東段266號中州期刊聯(lián)盟 ICP備案號:豫ICP備2020036848

【免責(zé)聲明】:中州期刊聯(lián)盟所提供的信息資源如有侵權(quán)、違規(guī),請及時(shí)告知。

版權(quán)所有:中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)

關(guān)注”中州期刊聯(lián)盟”公眾號
了解論文寫作全系列課程

核心期刊為何難發(fā)?

論文發(fā)表總嫌貴?

職院單位發(fā)核心?

掃描關(guān)注公眾號

論文發(fā)表不再有疑惑

論文寫作全系列課程

掃碼了解更多

輕松寫核心期刊論文

在線留言