公務(wù)員期刊網(wǎng) 論文中心 正文

人工智能下的新聞生產(chǎn)倫理

前言:想要寫出一篇引人入勝的文章?我們特意為您整理了人工智能下的新聞生產(chǎn)倫理范文,希望能給你帶來靈感和參考,敬請閱讀。

人工智能下的新聞生產(chǎn)倫理

摘要:人工智能的發(fā)展使新聞業(yè)的生產(chǎn)工具和生產(chǎn)方式發(fā)生了巨大的變革。在智能技術(shù)的作用下,傳統(tǒng)的新聞生產(chǎn)倫理面臨著困境與挑戰(zhàn)。本文從新聞生產(chǎn)過程來看新聞工作者、新聞平臺(tái)、權(quán)力機(jī)關(guān)各自在智能技術(shù)視域下的發(fā)展與創(chuàng)新,并以人工智能視域下的新聞生產(chǎn)倫理為邏輯起點(diǎn),結(jié)合人工智能時(shí)代下的新聞生產(chǎn)倫理面臨的具體挑戰(zhàn),從新聞從業(yè)者個(gè)體倫理層面、新聞媒體組織倫理層面和人工智能視域下的社會(huì)倫理層面給出意見建議。

關(guān)鍵詞:人工智能;新聞生產(chǎn)倫理;道德困境

一、人工智能技術(shù)在新聞生產(chǎn)中的現(xiàn)狀分析

誕生于1960年的計(jì)算機(jī)輔助新聞是人工智能在新聞生產(chǎn)領(lǐng)域最早的應(yīng)用。2000年左右,計(jì)算機(jī)輔助新聞開始進(jìn)入數(shù)據(jù)驅(qū)動(dòng)新聞階段。2006年,湯普森公司開始將新聞機(jī)器人運(yùn)用于財(cái)經(jīng)數(shù)據(jù)分析,并生產(chǎn)出新聞,這標(biāo)志著現(xiàn)代意義上的人工智能新聞?wù)嬲a(chǎn)生。當(dāng)前,人工智能主要依靠自然語言處理、預(yù)測分析和機(jī)器學(xué)習(xí)三種技術(shù)。在新聞報(bào)道中,人工智能的運(yùn)用大致可分為自動(dòng)化生產(chǎn)、人機(jī)交互和智能推薦三種類型。

(一)數(shù)據(jù)挖掘和機(jī)器寫作推動(dòng)新聞的自動(dòng)化生產(chǎn)數(shù)據(jù)挖掘和機(jī)器寫作是一種打破了新聞人工作常規(guī)模式的特殊的新聞生產(chǎn)方式,依賴于龐大的數(shù)據(jù)資源,運(yùn)用技術(shù)的手段化繁為簡,省去了傳統(tǒng)新聞出稿的步驟。因此,數(shù)據(jù)的積累和清晰的數(shù)據(jù)支撐是推動(dòng)新聞自動(dòng)化生產(chǎn)的關(guān)鍵。這種將采訪、寫作、編輯、校對、分發(fā)、反饋等新聞生產(chǎn)環(huán)節(jié)融合在一起的方式,節(jié)省了人力、物力和時(shí)間,大大簡化了新聞生產(chǎn)的過程,進(jìn)一步優(yōu)化了新聞生產(chǎn)的流程。這意味著,在一些專業(yè)報(bào)道中,機(jī)器人挖掘的數(shù)據(jù)會(huì)比記者發(fā)現(xiàn)、找到的數(shù)據(jù)更為精確可信,人和機(jī)器展現(xiàn)出平等合作、相互理解、輔助的關(guān)系,在不同方面各顯其能,互相配合,可以讓記者從單調(diào)重復(fù)的工作中逃離,從而更加專注于挖掘數(shù)字背后的意義,去做更有創(chuàng)造力的事。

(二)智能音箱和聊天機(jī)器改變?nèi)藱C(jī)交互的傳統(tǒng)模式2017年7月,國務(wù)院的《新一代人工智能發(fā)展規(guī)劃》中提到未來我國幾十年人工智能的發(fā)展藍(lán)圖,著重強(qiáng)調(diào)發(fā)展人機(jī)智能共生的行為增強(qiáng)與腦機(jī)協(xié)同及人機(jī)群組協(xié)同等關(guān)鍵理論和技術(shù),并指出未來人機(jī)協(xié)同將成為主流的生產(chǎn)和服務(wù)方式。智能語音服務(wù)由兩部分構(gòu)成,一部分是硬件,一部分是智能語音助手。硬件為語音助手提供運(yùn)行環(huán)境,從物理上接受聲音指令,并進(jìn)行反饋。因此,智能語音可以通過聲音方便地與終端交流,不需要控制手機(jī)或者終端界面就能參與數(shù)字生活和工作的方方面面。社會(huì)學(xué)家戈夫曼的場景理論認(rèn)為,媒介、場景和行為之間存在高度的關(guān)聯(lián)與互動(dòng)關(guān)系?!皥鼍啊弊鳛閮?nèi)容、形式、社交之后媒體的又一核心要素,在定制化需求體驗(yàn)和實(shí)現(xiàn)用戶價(jià)值匹配方面得到了極大程度的體現(xiàn)。從這個(gè)意義上來說,智能語音擴(kuò)張了我們進(jìn)行媒介消費(fèi)的空間。

(三)基于興趣的智能推薦助推新聞傳播的個(gè)性化人工智能視域下的智能推薦是指通過技術(shù)手段介入信息內(nèi)容和信息受眾之間,更改內(nèi)容的傳播方式和路徑,從而更好地利用用戶行為大數(shù)據(jù),在“千人千面”的背景下實(shí)現(xiàn)用戶不同偏好的內(nèi)容推薦,達(dá)到分析并改變信息受眾閱讀偏好的效果。2019年,尼曼實(shí)驗(yàn)室在預(yù)測新聞業(yè)趨勢時(shí)選出的一個(gè)關(guān)鍵詞是“Newsfatigue”(新聞疲勞癥)。因此,基于用戶興趣的算法可以督促記者更加全面地考慮用戶需求,增加新聞內(nèi)容曝光量,喚起用戶的更多互動(dòng),從而更加有目的地進(jìn)行個(gè)性化的推薦,將信息精準(zhǔn)地投向用戶,節(jié)省時(shí)間,優(yōu)化用戶在人工智能視域下的新聞閱讀體驗(yàn)。

二、新聞生產(chǎn)倫理在人工智能視域下面臨的困境

新聞倫理學(xué)的研究對象除新聞工作者的職業(yè)道德外,還應(yīng)包括新聞媒體的社會(huì)道德功能。無論是從社會(huì)和諧還是科技發(fā)展的角度,傳統(tǒng)媒體一直遵循的生產(chǎn)倫理價(jià)值,如真實(shí)性、客觀性、把關(guān)控制等,都在新媒體技術(shù)的沖擊下不斷地受到挑戰(zhàn)。

(一)新聞工作者面臨的職業(yè)道德挑戰(zhàn)1.人在技術(shù)裹挾下影響對新聞客觀性的認(rèn)識(shí)黃旦教授認(rèn)為“客觀性是指意識(shí)到新聞報(bào)道中的主觀”,從而要求事實(shí)和價(jià)值分開的一種專業(yè)信念和道德準(zhǔn)則。2019年兩會(huì)期間,國內(nèi)多家媒體都采用了時(shí)下流行的輕松、生活化的vlog報(bào)道形式。在傳統(tǒng)新聞人看來,這種在生產(chǎn)過程中模糊新聞和娛樂、事實(shí)和意見的邊界,無異于“國家和教堂間的界限”。隨著技術(shù)的不斷發(fā)展,算法成了大眾傳播中的“把關(guān)人”,控制著人類信息分發(fā)的權(quán)力,驅(qū)動(dòng)著媒介生態(tài)環(huán)境的重構(gòu)。這種信息生產(chǎn)、篩選與分發(fā)其實(shí)是一種有意識(shí)的信息“加工”行為。技術(shù)本身無好壞,但技術(shù)如何使用,算法按什么邏輯編寫,界面如何設(shè)計(jì)等,都受到政治經(jīng)濟(jì)和人類心理的影響。2.科技的發(fā)展加劇新聞反轉(zhuǎn),影響新聞?wù)鎸?shí)性真實(shí)是新聞的生命。近年來,“反轉(zhuǎn)新聞”大量進(jìn)入公眾視野。閭丘露薇認(rèn)為:“所謂的反轉(zhuǎn),只不過是公共輿論基于錯(cuò)誤或者并不足夠的信息而做出的價(jià)值判斷,之后被更多的事實(shí)所證明是錯(cuò)誤的而已?!薄胺崔D(zhuǎn)新聞”之所以出現(xiàn),是由于傳統(tǒng)媒體面臨著互聯(lián)網(wǎng)科技的沖擊而陷入經(jīng)濟(jì)運(yùn)營的困境,調(diào)查型記者的數(shù)量急劇銳減,越來越少的媒體機(jī)構(gòu)有充足的時(shí)間、資源投入深入的調(diào)查。同時(shí),在智能化算法的分發(fā)下,具有視覺沖擊力、語言夸張的報(bào)道得到更多的推薦,使得真相或有用的信息隱藏在眾多的聲音中,用戶更加難以把握事件的真實(shí)性。因此,信息不再是人們發(fā)現(xiàn)真相的幫手,而變成了認(rèn)識(shí)世界的障礙,當(dāng)用戶無法獲得優(yōu)質(zhì)的信息時(shí),再多的信息也失去了意義。3.人工智能視域下新聞生產(chǎn)權(quán)力主體的轉(zhuǎn)移法國思想家布萊茲•帕斯卡曾說,人的“主體性”指的是“與客體相對的主體所具有的特性,包括獨(dú)立性、個(gè)體性、能動(dòng)性以及占有和改變客體的能力”。但人工智能介入新聞生產(chǎn)與報(bào)道后會(huì)對部分職業(yè)新聞工作者帶來沖擊,擔(dān)心一旦新聞生產(chǎn)的權(quán)力從人類手中交給機(jī)器,人類為了追求幸??鞓窌?huì)放棄以人為中心的價(jià)值觀,秉承以數(shù)據(jù)為中心的世界觀,那么新聞生產(chǎn)者所謂的思想,即其引以為豪的創(chuàng)造天性也就逐漸逝去了,成了麻木的人、過時(shí)的人。但就目前來看,機(jī)器新聞取代的只是程序化、格式化的新聞報(bào)道,而這正是人的主體性得到釋放的一種方式和渠道。然而需要承認(rèn)的是,人工智能發(fā)展的腳步不會(huì)停止,只會(huì)被更巧妙地利用起來。在這種情況下,新聞生產(chǎn)者調(diào)和好工具理性與價(jià)值理性之間的沖突就顯得十分必要了。

(二)新聞媒體面臨的社會(huì)道德挑戰(zhàn)1.個(gè)性化的推薦導(dǎo)致信息繭房和政治極化現(xiàn)象2006年,美國學(xué)者桑斯坦提出了“信息繭房”的概念,指的是人們根據(jù)不同的興趣、價(jià)值觀、身份、經(jīng)歷形成不同的部落,通過增強(qiáng)部落內(nèi)部聯(lián)系獲得歸屬感。但由于每個(gè)人只接觸屬于自己的個(gè)人議程設(shè)置,就會(huì)出現(xiàn)和圈內(nèi)人交流加劇意見極化的現(xiàn)象,而對外交流則很難進(jìn)行溝通,從而使社會(huì)意見整合變得更加困難,公共生活更加難以協(xié)調(diào),整個(gè)輿論生態(tài)環(huán)境不斷惡化,有價(jià)值、有意義的信息難以得到有效的傳遞。如果說,過去我們評價(jià)一個(gè)新聞事件的影響力,看中的是它是否推動(dòng)了制度變革,那么現(xiàn)在的評價(jià)標(biāo)準(zhǔn)或許就變成造就了幾篇“10萬+”。尤其是社交媒體中的機(jī)器人,運(yùn)用算法,通過點(diǎn)贊、分享和搜索信息,將未經(jīng)過篩選的假新聞傳播力進(jìn)行數(shù)量級擴(kuò)大,導(dǎo)致受眾缺乏社會(huì)責(zé)任感,難以認(rèn)知自己所處的大環(huán)境,封閉于自我的想象中,使得極化現(xiàn)象在種族、宗教分裂原本就十分劇烈的發(fā)展中國家顯得更加突出。尤其是對那些基礎(chǔ)機(jī)構(gòu)薄弱的國家來說,虛擬世界的憤怒激發(fā)的是現(xiàn)實(shí)世界中的暴力。而在經(jīng)濟(jì)結(jié)構(gòu)穩(wěn)定的國家,新聞生產(chǎn)的低門檻和低成本也使得假新聞泛濫,選民的自由意志被操縱,政治站位被重新定義。這一切都是技術(shù)缺陷在流量驅(qū)動(dòng)商業(yè)模式下所帶來的結(jié)果。2.社會(huì)資本的推動(dòng)加劇了算法歧視和社會(huì)偏見技術(shù)和社會(huì)之間的關(guān)系是雙向互動(dòng)的。一種技術(shù)如何被使用、產(chǎn)生了怎樣的效果,固然和技術(shù)本身的特性有關(guān),但也會(huì)受到政治經(jīng)濟(jì)社會(huì)整體環(huán)境的影響。薩菲婭•諾布爾提到,Google搜索引擎的返回結(jié)果及其排序主要受到PageRank算法的影響,它會(huì)根據(jù)一個(gè)頁面的超鏈接被其他頁面引用的數(shù)量來決定搜索結(jié)果的排序。其背后的邏輯可以稱為“引用多的即是好的或重要的”,這是一種價(jià)值判斷,也是一種利益交換,遵循和延續(xù)了社會(huì)上的主流看法,但如果主流看法本身是帶有偏見的,那么算法將延續(xù)這種偏見。這說明了算法并不是中立客觀的,歧視就在眼前,但是披著中立的外衣,對社會(huì)上的邊緣群體產(chǎn)生系統(tǒng)性的壓迫。算法既可能復(fù)制主流社會(huì)對邊緣群體的偏見,也可能受到商業(yè)資本的影響,將信息和知識(shí)商品化,從而加劇社會(huì)的不平等。3.人工智能擴(kuò)大對數(shù)據(jù)的使用和隱私的侵犯信息社會(huì)的發(fā)展使得各國對隱私權(quán)保護(hù)的重心再一次發(fā)生了轉(zhuǎn)移,促成這種變化的原因在于政府和商業(yè)組織搜集了太多受眾自己都不知道的信息。因此,人工智能時(shí)代,我們每個(gè)人都生活在數(shù)據(jù)與算法中,無時(shí)無刻不在被“記錄”和“監(jiān)控”著。就像福柯所說的“全景監(jiān)獄”,受眾就是其中的一個(gè)個(gè)“囚犯”,而作為“獄卒”的媒體集團(tuán)投其所好地向受眾推送新聞,受眾在享受人工智能帶來的便利服務(wù)的同時(shí),也會(huì)對自我控制權(quán)的喪失、個(gè)人信息的使用以及隱私的侵犯感到深深的憂慮。2019年1月,騰訊對各年齡層用戶特征進(jìn)行畫像分析的大數(shù)據(jù)報(bào)告被網(wǎng)友質(zhì)疑:微信“監(jiān)控”了聊天數(shù)據(jù)。這不是社交媒體第一次遇到類似的質(zhì)疑。即使騰訊聲稱所有數(shù)據(jù)均已進(jìn)行匿名及脫敏處理,不涉及具體用戶的隱私內(nèi)容,但并不能完全消除公眾的疑慮。當(dāng)憂慮隱私近乎成為生活的一種常態(tài),我們不禁要思考這樣一個(gè)問題:我們到底是如何被技術(shù)力量裹挾著走到今天這一步的?又是在何時(shí),我們開始認(rèn)為體驗(yàn)了就要記錄,記錄了就要上傳,上傳了就要分享的這種行為模式再正常不過?

三、新聞生產(chǎn)倫理在人工智能視域下的發(fā)展策略

(一)從個(gè)人層面規(guī)范新聞生產(chǎn)倫理智能手機(jī)的迅速普及使新聞制作的門檻和成本降低,傳統(tǒng)的新聞傳播模式被打破,我們已來到一個(gè)人人均可發(fā)聲的“去中心化”時(shí)代。作為人工智能時(shí)代的信息傳播者,我們不僅要提高自我的媒介工具使用素養(yǎng),還應(yīng)不斷加強(qiáng)在海量信息中篩選出有用信息的鑒別能力,從源頭上降低新聞受失真、虛假信息誤導(dǎo)的可能性。同時(shí),在傳受角色功能定位不斷消弭的今天,提高傳播者的媒介素養(yǎng),使其擁有多元化的信息獲取渠道、獨(dú)立自主的思想意識(shí)和道德水平,給冰冷的算法和數(shù)據(jù)注入“溫度”和人文關(guān)懷,不僅可以抵御經(jīng)濟(jì)快速發(fā)展帶來的社會(huì)問題,也是凈化輿論生態(tài)環(huán)境的需要。只有這樣,人工智能時(shí)代的傳媒業(yè)才能走得更遠(yuǎn)。此外,在智能信息時(shí)代,科學(xué)家、工程師不僅人數(shù)眾多,而且參與社會(huì)重大決策和治理,他們的行為會(huì)對他人、社會(huì)帶來比其他人更大的影響。他們在參與新聞生產(chǎn)的過程中通過合理的結(jié)構(gòu)代碼決定什么被看見,什么被隱藏,直接影響著新聞生產(chǎn)倫理。利用技術(shù)能做好事,也能做壞事,關(guān)鍵是被誰使用,如何使用。那么,要研究媒體技術(shù)在新聞生產(chǎn)倫理中的應(yīng)用就不能忽視對開發(fā)應(yīng)用這一技術(shù)的科技工作者的倫理道德規(guī)范。

(二)從組織層面規(guī)范新聞生產(chǎn)倫理與其他完全市場化的商品不同,媒體機(jī)構(gòu)的公信力一方面承擔(dān)著自身的發(fā)展前景,另一方面也關(guān)乎著國家社會(huì)的安全穩(wěn)定。在人工智能背景下,新時(shí)代的媒體機(jī)構(gòu)具有大眾性和多元性等特征,覆蓋的內(nèi)容更加廣泛,大多是靠廣告獲取收入,部分是通過付費(fèi)訂閱,且不同媒體機(jī)構(gòu)間的競爭愈發(fā)激烈。但受眾情愿買單的背后是對媒介機(jī)構(gòu)的信任,一旦媒介機(jī)構(gòu)肆無忌憚地利用受眾的信任去欺騙受眾,不遵守基本的媒介倫理,終會(huì)遭到受眾的拋棄。因此,媒體機(jī)構(gòu)要保證新聞的真實(shí)性、客觀性,不斷強(qiáng)化媒體機(jī)構(gòu)履行社會(huì)責(zé)任的方式,推動(dòng)社會(huì)的進(jìn)步。在本質(zhì)上,企業(yè)的社會(huì)責(zé)任和商業(yè)利益是一致的。當(dāng)企業(yè)成長得足夠強(qiáng)大時(shí),“外部性”就會(huì)被內(nèi)化。一個(gè)假新聞和低俗信息泛濫、全民娛樂至上、戾氣十足的社會(huì),不會(huì)為互聯(lián)網(wǎng)的健康發(fā)展提供適合的土壤,所以要追究新聞平臺(tái)的主體責(zé)任。平臺(tái)在享受著杠桿規(guī)模效應(yīng)的同時(shí),更應(yīng)該用高于法律和行業(yè)的標(biāo)準(zhǔn)來要求自己。另一方面,對于技術(shù)導(dǎo)致的部分問題,平臺(tái)也可以通過技術(shù)的發(fā)展來解決。目前,“區(qū)塊鏈+媒體”肩負(fù)著媒體人的夙愿,雖然這種模式對現(xiàn)有媒體生態(tài)的改變十分有限。但從“效率”轉(zhuǎn)向“價(jià)值”,單一的技術(shù)思維轉(zhuǎn)向立體的社會(huì)思維、公共思維來看,這是平臺(tái)型產(chǎn)品發(fā)展壯大過程中的必經(jīng)之路,也是以后互聯(lián)網(wǎng)產(chǎn)業(yè)的重要?jiǎng)酉颉?/p>

(三)從社會(huì)層面規(guī)范新聞生產(chǎn)倫理在技術(shù)迭展的情況下,與新出現(xiàn)的人工智能相關(guān)的法律制定,在缺乏有價(jià)值的參照系下,很多方面的實(shí)施往往落后于新技術(shù)、新實(shí)踐的發(fā)展。因此,我國于2017年開始實(shí)行的《網(wǎng)絡(luò)安全法》對網(wǎng)絡(luò)運(yùn)營者在搜集用戶信息、個(gè)人信息方面做出了規(guī)定,并對不當(dāng)運(yùn)用用戶信息的行為給出了明確的處罰條例。人工智能媒體時(shí)代條件下,我們必須本著維護(hù)和發(fā)展的原則來實(shí)現(xiàn)人工智能的法律體系,慎重處理人工智能技術(shù)給社會(huì)帶來的貢獻(xiàn),客觀地看待它的價(jià)值和潛在的風(fēng)險(xiǎn),盡快完善法律法規(guī),適應(yīng)新的媒體環(huán)境,特別是在人工智能技術(shù)無所不能的情況下,更要強(qiáng)調(diào)其價(jià)值理性,規(guī)范其行為,慎用公眾數(shù)據(jù),保護(hù)公眾隱私,營造一個(gè)良好的新聞生態(tài)環(huán)境。

四、結(jié)語

人工智能與新聞傳媒業(yè)的融合越來越成為行業(yè)人討論的焦點(diǎn)。人工智能技術(shù)在改變著新聞信息生產(chǎn)、傳播方式的同時(shí),也要求著原有的新聞生產(chǎn)倫理做出調(diào)整,以適應(yīng)科技的發(fā)展。除此之外,人工智能導(dǎo)致的在新聞生產(chǎn)領(lǐng)域產(chǎn)生的倫理問題,不是技術(shù)的失敗,而是科學(xué)發(fā)展與我們對自身及他人在新聞生產(chǎn)過程中產(chǎn)生的倫理之間的深層聯(lián)系。因此,探究人工智能在新聞生產(chǎn)倫理領(lǐng)域的發(fā)展及其帶來的問題,不僅能夠拓展新聞生產(chǎn)倫理與技術(shù)的研究視野,更有助于指導(dǎo)人工智能在未來不斷變革的新聞實(shí)踐。

參考文獻(xiàn):

1.張志強(qiáng).新聞算法推送對“信息繭房”的構(gòu)建探究[J].新媒體研究,2018(14):24-25.

2.趙瑜.人工智能時(shí)代的新聞倫理:行動(dòng)與治理[J].學(xué)術(shù)前沿,2018(24):6-15.

3.許向東.關(guān)于人工智能時(shí)代新聞倫理與法規(guī)的思考[J].學(xué)術(shù)前沿,2018(12):60-66.

4.申琦.數(shù)據(jù)新聞報(bào)道的倫理困境與出路[J].青年記者,2018(28):16-17.

作者:劉樂樂 單位:鄭州大學(xué)新聞與傳播學(xué)院

相關(guān)熱門標(biāo)簽