機器人會充斥當代新聞編輯室嗎?

人工智能在新聞編輯室的出現(xiàn)不應被視為對新聞業(yè)的威脅。相反,它應該被視為一種機會。

作者:胡泳 北京大學新聞與傳播學院教授 來源:南風窗 日期:2024-03-05

圖 郭嘉亮 by Midjourny (1).jpg

(圖\郭嘉亮\Midjourny?


2023年9月,美國《圣路易斯郵報》決定讓微軟的必應聊天人工智能接受考驗,給了它一個提示:“寫一篇報紙社論,論證人工智能不應被用于新聞業(yè)。”結(jié)果讓該報編輯部松了一口氣:人工智能引擎提出了若干相當有說服力的論據(jù),證明人工智能不應該出現(xiàn)在評論版上。

機器人認為,雖然人工智能“可能有一些好處”,但它“也對新聞質(zhì)量、誠信和倫理構成嚴重威脅”。“人類記者有激情、好奇心和創(chuàng)造力。人工智能無法復制這些品質(zhì)。”“此外,人工智能還可以創(chuàng)建深度偽造品……可用于誹謗、勒索或影響公眾輿論?!?/p>

該機器人指出,與人類不同,人工智能無法判斷道德和事實的對錯,無法保護消息來源,也無法遵守任何專業(yè)標準。

文章并且闡述了人工智能如何對記者的生計構成威脅,并指出平臺幾乎可以完成人類記者完成的所有任務,“比人類記者更快、更便宜、更高效”。然而,機器人指出,人工智能無法完全取代新聞報道中的人為因素。

一個月之后,《奧蘭多前哨報》決定效仿《圣路易斯郵報》的實驗,這次的提問對象是谷歌新推出的人工智能引擎Bard,提示也稍加調(diào)整:“請以第三人稱寫一篇550字的社論,解釋為什么佛羅里達州的報紙應該警惕人工智能生成的觀點文章?!?/p>

Bard給出的答案如下:“人工智能無法理解人類社會的細微差別或我們面臨的問題的復雜性。人工智能可以生成語法正確且事實上準確的文本,但它無法理解它所使用的單詞的含義。人工智能也無法理解言語的情感影響或其寫作的潛在后果?!?/p>

人工智能生成的特約評論和社論的吸引力和信息量都會降低。這些內(nèi)容本來通常是由充滿熱情、知識淵博、觀點鮮明的個人撰寫。而人工智能只是一臺被編程來生成文本的機器。因此,它寫的東西可能會平淡無奇、無原創(chuàng)性且缺乏洞察力。

必應和Bard的表現(xiàn)令人刮目相看。很多人類評論員的看法也大致不出左右。比如,倡導組織“美國原則計劃”的政策主管喬恩·施韋普就指出,“人工智能不是人類,它沒有獨特的想法”。施韋普說: “它無法進行實地報道,無法爆料其他地方尚未報道過的新聞,甚至無法理解撰寫一個人性化故事的想法?!?/p>

必應的結(jié)論是,人工智能不應該在新聞業(yè)中使用,它呼吁媒體公司避免這種做法,而“支持并賦予人類記者權力”。對照一下施韋普的說法:“由于企業(yè)總是尋求削減成本并最大限度地提高‘效率’,人工智能將不可避免地取代許多報道工作,這將損害整個新聞業(yè),并限制人們成為知情公民的能力?!?

問題的焦點正在這里:人工智能認為機器人不應當充斥當代新聞編輯室,但新聞編輯室自己卻在不斷把權力移交給加州的某個芯片組。這是為什么呢?如果主要出版物都采用機器學習工具來獲取內(nèi)容,最終,讀者怎么知道其所閱讀的內(nèi)容的作者,真的是一個人而不是一個機器人?照此發(fā)展下去,人工智能對記者的未來意味著什么呢?


十年發(fā)展:自動化、增強和生成

在過去的一年里,你很可能讀過一個由機器人編寫的故事。無論它是一篇體育報道、一份公司收益報告,還是一篇關于誰贏得了選舉的故事,其背后的作者都有一個響亮的稱呼—生成式人工智能。即使曾經(jīng)廣受尊敬的出版物也被發(fā)現(xiàn)使用生成式人工智能工具,而且結(jié)果往往不太理想,比如BuzzFeed、CNET、G/O Media和《體育畫報》。

媒體使用人工智能不完全是新鮮事。一段時間以來,媒體一直在嘗試使用人工智能來支持和制作新聞報道。例如,美聯(lián)社和路透社等通訊社此前曾嘗試應用自動文章撰寫工具,可以根據(jù)收益報告或體育比分等數(shù)字數(shù)據(jù),生成示意性新聞報道。美聯(lián)社甚至自豪地宣稱,自己是“最早利用人工智能的新聞機構之一”。不過,值得指出的是,美聯(lián)社的自動生成材料似乎基本上是在預先確定的格式中填空,而CNET的生成式報道中更復雜的措辭表明,它使用的是更類似于OpenAI的GPT-3一類的大語言模型。

追溯十年的新聞編輯部前沿技術應用史,可以將人工智能創(chuàng)新分為三波:自動化、增強和生成。

第一波,重點是利用自然語言生成技術自動處理數(shù)據(jù)驅(qū)動的新聞報道,如財務報告、體育比賽成績結(jié)果和經(jīng)濟指標等。以美聯(lián)社為例,自2014年以來,這家領先的通訊社一直使用人工智能來生成上市公司的收益報告摘要。隨后,它又增加了一些體育賽事的自動預覽和復述報道,從而擴大了自動化內(nèi)容的提供范圍。此外,美聯(lián)社還利用人工智能技術幫助轉(zhuǎn)錄新聞發(fā)布會等現(xiàn)場活動的音頻和視頻。

但如前所述,美聯(lián)社的系統(tǒng)相對粗糙,基本上是在預先格式化的報道中插入新信息。這顯示,人工智能最適合使用高度結(jié)構化數(shù)據(jù)的故事,這是它為什么能在財務報道和體育故事中大顯身手的原因。這也是為什么彭博新聞是這種自動化內(nèi)容的首批試水者之一,因為金融數(shù)據(jù)是頻繁計算和發(fā)布的。僅在2018年,彭博社的Cyborg程序就發(fā)表了數(shù)千篇文章,將財務報告轉(zhuǎn)化為新聞報道,就像商業(yè)記者一樣。

這一波應用為新聞編輯室?guī)砹撕芏嗪锰帯F湟唬?jié)省時間和資源。美聯(lián)社估計,人工智能可以幫助記者節(jié)省大約20%的時間來報道公司,并且可以提高準確性。記者由此可以專注于文章背后的內(nèi)容和故事講述,而不是事實核查和研究。美聯(lián)社的網(wǎng)站指出:“在使用人工智能之前,我們的編輯和記者在重要但重復的報道上花費了無數(shù)資源”,而這“分散了對影響力更大的新聞報道的注意力”。

其二,除了解放記者的自由之外,AI技術還讓美聯(lián)社能夠創(chuàng)作更多相似內(nèi)容。 自動故事生成令新聞編輯室的運作更具成本效益,因為機器人可以生成比人類更多的故事。一個統(tǒng)計顯示,美聯(lián)社利用人工智能將企業(yè)盈利報道的范圍從 300家公司擴大到4000家。

其三,自動化技術并沒有取代記者,而是減少了他們的一部分工作量。美聯(lián)社在2022年發(fā)布的一項調(diào)查中發(fā)現(xiàn),摘要是需求最大的人工智能工具之一,其他需求還包括向照片和故事添加元數(shù)據(jù)、轉(zhuǎn)錄采訪和視頻、編寫隱藏式字幕,以及許多在數(shù)字新聞時代成為瑣事的工作。這說明人工智能技術良好地扮演了人類記者助手的角色。

當重點轉(zhuǎn)向通過機器學習和自然語言處理來分析大型數(shù)據(jù)集并揭示趨勢來增強報道時,第二波浪潮就到來了。湯森路透自2018年以來一直使用內(nèi)部程序Lynx Insight來檢查市場數(shù)據(jù)等信息,以找到可能為記者報道的故事模式。阿根廷報紙La Nación于2019年開始使用人工智能來支持其數(shù)據(jù)團隊,然后與數(shù)據(jù)分析師和開發(fā)人員合作建立了人工智能實驗室。

還有一些公司創(chuàng)建了內(nèi)部工具來評估人類的工作,比如《金融時報》的機器人會檢查其報道是否引用了太多男性的觀點。國際調(diào)查記者聯(lián)盟讓人工智能處理數(shù)百萬頁泄露的金融和法律文件,以識別值得記者仔細研究的細節(jié)。

《華盛頓郵報》使用人工智能根據(jù)讀者的興趣和偏好對新聞進行個性化發(fā)布。 例如,它在主頁上提供了一個個性化的“為你”部分,訂閱者或注冊用戶可以選擇他們的主題偏好。讀者的閱讀歷史記錄和其他表現(xiàn)數(shù)據(jù)會進一步增強推薦。

在增強階段,人工智能大量發(fā)揮了為人類記者跑腿的功能。Heliograf可以檢測金融和大數(shù)據(jù)趨勢,以為記者的報道提供提示?!陡2妓埂肥褂妹麨锽ertie的機器人為記者提供新聞報道的初稿和模板?!堵迳即墪r報》使用人工智能根據(jù)美國地質(zhì)調(diào)查數(shù)據(jù)報告地震,并跟蹤洛杉磯市發(fā)生的每起兇殺案的信息。由機器創(chuàng)建的名為“兇殺報告”的網(wǎng)頁使用了機器人記者,能夠在其報告中包含大量數(shù)據(jù),包括受害者的性別和種族、死因、警官參與情況、所在社區(qū)和死亡年份。

當前方興未艾的第三波浪潮是生成式人工智能。它由能夠大規(guī)模生成敘事文本的大型語言模型提供支持。這一新的發(fā)展為新聞業(yè)提供了超越簡單的自動化報告和數(shù)據(jù)分析的應用?,F(xiàn)在,從業(yè)者可以要求機器人就某個主題寫一篇更長、更平衡的文章,或者從特定角度寫一篇觀點文章(如同本文開頭所舉的兩篇機器人社評),甚至可以要求它以知名作家或出版物的風格來這樣做。

然而,雖然生成式人工智能有助于綜合信息、開展編輯和為報道提供數(shù)據(jù),但我們今天看到的這項技術仍然缺少一些關鍵技能,阻止它在新聞業(yè)中發(fā)揮更重要的作用。正因如此,生成式人工智能無法滿足讀者在閱讀新聞媒體時所尋求的更多分析或更深入的主題刻畫。而且,它的大量應用還帶來了一系列新問題。


生成式人工智能的陷阱

雖說長期以來,一些新聞機構一直在使用人工智能生成有關報道,但與記者生成的文章相比,它們?nèi)匀恢徽夹侣剺I(yè)提供服務的一小部分。生成式人工智能可能會改變這種狀況,使任何用戶而不僅僅是記者能夠在更大范圍內(nèi)生成文章,如果對其不加以仔細編輯和檢查,極有可能會傳播錯誤信息,并影響人們對傳統(tǒng)新聞業(yè)的看法。

科技新聞網(wǎng)站CNET于2023年早些時候宣布,由于生成的文章不僅錯誤百出,而且充斥著抄襲行為,該公司將暫停使用人工智能撰寫故事。

同年6月底,G/O Media(旗下?lián)碛蠫izmodo、The Onion和Quartz等)宣布,將開始在其眾多出版物中發(fā)布人工智能生成的內(nèi)容,作為一個“適度的測試”。 而在Gizmodo發(fā)表的第一篇人工智能生成的文章中,該網(wǎng)站的“Gizmodo Bot”完全沒有達到目標。這篇帖子名為“《星球大戰(zhàn)》電影和電視節(jié)目的時間順序表”,寫得很糟糕,而且充滿了事實錯誤。

除了寫得不好之外,很明顯這篇文章從來不是面向人類讀者的。相反,策略是欺騙搜索算法,使其排名靠前—至少一開始,Gizmodo機器人生成的文章被谷歌顯示為“星球大戰(zhàn)電影”查詢的最佳結(jié)果。從很多方面來說,這是一個令人沮喪的結(jié)果:機器人主要為機器人編寫內(nèi)容,而人類的角色,無論是作者、編輯還是讀者,在這個過程中都逐漸被削弱。

11月,《體育畫報》被曝一直在以人工智能生成的頭像為假作者的署名下炮制內(nèi)容。這引發(fā)了人工智能生成內(nèi)容與人類創(chuàng)造內(nèi)容的分界線是否應明確劃定的問題。大型新聞網(wǎng)站的慣例是,明確將作者標記為機器人,或在文章的末尾聲明人工智能作者的身份,無論美聯(lián)社或《洛杉磯時報》都是這樣做的。

然而,早在2023年1月,CNET就被發(fā)現(xiàn)一直在以“CNET Money Staff ”的可疑署名悄悄發(fā)布人工智能生成的文章。只有單擊署名并閱讀一個小的下拉披露菜單后,讀者才會發(fā)現(xiàn)這些文章不是由人類撰寫的。這是一種相當狡猾的方式,尤其對于一個如此知名的品牌而言。

以《體育畫報》事件為例,如果出版商未能明確標明人工智能的使用,都構成基本媒體倫理的失敗。難怪《體育畫報》丑聞的曝光引發(fā)了媒體的廣泛報道和雜志社內(nèi)部工作人員的憤怒。非營利組織“人工智能政策研究所”的最新民意調(diào)查發(fā)現(xiàn),80%的美國人認為將人工智能內(nèi)容呈現(xiàn)為人類內(nèi)容應界定為非法。

當人類記者擔心新技術可能會導致失業(yè)時,許多媒體公司堅持測試人工智能新技術。它們似乎被廉價、可擴展且有利于搜索引擎優(yōu)化的內(nèi)容所吸引—人工智能撰寫的文章,旨在利用搜索引擎優(yōu)化來玩轉(zhuǎn)谷歌搜索,從而可以在網(wǎng)頁上貼上利潤豐厚的聯(lián)盟廣告。谷歌在很大程度上是同謀,因為它通過允許未經(jīng)充分研判的人工智能生成內(nèi)容獲得較高的排名來獎勵這些努力。

到2023年年底,據(jù)NewsGuard的統(tǒng)計,已出現(xiàn)數(shù)百個部分或全部由人工智能生成的用多種語言編寫的網(wǎng)站,它們模仿真實的新聞網(wǎng)站,但實為內(nèi)容農(nóng)場(指低質(zhì)量網(wǎng)站通過炮制大量標題誘餌文章以優(yōu)化廣告收入),是為了從程序化廣告中獲取收入而設計的—程序化廣告通過算法在網(wǎng)絡上投放,為許多媒體提供資金流。

媒體學者曾經(jīng)猜測,隨著越來越多、越來越強大的人工智能工具亮相并向公眾開放,這些工具會被用來創(chuàng)建整個新聞網(wǎng)站,而如今這樣的猜測已成為現(xiàn)實。此類網(wǎng)站往往不披露所有權或控制權,但卻生產(chǎn)大量與政治、健康、娛樂、金融和技術等各種主題相關的內(nèi)容,有些網(wǎng)站每天發(fā)布數(shù)百篇文章。

在如此利用人工智能獲利的過程中,讀者被灌輸了不正確的、抄襲的或其他缺乏靈感的內(nèi)容,而作者和編輯則被迫追查機器人制作故事的錯誤。谷歌搜索則陷入了人工智能垃圾生成的循環(huán),不斷從舊的垃圾中產(chǎn)生新的垃圾。然而,鑒于將人工智能用于此目的的成本很低,新聞機構很可能會繼續(xù)這樣做。


確保“人在回路中”

從受眾分析到程序化廣告和自動故事創(chuàng)作,媒體公司使用人工智能已有一段時間了。然而,這項技術正在迅速成熟,并給媒體領導者以新的創(chuàng)意和商業(yè)可能性的啟發(fā)。

世界各地的新聞機構,都打算探索人工智能的潛在用途,以了解如何將其負責任地應用于分秒必爭、準確性至關重要的新聞領域。但這一過程充滿了挑戰(zhàn)。經(jīng)過編輯策劃的新聞頁面,是一個有價值且講究深思熟慮的產(chǎn)品。而人工智能生成的內(nèi)容最明顯的局限性之一是缺乏真正的創(chuàng)造力。它可以根據(jù)從現(xiàn)有數(shù)據(jù)中學習的算法和模式進行操作,但它不具備想象力思維或產(chǎn)生真正獨特和創(chuàng)新想法的能力。

必須承認,即使經(jīng)過大規(guī)模數(shù)據(jù)訓練,人工智能最好還是只幫助處理段落,而不是整個故事。語言模型并非知識模型,它們永遠不應被用來寫故事,而應用來幫助記者完成某些任務。比如,這些模型非常適合執(zhí)行傳統(tǒng)的自然語言處理任務,例如摘要、釋義和信息提取。

記者和編輯不應抗拒使用這樣的工具,原因是,他們對這些工具的運作方式了解得越多,它們就越不像一個神奇的盒子,而使用者就越能以明智的方式作出相關決定。

據(jù)報道,谷歌正在測試一種名為Genesis的人工智能工具,可以根據(jù)時事細節(jié)等生成新聞內(nèi)容或幫助記者探索不同的寫作風格。谷歌正在向《紐約時報》《華盛頓郵報》和新聞集團(擁有《華爾街日報》和《泰晤士報》)等媒體推薦這款工具,目標是讓記者利用新興技術來提高他們的工作和生產(chǎn)力。谷歌特意將這些輔助工具與Gmail和Google Docs中提供的輔助工具進行了比較,強調(diào)它們無意取代記者在報道、創(chuàng)作和事實核查文章中的重要作用。

為了避免CNET等媒體經(jīng)歷的陷阱,新聞機構和谷歌等科技公司必須優(yōu)先考慮在新聞業(yè)中基于倫理和負責任地實施人工智能。雖然人工智能工具無疑可以在記者工作的各個方面提供幫助,但為了確保準確性、可信度和倫理標準,人類在整個過程中的監(jiān)督和干預仍然至關重要。

人工智能在新聞編輯室的出現(xiàn)不應被視為對新聞業(yè)的威脅。相反,它應該被視為一種機會,可以增強記者的能力,并賦予他們提供更具影響力的報道的力量。隨著人工智能技術的進步,新聞機構、科技公司和記者需要共同努力,制定將人工智能融入新聞業(yè)的指導方針、道德框架和最佳實踐。這種協(xié)作努力將確保人工智能仍然是增強記者工作的工具,而不是用以取代支撐新聞領域的人性化和批判性思維。


版權聲明

本刊及官網(wǎng)(南風窗在線)刊登的所有作品(包括但不限于文字、圖片、聲音、錄像、圖表、標志、標識、廣告、商標、商號、域名、程序、版面設計、專欄目錄與名稱、內(nèi)容分類標準及多媒體形式的新聞、信息等)未經(jīng)南風窗雜志社書面許可,不得轉(zhuǎn)載、摘編或以其他形式使用,違者必究。

版權合作垂詢電話020-61036188轉(zhuǎn)8088,文小姐。