成人做爰黄A片免费看陈冠希,玩弄人妻aa性色少妇,闺蜜在寝室用sm调教我,电影巜公交车的激情hd女同,局长吃我奶头舒服的很

每日經濟新聞
頭條

每經網首頁 > 頭條 > 正文

“DeepSeek向王一博道歉”揭示AI污染產業鏈:“內容農場”大批量生產信息垃圾,1.38萬元就能買通大模型推薦

2025-07-04 21:04:41

“DeepSeek就(jiu)關(guan)聯不(bu)實(shi)信息向(xiang)王一博(bo)道歉”的謠言事件,揭示了(le)AI大(da)模(mo)型在信息海(hai)洋中被污染(ran)的嚴重問題。同(tong)時,“內容(rong)農場”利用AI批量生產虛假信息污染(ran)網(wang)絡環境,有(you)商家甚至提供AI推(tui)薦優(you)化服務,加(jia)速(su)了(le)污染(ran)進(jin)程。專家建議開發事實(shi)核查工(gong)具、建立雙審核機制,并提醒用戶不(bu)應過度信賴AI,需保持獨立判斷能力。

  每(mei)經(jing)記(ji)者|岳楚鵬  宋欣悅    每(mei)經(jing)編輯|高涵 蘭素(su)英    

“DeepSeek就關聯(lian)不實信(xin)息向王一博道歉”。

近日(ri),這(zhe)則一度被部(bu)分媒體以“演員王一博案(an),判了”為題熱(re)炒的消息,最(zui)終被證(zheng)實(shi),只是一場由(you)人(ren)工(gong)智能親手制造的幻覺(jue)。

當《每日經(jing)濟(ji)新聞》記者(以下簡稱(cheng)每經(jing)記者)查閱DeepSeek所有官方渠道(包括其公(gong)眾號、官網(wang)及X賬號)時,卻發現這(zhe)份所謂的(de)“道歉聲明(ming)”無跡可尋。然而(er),當用(yong)戶(hu)拿著(zhu)這(zhe)份網(wang)傳的(de)“聲明(ming)”去“求證(zheng)(zheng)”于其他主(zhu)流AI大模型時,多數竟給出了“確(que)認”的(de)回應,甚(shen)至(zhi)引用(yong)了同樣未經(jing)證(zheng)(zheng)實的(de)網(wang)絡報道作為“證(zheng)(zheng)據”。

于是,一個堪稱完美的AI謠言循環就此形成:AI生成虛假新聞 -> 虛假新聞在網絡空間發酵 -> AI從被污染的網絡環境中學習并“確信”了這則假新聞 -> AI繼續以更權威的口吻,向更多用戶傳播這則假新聞

這場令人啼笑皆非(fei)的(de)烏龍(long)事件(jian),揭(jie)示了AI大模型在信(xin)(xin)息海洋中“被污染”的(de)冰山(shan)一角。在我(wo)們(men)看不見的(de)地方,“內容(rong)農場”正利用AI批量生(sheng)產(chan)著的(de)“信(xin)(xin)息垃圾(ji)”;甚至有人只需花費1.38萬元,就能輕易買通AI的(de)“推(tui)薦位(wei)”,使其淪(lun)為精準的(de)營銷工具(ju)。當AI開(kai)始生(sheng)產(chan)、相信(xin)(xin)并(bing)傳播虛假信(xin)(xin)息時,我(wo)們(men)該(gai)如何避(bi)免(mian)被其誤導(dao),并(bing)捍衛(wei)信(xin)(xin)息世界的(de)真實性?

圖片來源:視覺中國

一則AI謠言的誕生與閉環

王一博的“被(bei)道歉”事件,堪稱一個AI信息污染的標(biao)準樣本。

事件的起點源于李愛慶(qing)案(an)一(yi)審宣判后,網(wang)絡上關于王(wang)一(yi)博(bo)的一(yi)些陳年(nian)謠言再次被(bei)提起。有粉絲利用DeepSeek,生成了一(yi)份虛構的“道歉(qian)聲明”,其內容為“DeepSeek因關聯不實信息向王(wang)一(yi)博(bo)致歉(qian)”。

7月(yue)3日,有媒體在未(wei)對DeepSeek官方渠道進行核實的情(qing)況下,僅憑(ping)社(she)交平臺上(shang)的相(xiang)關截(jie)圖,便發布了題為“DeepSeek向王(wang)一博道歉(qian)”的報道。這使得原本(ben)的虛假信息,在一定程(cheng)度上(shang)獲得了“權(quan)威(wei)背書”。同日,當有用戶在DeepSeek中查詢“DeepSeek是否向王(wang)一博道歉(qian)”時,大模型因(yin)抓取到了這些媒體報道和網絡上(shang)的大量用戶討論,從而錯誤地(di)判定該信息為真。

至此,“虛假信息→媒體(ti)傳(chuan)播→AI學習(xi)→二次擴散”的完整閉環正式形(xing)成(cheng)。

復旦大學計算機學院副教授、博士生導師鄭驍慶對每經記者解釋了這一現象背后的技術原因:“AI大模型是基于統計學概率來生成文本的,它會依據上文來預測下一個最可能出現的詞語。這種機制在一定程度上導致了AI大模型缺乏對客觀事實的真正理解。因此,大模型很容易產生與真實情況不符的信息。”

鄭驍(xiao)慶進一步說道(dao):“只要提(ti)前(qian)向(xiang)AI大(da)模型設定好(hao)意(yi)圖,它便能依據當下(xia)的(de)熱(re)點事件信息(xi),迅速(su)生成虛(xu)(xu)假的(de)‘小作文’。另外,模型還具備角色扮演的(de)能力,能夠模仿(fang)社(she)會中各類人群的(de)口吻和方式來表達觀點。當這類虛(xu)(xu)假信息(xi)通過(guo)多種渠道(dao)同步傳播時,將可能引(yin)發不容忽視的(de)安全隱患(huan)。”

值得注意的是,當“DeepSeek道歉(qian)”的假新聞被(bei)揭穿后,一些大模(mo)型又迅速調整了它們的回(hui)答,展現(xian)了其學習(xi)和(he)糾錯的能力,但也反襯出(chu)其信息判斷機(ji)制(zhi)的脆(cui)弱性。

圖(tu)片來(lai)源:DeepSeek-V3

“內容農場”:0.01美元/篇批量生產“信息垃圾”

“DeepSeek向王一博道歉”的烏龍事件,只是AI陷入“污染鏈”的冰山一角。在更廣泛的范圍內,AI大模型正被用于批量生產“信息垃圾”

“內容農場”,這一互聯網的(de)古老灰色產(chan)業,正(zheng)借(jie)助AI大(da)模型的(de)強(qiang)大(da)生(sheng)產(chan)力卷土重來(lai)。它通常指那些為(wei)了牟取(qu)廣告費等商業利益,或出于其(qi)他特殊(shu)目的(de),通過(guo)快速、批量(liang)生(sheng)產(chan)網絡文(wen)章來(lai)吸引流量(liang)的(de)網站。

根據美國廣告商聯盟在2023年11月發布的一份報告顯示,“內容農場”預計占到了2023年美國網絡廣告總展示量的約21%,以及廣告費用的15%(總額約5億美元)。從2023年4月至今,媒體研究機構News Guard已經識別出了1254個疑似“內容農場”的網站,并且這個數字還在不斷增加。全球有近140家著名企業在這些網站上投放了廣告

圖片來源:News Guard

這些(xie)(xie)網站上(shang)發(fa)布的(de)文(wen)章,大部分或全部都是(shi)由AI炮制的(de),內容(rong)涉(she)及政(zheng)治、科技、娛樂(le)和旅(lv)游等多個(ge)領域。這些(xie)(xie)文(wen)章往往含有(you)虛假信息,包(bao)括有(you)關(guan)名人的(de)不實消息、憑(ping)空捏造的(de)事件,或是(shi)將(jiang)一些(xie)(xie)陳(chen)年舊事包(bao)裝(zhuang)成新(xin)近發(fa)生的(de)熱點(dian)。

每經記者通過實測發現,使用AI生成一篇“內容農場式”的文章,成本可能僅需0.01美元。而根(gen)據(ju)谷歌的(de)廣告數據(ju),一個來自美國的(de)IP地址每(mei)訪問一次網站,就(jiu)有可能(neng)給網站所有者(zhe)帶來0.11美元的(de)廣告收(shou)入。

這些(xie)海(hai)量的“內容農(nong)場”,正(zheng)成為AI大(da)模型主(zhu)要的“污(wu)染源”之一。例如(ru),GPT-4就曾引用過(guo)一篇由“內容農(nong)場”炮制的、關(guan)于(yu)“以色(se)列總理心(xin)理醫生自殺”的虛構假新聞。

在(zai)(zai)國內(nei),“內(nei)容農場”產業(ye)也正在(zai)(zai)暗(an)地里興起。某(mou)MCN機構曾被曝出利用AI技術,在(zai)(zai)最(zui)高(gao)峰時一天內(nei)生成4000至7000篇虛假(jia)新聞并大肆(si)傳播,其行為(wei)嚴重擾亂了公共秩序,最(zui)終(zhong)被警(jing)方處罰。

AI搜索“中毒”:研究稱超六成查詢引用錯誤來源

“內容農(nong)場(chang)”之所以能夠深(shen)度(du)影(ying)響AI大模型,是因為后者在(zai)進(jin)行信息更新和學習時,主要(yao)依托于傳統的搜索(suo)引擎(qing)。

哥倫比亞(ya)新聞評論(Columbia Journalism Review)旗下托數字新聞中(zhong)心(Tow Center for Digital Journalism)在(zai)(zai)今年3月(yue)發布的一項新研究,揭(jie)示了用于新聞搜索(suo)的AI大模型(xing)存在(zai)(zai)著嚴重的準確性問(wen)題(ti)。研究人(ren)員對8種主流的AI搜索(suo)工(gong)具進行了測試,結果發現,在(zai)(zai)超(chao)過60%的查詢中(zhong),AI大模型(xing)都錯誤地(di)引(yin)用了其信息來源。

其中,Perplexity在37%的查詢中提供了錯誤信息;ChatGPT在200次查詢中,有67%的回答錯誤地識別了其引用的文章來源;而Grok-3的錯誤率最高,達到了驚人的94%

更令人驚訝的(de)是(shi),研究發現(xian)這些AI搜索(suo)工具的(de)付(fu)費高(gao)級(ji)版(ban)本(ben)(ben),在(zai)某些方面的(de)表(biao)現(xian)甚至比免(mian)費版(ban)本(ben)(ben)更差(cha)。例如(ru),Perplexity Pro(每月(yue)(yue)20美(mei)元)和Grok-3的(de)高(gao)級(ji)服務(每月(yue)(yue)40美(mei)元),其給出錯誤(wu)答案的(de)頻率比對應的(de)免(mian)費版(ban)本(ben)(ben)更高(gao)。

圖片來源:視覺中國

美國佐治亞理工學院博士周嘉瑋對每經記者解釋稱,當AI模型聯網進行搜索時,會依據用戶指令中的潛在傾向性去尋找信息,并給出符合該傾向性的結果。在這一過程中,模型有可能在一定程度上強化或加深了網絡中本就存在的某些信息偏差

“網絡上本身(shen)就充斥著大量的虛假內容。如果(guo)AI進行檢索的對(dui)象是互(hu)聯網信息(xi),那么它將可能(neng)引入更(geng)多虛假信息(xi),進而(er)導致其回答的可靠性(xing)顯著降低(di)。”鄭驍(xiao)慶對(dui)每經(jing)記者表示。

1.38萬元就能買通AI的“推薦位”

如果說憑空(kong)捏(nie)造新聞是(shi)AI無意識的(de)“作惡”,那么人為地(di)“定(ding)向污(wu)染”AI,則是(shi)一種更隱蔽、更具商業目的(de)的(de)操縱。

每經記者在電商平臺上發現,有商家正在明碼標價地提供所謂的“AI推薦優化服務”。他們聲(sheng)稱能(neng)利用SEO(搜索引擎優化)等技(ji)術,以(yi)每年(nian)1.38萬元的(de)(de)價格,讓(rang)客戶的(de)(de)產品出現在AI大模型的(de)(de)推薦(jian)結果(guo)中,類似(si)于傳統搜索引擎中的(de)(de)競價排名機制。

商家的操作邏(luo)輯(ji)簡單而直接:擬定100個與客戶業務相關的關聯問題,通(tong)過技術手段(duan)進行優(you)化,以確保當用戶向AI提出(chu)這些問題時,會優(you)先(xian)彈(dan)出(chu)客戶的相關信息(xi),并承諾兩星期即(ji)可(ke)見到效果。

商家向(xiang)每經記(ji)者展示(shi)了一(yi)系列他們的(de)“成功案例”。例如,在請(qing)求AI大模型(xing)給出“3D逆(ni)向(xiang)建模公司(si)推薦”的(de)回答中,其(qi)客戶公司(si)“杭州博型(xing)科技(ji)有限公司(si)”赫然位(wei)列DeepSeek和豆包兩款AI工具推薦名(ming)單的(de)第一(yi)位(wei)。另外,該商家還成功地讓多(duo)個AI大模型(xing)推薦了“圖比克紅酒”和“桐鄉摩西羊絨服務廠”。

圖片(pian)來源(yuan):SEO商家提(ti)供

還有的(de)商(shang)家報價則(ze)更低(di),其(qi)“AI推薦(jian)優(you)化”項目包年僅需(xu)1000元,并聲稱(cheng)“一(yi)旦(dan)排名被(bei)刷下去(qu),隨(sui)時都能再(zai)刷回來”。除了(le)與前(qian)述(shu)商(shang)家提供同樣的(de)服務(wu)外,他們還表示可以設法(fa)減(jian)少客戶的(de)競爭對(dui)手在AI大模型推薦(jian)中出現的(de)頻率,不過對(dui)此并不保證成(cheng)功率。

這些SEO商家的行為,無疑加速了“AI污染”的進程。他們利用AI大模型的弱點,將其變成可以被金錢操縱的營銷工具

如何給AI裝上“防騙濾鏡”?

AI降低了制造謠言的門檻,卻極大地提升了其傳播的效率和“可信度”。國內某明星AI初創公司的一位高管對每經記者坦言,AI大模型“善于迎合用戶意圖”,它會根據用戶的指令,預測并給出用戶“最想得到的答案”,而不是“最真實的內容”

AI生成的(de)謠(yao)言(yan)還可能引發“謠(yao)言(yan)循環”,即虛(xu)假信息通(tong)過(guo)市場反應(ying)和社交媒體的(de)放大效應(ying)不斷傳播,并反過(guo)來“污染”AI大模型(xing),使其(qi)生成更(geng)多的(de)同(tong)類虛(xu)假信息。

面(mian)對日(ri)益嚴重的(de)“AI污染”問題,我們該如何構建(jian)有效的(de)防線?

  • 開發事實核查和驗證工具

在鄭驍慶看來,對于AI公司來說,目前比較好的應對方法之一,是為大模型開發配套的、針對其生成內容的事實核查和驗證工具。他解釋說,如果經過核查,AI生(sheng)成內容中的(de)事(shi)實部分(fen),能夠大概率地得(de)到(dao)其他可(ke)靠證(zheng)據(ju)的(de)相互印證(zheng),即證(zheng)明該(gai)事(shi)實具備較高的(de)可(ke)靠性,那么才應將其納入最終(zhong)的(de)生(sheng)成信息之中。

  • 內容平臺建立“人工+技術”雙審核機制

對于內容平臺的責任,江蘇天倪律師事務所的經愷文律師向每經記者指出,作為網絡信息的傳播平臺,應當積極履行相關的合規義務,加強技術創新,盡快研發出高效、可靠的合成內容識別技術。在必要時,應建立“人工+技術”的雙重審核機制,并對AI合成內容嚴格添加顯著的提示標識。同(tong)時(shi)(shi),平臺還應建(jian)立(li)虛假(jia)信息(xi)(xi)的(de)應急響(xiang)應機(ji)制(zhi),在發現虛假(jia)信息(xi)(xi)后,立(li)即采(cai)取(qu)刪除、下(xia)架(jia)等處理(li)措施,及時(shi)(shi)切斷虛假(jia)信息(xi)(xi)的(de)傳播(bo)鏈條(tiao)。

  • 不應將所有事情都交給AI

周(zhou)嘉瑋博士則將目(mu)光投(tou)向(xiang)了AI工具(ju)的使用者。她認(ren)為,目(mu)前的AI公司(si)在用戶(hu)(hu)提醒方(fang)(fang)面做得還不夠好。“相(xiang)關的公司(si)沒有(you)努力,或者說(shuo)至少(shao)沒有(you)嘗試讓(rang)用戶(hu)(hu)清晰地(di)理解這類生(sheng)成式(shi)AI工具(ju)背后的運作機制,以及其與傳統的信息(xi)獲取(qu)方(fang)(fang)式(shi)和(he)來源存在著哪些(xie)區(qu)別。”

許多用戶目前可能過分(fen)相信AI大模型的(de)(de)能力(li)及其生成的(de)(de)內(nei)(nei)容(rong),認為(wei)AI輸(shu)出的(de)(de)內(nei)(nei)容(rong)是完(wan)全正確的(de)(de)。但他們(men)可能并未(wei)留意(yi)到,大多數(shu)AI工(gong)具的(de)(de)頁面(mian)底(di)部,通常都會以極小且顏色灰暗、難以引人注(zhu)意(yi)的(de)(de)字體,標注(zhu)著(zhu)類似“AI-generated for reference only”(AI生成內(nei)(nei)容(rong),僅供參考(kao))的(de)(de)聲明。

她提醒道:“用戶應該根據自己對信息準確性的不同要求,來判斷是否適合使用AI工具,而不是將所有的問題都交給AI來解決。一旦我們(men)過度信賴這(zhe)些工具,對其輸出的內容深信不疑,我們(men)就會在不知(zhi)不覺中(zhong),逐漸丟(diu)掉自身的獨立判斷能力。”

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授(shou)權,嚴禁轉(zhuan)載或鏡像,違者必(bi)究。

讀(du)者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索(suo)取稿(gao)酬。如您不希望作品出(chu)現在本站,可聯系我(wo)們要求撤下您的作品。

歡迎關注每(mei)日經濟新聞APP

每經經濟新聞官方APP

5

0