近日,中央網(wǎng)信辦聯(lián)合其他三個部門,共同發(fā)布了針對網(wǎng)絡(luò)平臺算法問題的專項治理行動通知,旨在打破“信息繭房”,促進信息內(nèi)容的多樣性和豐富性。
所謂“信息繭房”,這一概念最早由哈佛大學(xué)的凱斯·R·桑斯坦教授在其著作《信息烏托邦》中提出。它形象地描繪了一個看似舒適、友好的信息環(huán)境,其中充滿了用戶喜愛和認同的內(nèi)容,討論和觀點也仿佛只是自己的回音。然而,這種環(huán)境實際上是一個封閉的信息空間,由算法根據(jù)用戶的點擊、瀏覽和搜索歷史精心構(gòu)建。
在這個“黑箱子”里,用戶接收到的信息都是算法精心篩選的,他們的想法和觀點也往往受到算法潛移默化的影響。這種現(xiàn)象在互聯(lián)網(wǎng)信息爆炸的時代尤為明顯,知識已經(jīng)轉(zhuǎn)化為無窮無盡的信息流,用戶面臨的難題不再是尋找知識,而是如何辨別信息的真?zhèn)巍?/p>
算法的發(fā)展經(jīng)歷了從1.0到2.0的演變。在算法1.0時代,用戶需要主動選擇和收集信息,算法則通過協(xié)同過濾技術(shù),挖掘用戶的歷史行為,預(yù)測并推薦用戶可能感興趣的內(nèi)容。而到了算法2.0時代,大數(shù)據(jù)的加入使得算法能夠更精準(zhǔn)地推送用戶偏好的信息,幾乎無需用戶主動收集和選擇。
這種精準(zhǔn)推送雖然帶來了個性化的體驗,但也加劇了“信息繭房”的形成。不同種族、階層、群體和觀點的用戶,都被算法圈養(yǎng)在自己的信息世界里,每個人都覺得自己的觀點是最正確的,從而滿足了精神需求,卻也可能因此失去了接觸和了解不同觀點的機會。
算法的影響對不同用戶群體而言是截然不同的。對于興趣廣泛的用戶來說,他們可能接收到的是寵物、旅游、數(shù)碼等多樣化的內(nèi)容。但對于生活單一、自控能力不強、信息獲取渠道有限的用戶,如藍領(lǐng)、中老年人或中小學(xué)生,他們更容易沉迷于算法推薦的“黑絲女”、“腹肌男”等內(nèi)容,甚至接收到不適合自己年齡階段的信息。
這種算法推薦帶來的社會性問題不容忽視。如果用戶的信息攝入充滿誤導(dǎo),他們的認知可能會受到影響。例如,當(dāng)用戶在短視頻平臺上頻繁看到與LGBT相關(guān)的內(nèi)容時,他們可能會誤以為LGBT已經(jīng)成為社會主流的性取向。這種認知一旦形成,就很難被改變,因為推翻它需要用戶否定自己已經(jīng)形成的全部認知。
面對算法的“信息繭房”,用戶仿佛置身于《黑客帝國》中的虛擬世界。他們可以選擇藍藥丸,繼續(xù)沉浸在迎合自己需求的算法世界中;也可以選擇紅藥丸,面對殘酷但真實的現(xiàn)實世界。然而,大部分用戶可能會選擇前者,因為那是一個讓他們感到舒適和愉悅的世界。
法國經(jīng)濟學(xué)家塞德里克·迪朗在其著作《技術(shù)封建主義》中,將算法背后的企業(yè)比作“地主”,將用戶比作“農(nóng)奴”。他認為,算法和數(shù)字技術(shù)的應(yīng)用使得用戶變成了數(shù)字農(nóng)奴,失去了自主權(quán)和控制權(quán)。他們被算法束縛在數(shù)字平臺的“領(lǐng)地”中,按照算法的邏輯行動。
以外賣騎手和網(wǎng)約車司機為例,他們看似擁有自由的工作時間,不受老板監(jiān)管,但實際上他們只是從“企業(yè)老板”的奴役轉(zhuǎn)變?yōu)榱恕捌髽I(yè)工具”的奴役。他們必須遵循平臺算法給出的訂單、路線和價格,否則就無法工作。這種算法統(tǒng)治的現(xiàn)象,使得用戶在社會互動中形成的數(shù)據(jù)不斷成為算法優(yōu)化和決策的“養(yǎng)料”,而社會互動又被算法的結(jié)果所“操縱”。
要打破算法的圈禁,就必須將選擇的權(quán)利交還給用戶。讓他們能夠主動選擇自己需要的信息,而不是被動接受所謂的“定制化觸達”、“垂直化推薦”和“精準(zhǔn)化投放”等商業(yè)行為。只有這樣,用戶才能擺脫算法的束縛,走出“信息繭房”,接觸到更廣闊的世界。
最后,讓我們再次思考這個問題:面對算法的“信息繭房”,你是選擇繼續(xù)沉浸在虛擬的舒適世界中,還是勇敢地面對現(xiàn)實世界的挑戰(zhàn)?