▲公眾質疑的不是算法本身,而是“不透明”。圖/IC photo
據經濟日報報道,12月10日,貨拉拉正式公開建議到達時間及裝貨準點率算法規則,目的是讓貨運行業的時間規則更透明,優化平臺接單司機的“時間體驗”。
在此之前,由于司機對平臺時間規則不甚了解,又渴望提高時間利用效率,在搶單時極易產生焦慮心態。算法規則的透明,使接單司機不用再胡亂猜測。
比如有司機坦言,之前擔心準點率影響搶單,遇到堵車或客戶臨時調整時間時壓力很大,如今知道準點率與中單無關,“不用再拼命趕路,和用戶溝通清楚就好”。
貨拉拉不是第一家公開算法規則的公司。今年4月,抖音就在其新的安全與信任中心網站上,首次公開了算法推薦系統的原理、用戶行為背后的算法推薦邏輯等內容。
8月份,北京市網信辦也依據《互聯網信息服務算法推薦管理規定》有關要求,指導和推動了抖音、百度、美團等首批6家屬地主要網絡平臺公示算法規則原理。
各平臺對算法規則的公開,直指長期以來飽受詬病的算法“黑箱”,回應了社會關注,同時也為構建一個透明、公平、可問責的算法治理體系邁出重要一步。
以算法透明解決算法爭議,這是AI大爆發的當下,中國互聯網企業正在推進的具有標志意義的治理嘗試。在技術快速演進的時代,通過公開透明,讓算法從“不可見的力量”回歸為“可理解的工具”,為人工智能技術祛魅,也為公共討論降噪。
網絡“黑話”并非算法所致
算法與算力、數據并稱為人工智能三要素,正日益成為無處不在的新質生產力。但近年來圍繞算法的爭議幾乎從未停止,公眾在震驚于算法巨大作用的同時,也對算法產生了巨大疑竇。
公眾既渴望掌握算法規則以便為我所用,同時又擔心算法正在被濫用、侵蝕個體權益、產生不良社會后果,繼而引發算法為“惡”的價值判斷。
比如,算法是否正在放大情緒與對立?是否正在制造“信息繭房”?是否正在導致“群體極化”?是否存在歧視?是否在左右商業與社會機會?
毫無疑問,現實中確實存在互聯網公司因商業競爭追求利益而治理不嚴,并因此引發監管或輿論爭議的案例,這也是算法要被納入監管范疇的原因。
但客觀說,現實中也有大量對算法的質疑是出于對信息不對稱的誤解。由于不了解算法的運作規則,公眾會基于結果做出種種猜測,引發種種爭議。
從這個角度講,貨拉拉、抖音等平臺對外公布算法規則,就算法運作與公眾進行溝通對話,是值得嘗試的化解矛盾之道。
比如,經常有網民質疑,目前短視頻平臺上各種“黑話”的產生,是否為算法導致?如主播們認為一些特定的詞語會被平臺限流,于是不約而同地選擇用某種“黑話”代替,如把多少錢叫“多少米”,把萬叫“W”,把在哪兒買的叫“在哪兒M的”……
對此,抖音副總裁就公開回應稱:“平臺沒有規定提‘錢’會限流,把錢說成‘米’是用戶和運營教程里的以訛傳訛。”
在近期抖音舉辦的算法媒體溝通會上,抖音進一步回應了平臺不會對“錢”等詞語限流。之所以會以訛傳訛,可能是主播在直播的時候因違規遭受處罰,但其又不知道具體是出于什么原因,于是自行琢磨出各種違禁詞匯。此前,抖音還發布了《規范表達溝通手冊》,明確表態不提倡用拼音、表情包、符號等不規范用語,鼓勵創作者正確使用語言文字。
其中就提到,“錢”“人民幣”“萬”“元”“團購”“免費”等詞可正常使用,但虛假宣傳(如虛構促銷活動、以“免費”騙取流量)將被處罰。
這其實就是一個典型的信息不對稱案例,公眾對算法流量分配機制有誤解,平臺發現這種誤解后,應對公眾進行解釋,通過信息透明機制破解以訛傳訛。這類“黑話”能流行起來,正說明創作者對流量存在一種“黑箱”想象,相關解釋成本很高,算法公開透明工作仍任重道遠。
算法本身其實沒有原罪
需要指出的是,對公眾而言,在互聯網上,這類基于自身體驗判斷對算法的誤讀大量存在。
比如,《牛津詞典》將憤怒誘餌(rage bait)列為2025年度詞匯,意指在社交媒體中利用敏感話題引發用戶憤怒情緒從而引起流量狂歡的現象。一些猜測就認為各大社交媒體平臺正在故意將“憤怒誘餌”加入算法規則中,以增加流量。
而事實是,盡管創作者有巨大動機用“憤怒誘餌”內容博流量,但社交媒體平臺不可能歡迎這類“惡流量”,這有悖于平臺的根本利益或商業利益,現實中當過“群主”的普通人也很容易理解這一點,憤怒的情緒雖然可以增加群活躍度,但也會導致好友退群。品牌方也不會喜歡一個情緒對立嚴重、內容不可控的投放環境。
全球范圍內,幾乎所有社交媒體都在追求積極友善、豐富多元的社區氛圍。事實上,放眼人類歷史,在算法出現之前,宗教戰爭、政治迫害、群體對立也從未缺席。將復雜的人性與社會沖突,簡化為“技術原罪”,在某種程度上,是因為技術不會自我辯解,成了最方便的歸因對象。
公眾的擔憂需要被看見
在圍繞算法的爭議中,還有“信息繭房”“群體極化”這類高頻詞。但這些概念在公共討論中的使用,往往脫離了嚴格定義,更多是一種主觀體驗的表達,所謂“遇事不決,量子力學,歸因無方,信息繭房”。
且不說“信息繭房”是否真正存在學界還沒有定論,單就類似“信息繭房”這種現象來說,也是多種原因造成的,本質上是社會分歧在數字空間中的一種映射。與其說算法把世界變“窄”,不如說是人類在信息洪流中,更容易被自身情緒牽引。算法推送的是世界的切片,而非世界本身。
假設沒有算法,人類其實依然會強化關注那些自己喜歡的、認定的話題。相反,或許未來要破解這種不斷被強化的主觀認知,還是要依靠算法來打破所謂“信息繭房”。
技術本身并非天然向善,也并非注定為惡,但掌握技術的企業應正視和理解公眾對技術的“恐懼”。在本質上,這是一種對權力不對稱的恐懼。公眾擔心算法成為隱形支配力,會左右商業機會與社會機會:商家、創作者擔心算法決定曝光、流量;普通用戶擔心算法定價、畫像影響消費選擇,被算法歧視。公眾質疑的不是算法本身,而是“在不透明狀態下運行的算法”。
放眼全球,網絡治理始終是共同難題。無論是歐美關于平臺責任的立法博弈,還是發展中國家對技術風險的警惕,都說明一個事實:技術越強大,社會越需要理解它、規范它。
在這一語境下,算法透明具有多重意義。它不僅體現在對用戶知情權和選擇權的重視,而且正在建立一種互動機制;它并非單向度的“解釋”,而是嘗試通過公開算法理念和治理思路,吸納社會反饋,反向優化系統設計,逐步形成共建共治的良性生態。
撰稿 / 信海光(專欄作家)
編輯 / 遲道華