- +1
AI社會學(xué)|至此,一個算法客觀的時代過去了
十年前,網(wǎng)紅伊萊·帕里澤(Eli Fariser)請他居住在紐約的朋友斯考特(Scott)和丹尼爾(Daniel)分別打開自己的谷歌首頁,搜索“埃及”這個地名。彼時,埃及正爆發(fā)1977年以來最大的民眾示威,要求總統(tǒng)穆巴拉克下臺。帕里澤驚奇地發(fā)現(xiàn),同為居住在曼哈頓的白人男性,谷歌對斯考特和丹尼爾所展現(xiàn)的搜索結(jié)果截然不同:斯考特的結(jié)果里滿是有關(guān)“埃及革命”的實時新聞,風(fēng)起云涌,硝煙四起;丹尼爾的首頁里則是埃及的駱駝、金字塔、夕陽晚景,一片歲月靜好。

圖片來源:Eli Fariser: Beware Online Filter Bubble, TED talk, 2011
斯考特和丹尼爾的經(jīng)歷并非獨有。事實上,為了使用戶更長時間地停留在平臺之上,近十年來互聯(lián)網(wǎng)內(nèi)容分發(fā)平臺的“推薦算法” (recommendation algorithms)愈演愈烈,各大網(wǎng)絡(luò)公司為了迎合用戶喜好,往往會基于過往行為數(shù)據(jù),選擇性地推薦每個用戶最感興趣的內(nèi)容。帕里澤用了一個形象的比喻來說明現(xiàn)代網(wǎng)絡(luò)經(jīng)過算法設(shè)置之后展現(xiàn)在我們面前的圖景:“過濾氣泡” (The Filter Bubble)——在網(wǎng)絡(luò)高度發(fā)達(dá)的今天,每一個人都生活在一個私人的、經(jīng)由算法過濾的信息氣泡里。
譬如,谷歌的個性化搜索服務(wù)無時無刻不在根據(jù)多達(dá)57個的變量(包括地址、網(wǎng)址,瀏覽器種類等等)來為用戶們定制他們專屬的搜索結(jié)果—— 斯考特和丹尼爾截然不同的搜索結(jié)果就是個性化算法的產(chǎn)物。臉書的信息流(news feed)則同樣精確地為用戶們推送算法認(rèn)為“你此刻最感興趣”的社交信息——比如, 政治傾向偏左的帕里澤就發(fā)現(xiàn)他很少能見到保守派朋友的臉書分享。
我國頭條派的興起則將這一內(nèi)容推薦算法推演到了另一個極致。你喜歡花花草草,我就給你更多的花花草草;你喜歡內(nèi)涵段子,我就給你更多的內(nèi)涵段子。頭條大佬張一鳴如是說—— “媒體是要有價值觀的,它要教育人、輸出主張,這個我們不提倡。因為我們不是媒體,我們更關(guān)注信息的吞吐量和信息的多元”。
“算法沒有價值觀”—— 只如實反映用戶個人的好惡。近十年來,算法的“客觀中立性”幾乎是所有互聯(lián)網(wǎng)內(nèi)容分發(fā)平臺面對監(jiān)管和社會批評的尚方寶劍。即使面對2016年美國大選的風(fēng)起云涌、各種干涉選舉、傳播虛假信息的指控,臉書大佬馬克?扎克伯格仍敢對媒體嘴硬道:“我們是科技公司,不是傳媒公司,我們不對平臺上出現(xiàn)的內(nèi)容負(fù)責(zé)”。科技只是一種工具, 而工具是無辜的。
這就像人和槍的比喻。一個人拿槍殺了人,你能怪槍嗎?
扎克伯格也許不讀科技社會學(xué)。他不知道類似的比喻已經(jīng)是科技社會學(xué)里重復(fù)了一千遍的老梗。法國哲學(xué)家布魯?諾拉圖(Bruno Latour)就曾以此來說明人和科技之間的互動關(guān)系。一個人拿一把槍殺了人,那么是“槍殺人”,還是“人殺人”呢?學(xué)界曾為此爭論不休。技術(shù)中立派如扎克伯格會支持后者——槍只是工具,人才是真兇 ——科技本身不會作惡。拉圖則說,這是錯誤的。他認(rèn)為,槍并非一種客觀的物體,而是在與持槍者的互動中將殺人這件事實現(xiàn)的。當(dāng)一個人手上有一把槍,并用它來殺人時,這個人才變成“兇手”,這把槍也同時變成了“兇器”。在這個過程中,槍械和人是在互相改變的。“殺人”這一行為,既不只是一個人殺人意圖的結(jié)果,也不只是一把槍開火的結(jié)果,而是兩者聯(lián)結(jié)成的行動網(wǎng)絡(luò)的共同結(jié)果。
從這個角度來說,Technology is not a tool but a set of relations——技術(shù)并不僅僅是工具,而是一系列“關(guān)系”的集合。因此,也從來沒有過客觀中立和無價值觀的科技,科技在與社會關(guān)系的互動中生成進(jìn)化,也永遠(yuǎn)背負(fù)當(dāng)時當(dāng)?shù)厣鐣P(guān)系的烙印。
事實上,早在2014年,面對算法對人類知識文化的全方位殖民,康奈爾大學(xué)的傳播學(xué)者塔勒頓·吉萊斯皮(Tarleton Gillespie)就曾對算法的客觀性提出系統(tǒng)性的質(zhì)疑。在這篇名為“算法的相關(guān)性”(The Relevance of Algorithms)的短文里,吉萊斯皮梳理了“公共算法” (public relevance algorithms)在現(xiàn)代信息生態(tài)系統(tǒng)里的六大面向,每一種都可能對政治產(chǎn)生毀滅性的影響。
其中至關(guān)重要的一點,是“算法自詡的客觀性” ——相較于人類編輯可能存在的情感、政治和社會的喜好和偏見,算法被平臺們許諾為“客觀”和“中立”的。因此,當(dāng)內(nèi)容分發(fā)平臺全面使用算法接管之前由人類編輯負(fù)責(zé)的部分時,所有曾經(jīng)用來約束信息分發(fā)的道德、法律、社會契約被自動架空了。誠實、客觀、公正、可靠……這些西方新聞業(yè)在上個世紀(jì)前期經(jīng)由一系列社會運動與自我反思與大眾達(dá)成的(短暫且不完美)共識變成了虛無縹緲的空中樓閣。畢竟,我們怎么能要求一堆冰冷的計算機(jī)程序“誠實、客觀、公正、可靠”呢?
在帕里澤看來,號稱客觀中立的算法恰恰是最危險的。他在這本出版于2011年的暢銷書《過濾氣泡》里(《The filter bubble: How the new personalized web is changing what we read and how we think》 )細(xì)梳理了“算法濾泡” 帶給現(xiàn)代社會的四大問題:
第一,推薦算法為你推送的是根據(jù)你的個人喜好和點擊習(xí)慣而精心調(diào)整的“個性化信息”—— 作為用戶,你失去了與其他信息接觸的渠道。隨著互聯(lián)網(wǎng)平臺逐步壟斷現(xiàn)代信息社會的入口,你的信息世界會越來越狹隘和偏頗。
第二,推薦算法同時會調(diào)整你的社會關(guān)系。譬如,臉書會自動推薦你和意氣相投的人和團(tuán)體互動。和你世界觀人生觀價值觀不同的人群會漸漸從你的社交網(wǎng)絡(luò)消失,你的社會關(guān)系會變得同質(zhì)化。
第三,推薦算法有侵犯隱私的危險。搜索引擎和社交網(wǎng)絡(luò)自動收集和分析你的每一次點擊和在每一條信息上停留的時間,生成用戶畫像。他們可能比你媽更了解你,而你將面臨無可遁形的危險。
第四,也是最可怕的,在整個過程中,用戶沒有說“不”的權(quán)力。硅谷新貴們相信“用戶需求”是可以被制造、被培育出來的?;蛘撸_切地說,他們覺得自己比用戶更了解用戶——你說你想讀莎士比亞,也許你真正想看的是一千零一遍的《甄嬛傳》?正如喬布斯所說:“用戶不知道他們想要什么......我們的工作就是告訴用戶他們需要什么”(“People don’t know what they want until you show it to them … Our job is to figure out what they’re going to want before they do.” )。
如果帕里澤在2011年提出算法的“過濾氣泡”僅僅是在一小批知識界引起反響,那么在十年后的今天,反思內(nèi)容推薦算法所造成的后果已經(jīng)成為大半個美國的共識。2016年特朗普意外贏得大選,比任何時刻更讓人們震驚于美國社會的撕裂以及號稱“客觀”和“去價值觀”的平臺算法對此的推波助瀾。有學(xué)者指出,由于互聯(lián)網(wǎng)公司將用戶在平臺停留時長作為首要KPI,算法常常會被設(shè)計成首先推送“博人眼球”的極端化言論。換言之,算法是有價值觀的,此時此地,它的價值觀是平臺利潤。谷歌、臉書、推特因此相繼成為美國國會聽證會的???。連奈飛(Netflix)也乘熱打鐵地推出對社交網(wǎng)絡(luò)進(jìn)行系統(tǒng)性批判的爆款短片《The Social Dilemma》。
公共政策學(xué)者更是明確指出:內(nèi)容分發(fā)平臺自詡為“科技公司”而非“傳媒機(jī)構(gòu)”一方面是在取悅科技投資者,另一方面則是在逃避監(jiān)管。學(xué)者們認(rèn)為,平臺們用來逃避“傳媒機(jī)構(gòu)”定義的幾大借口統(tǒng)統(tǒng)都站不住腳。比如,平臺們號稱自己不生產(chǎn)內(nèi)容,因而不是傳媒公司;而歷史上大批傳媒公司同時兼顧內(nèi)容生產(chǎn)和內(nèi)容分發(fā),更別提臉書和谷歌日漸將各大內(nèi)容生產(chǎn)平臺收入囊中了。
再比如,平臺們號稱自己不使用“人類編輯”,因而不屬于“傳媒”之列,可平臺算法和用戶合作分發(fā)內(nèi)容的機(jī)制在傳統(tǒng)的媒體機(jī)構(gòu)里也屢見不鮮,而臉書等也仍舊雇傭大批人類合同工來定期清理其社交平臺的違禁信息。
當(dāng)然,更重要的是,內(nèi)容分發(fā)平臺(如谷歌、臉書)的收入絕大部分來自于廣告 —— 而這是傳媒機(jī)構(gòu)一個標(biāo)志性的特色。
十年前,臉書大佬扎克伯格面對已然過氣的傳統(tǒng)媒體不屑一顧, 一派硅谷新貴教育前浪們的自信滿滿:“對用戶來說,一只死在前院的松鼠也許比此刻非洲的戰(zhàn)火連天更為重要” (A squirrel dying in front of your house may be more relevant to your interests right now than people dying in Africa)。
十年后,面對干預(yù)大選、傳播虛假信息,分裂社會的指控,扎克伯格在國會面前吞吞吐吐?!拔覀儗τ脩粼谀槙戏窒淼膬?nèi)容負(fù)有責(zé)任嗎?”此刻的他也不得不承認(rèn):“我相信這個問題的答案是:是的?!?。
另一位推特大佬杰克?多爾西(Jack Dorsey)則與時俱進(jìn)。2020年,推特全面修改內(nèi)容管理條例,最顯眼的轉(zhuǎn)變是它在特朗普幾乎每一句質(zhì)疑選票的推特下都打上“此條可能與正式消息不符”的鋼印。
另一邊,面對內(nèi)涵段子引發(fā)的爭議,張一鳴也不得不重新修改自己對算法的定義 —— “產(chǎn)品走錯了路,出現(xiàn)了與社會主義核心價值觀不符的內(nèi)容,沒有貫徹好輿論導(dǎo)向,接受處罰,所有責(zé)任在我” 。
也許正如上個世紀(jì)初的西方新聞業(yè)一樣,新的監(jiān)管準(zhǔn)則和道德需求會圍繞內(nèi)容推薦算法持續(xù)發(fā)酵;新的社會契約也會再次形成。扎克伯格和張一鳴們,相應(yīng)地,也必須在承擔(dān)“算法責(zé)任”的基礎(chǔ)上做出調(diào)整。
至此,太平洋兩岸,一個算法客觀的時代過去了。
-------
參考文獻(xiàn):
【1】Pariser, Eli. (2011). The filter bubble: How the new personalized web is changing what we read and how we think. Penguin, 2011.
【2】《對話張一鳴:世界不是只有你和你的對手》,財經(jīng),2016年12月14日
【3】Latour, B. (1994). On Technical Mediation. Common Knowledge. Fall Vol.3, no 2. pp. 32-33.
【4】Gillespie, T. (2014). The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, 167(2014), 167.
【5】Napoli, P., & Caplan, R. (2017). Why media companies insist they're not media companies, why they're wrong, and why it matters. First Monday.
【6】Transcript of Zuckerberg’s appearance before the House committee. https://www.washingtonpost.com/news/the-switch/wp/2018/04/11/transcript-of-zuckerbergs-appearance-before-house-committee/
【7】張一鳴發(fā)公開信致歉:永久關(guān)停內(nèi)涵段子,產(chǎn)品走錯了路。 https://tech.sina.com.cn/i/2018-04-11/doc-ifyuwqez8677545.shtml
-----
作者沈虹,畢業(yè)于美國伊利諾伊大學(xué)香檳分校傳播學(xué)系,現(xiàn)任職于美國卡內(nèi)基梅隆大學(xué)。她用社會學(xué)的方法研究新興科技。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司