- +1
數(shù)據(jù)倫理和治理丨算法的客觀性預設(shè)與運作策略之蔽
隨著大數(shù)據(jù)殺熟和算法歧視等現(xiàn)象受到關(guān)注與熱議,算法透明與公正問題成為法律和倫理治理的焦點。目前,不論是對算法的批判,還是以透明和反歧視的法規(guī)和倫理規(guī)范對其加以治理,固然有助于形成批判性的輿論與合規(guī)的壓力,但因未能揭示數(shù)據(jù)驅(qū)動的智能算法這一全新的機器認知和控制方式的內(nèi)涵,在實踐運作層面要么失之抽象,要么存在模糊的解釋空間,難以產(chǎn)生切實有效的影響。而要認識到其中的問題所在,首先要揭示的是算法的客觀性預設(shè)及其運作策略。
自20世紀中期以來,計算機和作為其基礎(chǔ)的信息論和控制論的興起,使當代人所面對的是由各種各樣的控制論機器聯(lián)結(jié)而成的技術(shù)社會系統(tǒng)。隨著數(shù)字技術(shù)的發(fā)展,控制論機器發(fā)展出新的版本,它的“燃料”是由布滿世界的傳感器和網(wǎng)絡(luò)源源不斷地生成的數(shù)據(jù)流,其運行機制是由代碼和軟件構(gòu)成的算法,不論稱其為大數(shù)據(jù)與人工智能還是數(shù)據(jù)智能或計算智能,“科技智人”的生存、生命和生活越來越多地托付給基于數(shù)據(jù)和算法的自動化感知、認知和決策。展望未來,越來越多關(guān)于人的信息和數(shù)據(jù)將被搜集和分析,不但你說什么、做什么、去哪里和跟誰在一起被實時捕捉,而且你想什么、感受如何甚至將要做什么也成為智能算法預見和干預的目標。

“微妙的價值博弈”
智能算法的力量是如此的強大,使得算法濫用成為理論批判、輿論批評甚至監(jiān)管治理的對象。算法不僅可以影響到平臺推薦的內(nèi)容和電商購物的價格,還會決定保險、信貸、就業(yè)等社會生活的方方面面。隨著大數(shù)據(jù)殺熟和算法歧視等現(xiàn)象受到關(guān)注與熱議,算法透明與公正問題成為法律和倫理治理的焦點。其應對的措施主要強調(diào)通過倫理審查等提升透明度和加強問責制,主張消除算法的“偏見”或“價值判斷”,對有害的算法模型實施問責和監(jiān)管,以克服算法的不透明性、不可預測性以及有目的與意外的不公正后果。
而實際上,不論是對算法的批判——如將其認定為數(shù)字時代的意識形態(tài),還是以透明和反歧視的法規(guī)和倫理規(guī)范對其加以治理,固然有助于形成批判性的輿論與合規(guī)的壓力,但因未能揭示數(shù)據(jù)驅(qū)動的智能算法這一全新的機器認知和控制方式的內(nèi)涵,在實踐運作層面要么失之抽象,要么存在模糊的解釋空間,難以產(chǎn)生切實有效的影響。因此,出現(xiàn)了諸多不無矛盾的現(xiàn)象:盡管《個人信息法》等法規(guī)強調(diào)人臉等生物特征數(shù)據(jù)屬于應該審慎對待的敏感個人信息,對人臉識別的應用乃至濫用依然呈不斷擴張之勢;隱私保護與可信的人工智能之類的價值倫理問題主要被還原為多方學習等技術(shù)解決方案和標準;企業(yè)將人工智能深度偽造重新命名為人工智能深度合成以避免對該技術(shù)可能的“污名化”。不難看到,很多討論針對這些“微妙的價值博弈”拿不出有效的辦法,最后往往將造成這些現(xiàn)象的原因歸結(jié)為數(shù)字素養(yǎng)和科技倫理素養(yǎng)的不足導致的認識不足。而要認識到其中的問題所在,首先要揭示的是算法的客觀性預設(shè)及其運作策略。

算法的客觀性預設(shè)導致深層次沖突
在繼承了萊布尼茲、霍布斯等人將理性等同于函數(shù)和計算觀念的現(xiàn)代算法學家看來,基于“形式的”“機械的”“算法的”認知是更接近事實的“機器真理”,它們比“非正式的”“頭腦中的”“憑印象的主觀認知更準確,因而更合乎道德”。由此,他們主張在對犯罪風險、醫(yī)療結(jié)果和學生表現(xiàn)的評價中依靠客觀的機械算法而放棄主觀判斷。值得指出的是,在這些觀念的背后預設(shè)了實證主義、行為主義和社會物理學的等客觀性的思想,即通過對人和社會的觀測與量化分析,我們的認識可以從各種主觀偏見和文化偏好中解放出來,從而有可能客觀地把握人和社會到底是怎樣的。
自19世紀后期以來,這些思想與信息技術(shù)的發(fā)展共同推動了現(xiàn)代社會的控制革命,并由此形成了對人與社會的“科學的”認知、管理和治理。雖然其中的“科學”很難達到物理學之類的精確科學的理論性,實際上是基于對經(jīng)驗和行為的量化分析與操作的實驗科學或技術(shù)。但它們被稱為“科學的”,其實蘊含著所謂客觀性的承諾——這些量化分析與操作可以對世界進行快速而有效的認知與干預,而有效性的依據(jù)就是實證。
在馬克斯·韋伯看來,機器的規(guī)則比人的規(guī)則更科學客觀,因而也更公正。他強調(diào),現(xiàn)代社會日益增長的理智化和理性化是一種信念,即任何時候,只要我們想了解就能夠了解;原則上沒有任何不可知的神秘力量在發(fā)揮作用,而且我們通過計算支配萬物。從這種理性主義的信念出發(fā),他認為官僚制度如同精密儀器,遵循“可計算的規(guī)則”,“不考慮人”地做出決定。現(xiàn)代社會對量化和客觀性的推崇背后存在著一種貶低人的理性能力的觀念。與此密切相關(guān)的是行為主義的主張:人類的心智脆弱且充滿缺點,未能充分考慮到更大的替代選擇架構(gòu),因此容易做出不理性的選擇。20世紀末以來,這樣的認識隨著計算機和統(tǒng)計證據(jù)的普遍應用而得到了強化——算法的客觀認知優(yōu)于專家的主觀判斷。近年來,大數(shù)據(jù)和機器學習驅(qū)動下的人工智能進一步推波助瀾,人工智能算法如同一個吞噬數(shù)據(jù)的大他者,日益以人類無法理解的方式認知和干預世界。相比之下,人類自身的信息與數(shù)據(jù)處理能力則越來越捉襟見肘,這似乎意味著人會越來越多地依賴算法。

由此可見,算法的客觀性預設(shè)會導致算法認知與算法倫理政治價值的深層次沖突。一方面,算法的客觀性基于對主觀認知的排斥。在認知價值上肯定算法的客觀性與對科學的客觀性,特別是量化研究的客觀性的推崇一脈相承,持有這一認知價值訴求的人似乎從根本上不相信人類的判斷對認知活動的干預——所謂客觀知識就是在知識獲取過程中盡量消除具體的人的判斷而使其成為一個無偏見的抽象主體的認知過程。另一方面,對于算法應用導致的透明、公正和責任等倫理政治價值問題的判斷不能沒有人的理解和參與。
重視相關(guān)性而回避因果性與情境的大數(shù)據(jù)認識論近年來頗有影響,這種讓數(shù)據(jù)說話的主張是大數(shù)據(jù)版的算法客觀性承諾,更是技術(shù)解決主義的新形式。2008年安德森(Chris Anderson)在《理論的終結(jié)》一文中宣稱,大數(shù)據(jù)將使得關(guān)于人類行為的所有理論都過時,它可以直接替代分類學、本體論和心理學。在認識論等理論層面,大數(shù)據(jù)的出現(xiàn)及大數(shù)據(jù)方法的客觀性承諾暗示,大數(shù)據(jù)的存在使人類決策越來越不充分,人們應該有意識地用大數(shù)據(jù)算法變革其推理方法。在技術(shù)應用層面,讓數(shù)據(jù)說話不僅僅是認識論轉(zhuǎn)向的承諾,而是進一步將這種認知直接轉(zhuǎn)換為指向問題結(jié)果的行動。一方面,他們主張數(shù)據(jù)不言自明,只要有足夠的數(shù)據(jù),就能說明一切;另一方面強調(diào)不必知道人們?yōu)楹巫瞿呈拢恍枰浪@么做了。
對此,谷歌執(zhí)行主席埃里克·施密特(Eric Schmidt)在2010年接受華爾街日報采訪時似乎做出了呼應,大部分人不希望谷歌回答他們的問題……他們希望的是,谷歌能夠告訴他們接下來該怎么做。次年,在MIT的一次演講中,他強調(diào),技術(shù)已不再僅僅涵蓋硬件和軟件,它實際上已經(jīng)深入到龐大的數(shù)據(jù)挖掘和利用,從而讓世界變得更美好。如果將施密特兩次談話的觀點結(jié)合起來,無疑直觀地體現(xiàn)了莫羅佐夫(Evgeny Morozov)在《技術(shù)至死:數(shù)字化生存的陰暗面》一書中所批判的技術(shù)解決主義或“解決方案主義”——把所有問題重新詮釋為存在解決辦法的問題。而該書原版的書名“點擊這,解決所有問題”,則以鼠標隱喻揭示出人們在數(shù)字化生存中下意識的文化沖動,就像智能手機應用興起的那段時間,遇到問題有人會不自覺地想,是不是可以做個應用軟件(APP)。

《技術(shù)至死:數(shù)字化生存的陰暗面》書封
隱含著兩個基本預設(shè)
在實際應用層面,大數(shù)據(jù)與人工智能中的智能算法及其驅(qū)動的自動化決策同時顯示出巨大的力量和不容忽視的風險。一方面,大數(shù)據(jù)分析和智能算法呈現(xiàn)出無所不在的巨大的“客觀性”力量。某些公司干預美國大選等案例似乎表明,算法能對世界進行某種“客觀”的度量和操縱,甚至可通過精準的信息投喂讓那些自己原本立場不確定的選民明確其立場。另一方面,在算法應用的法律和倫理治理中,大數(shù)據(jù)殺熟、不良內(nèi)容推薦、算法歧視、算法不透明和不易解釋等問題備受關(guān)注,在算法認知及自動化決策中消除偏見與不公正已成為社會共識。
當前,針對算法認知的問題,算法治理(對算法應用的治理)的目標指向提高透明度、加強可解釋性,使算法更客觀公正,更為人們所理解和接受。大致而言,算法治理的主要策略包括三個方面:其一是通過算法審計促使算法設(shè)計者與應用者端正其意圖,其二是關(guān)注并減少算法認知和決策所采用的數(shù)據(jù)中存在的偏見、歧視和不公,其三是加強機器學習算法認知過程的可解釋性。
透過算法治理的三個策略不難看到其中隱含著兩個基本預設(shè)。首先是算法治理對算法認知的客觀有效性預設(shè),即算法認知可以客觀地反映世界和社會實在,其認知能力接近無限,其認知結(jié)果是準客觀的。由此,相關(guān)的法律和倫理治理也應以準客觀為標準。雖然這些衡量標準是相對的,但在實踐中一般會從可操作性出發(fā),傾向于將其轉(zhuǎn)化為技術(shù)標準。其次,算法治理的對算法認知的社會作用的政治影響性預設(shè),即算法認知在社會生活中體現(xiàn)為一種普遍存在的算法權(quán)力,雖然它通常不透明和不可見,但其是否公正和讓人受益卻對人們生活產(chǎn)生著重大影響。顯然,第二個基本預設(shè)折射出監(jiān)管者不同于科技公司的角色差異,正因為如此,算法治理具有打開技術(shù)黑箱的訴求,同時它也使得作為技術(shù)解決方案的算法的運作策略成為技術(shù)批判者關(guān)注的對象。

隱藏的技術(shù)運行策略
人們由此注意到,算法的運行通常采取了“無摩擦技術(shù)”(frictionless technology)和“技術(shù)無意識”等設(shè)計策略。所謂無摩擦技術(shù)就是指那些在操作上非常順暢、直觀,而無需夾雜任何形式的人類思想和情緒的技術(shù)。技術(shù)無意識則指雖然軟件、算法等技術(shù)無時不刻地對我們的生活產(chǎn)生著重要影響,卻是隱而不顯的,讓人們意識不到它們的存在。從技術(shù)認知的角度來看,無摩擦技術(shù)設(shè)計消除了人與機器之間的界限,讓人可以在將技術(shù)作為黑箱的情況下,自然而無障礙地操作,使人的感知和行為在機器中得以順暢地延伸。例如,在員工進入公司上下班時,走過人臉識別考勤機就可以通過自動識別算法完成刷臉考勤。而技術(shù)無意識設(shè)計則意味著算法等技術(shù)通過嵌入而成為環(huán)境的內(nèi)在構(gòu)成部分,人們可以在無意識的情況下與被技術(shù)改造和重構(gòu)的環(huán)境互動。例如,在疫情防控期間個人可能因為與患者有時空伴隨而導致健康碼變色;自動駕駛汽車有可能通過車輛之間信息交互由算法自動調(diào)節(jié)車速。
在科技公司看來,這種隱藏的技術(shù)運行策略似乎無可厚非。用施密特的話來說:“未來人們用更少的時間就能讓技術(shù)運轉(zhuǎn)起來……因為它就是無縫連接的。它就是會在那?!W(wǎng)絡(luò)’將席卷一切,卻又好像不存在,就像電……如果我們把握好這一點,我想我們就能解決這個世界上所有的問題。”這段表白的啟示在于,面對技術(shù)有意無意的自我遮蔽:像算法這樣一種巨大的力量的運行,不能因其技術(shù)上的隱藏策略而變成倫理和政治層面的無形物,而應立足當下科技時代的趨勢性特征,從多個維度對其內(nèi)部構(gòu)成和外在關(guān)聯(lián)加以系統(tǒng)性審視。簡言之,面對技術(shù)有意無意的自我遮蔽,要以相應的祛蔽應對之。
(本文原載于《社會科學報》第1825期第6版,經(jīng)作者授權(quán)轉(zhuǎn)載。)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




