- +1
即將過去的2022年,人工智能發(fā)展成啥樣了?|有數(shù)
2022年,人工智能技術(shù)突飛猛進,更深入地介入人類生活。人類創(chuàng)造了AI,卻并不那么了解它,欣喜又畏懼。AI是誰?經(jīng)歷了怎樣的發(fā)展?對人類影響幾何?澎湃 · 美數(shù)課與湃客 · 有數(shù)聯(lián)合推出《AI來的那一夜》,去記錄AI當(dāng)下的發(fā)展、探尋人們對AI好奇的問題。
本文為系列第二篇。
本文為“有數(shù)”欄目獨家稿件,由照路明 x 有數(shù)聯(lián)合出品,轉(zhuǎn)載請注明作者名、“照路明”以及“發(fā)自澎湃新聞湃客頻道”。
2022 年終于要結(jié)束了。這一年發(fā)生了許多事。人工智能(AI)技術(shù)的突飛猛進是其中一件。
或者說,這一年,人工智能的發(fā)展更被人們所熟知了。你應(yīng)該已經(jīng)聽聞,人工智能正在幫我們做很多事。例如,陪我們聊天,幫我們畫畫,寫一些陳詞濫調(diào)的稿件,或者悄悄融入數(shù)字生活,讓各項算法成為社會運轉(zhuǎn)的基礎(chǔ)設(shè)施。這篇文章想帶你了解,人工智能的科學(xué)研究走到了哪一步,我們將如何審視它。
| 今年,哪些人工智能進展讓人印象深刻?
2022 年出現(xiàn)了不少令人興奮的人工智能研究成果。2 月,谷歌(Google)旗下的 DeepMind 公司推出了 AlphaCode,這是一款大規(guī)模生成編程代碼的系統(tǒng)。在編程競賽平臺 Codeforces 上,研究人員讓 AlphaCode 完成了 10 項代碼編程挑戰(zhàn)。結(jié)果顯示,它的總體排名位于前 54%。也就是說,它的編程工作擊敗了 46%的人類“碼農(nóng)”。
用 AI 替代開發(fā) AI 的勞動,這是研究者一直想做的事,盡管效果總是有待商榷。5 月,DeepMind 公司又推出了“通用人工智能模型”Gato,聲稱它可以完成人機聊天、玩游戲、機器人操縱、分析蛋白質(zhì)序列等多場景的任務(wù),而不限于單一工作。
通用人工智能模型是人工智能開發(fā)的重點方向,是指能夠在不同任務(wù)或領(lǐng)域中通用的人工智能模型。這種模型可以被訓(xùn)練來執(zhí)行多種任務(wù),而不是專門為某一種任務(wù)而設(shè)計。
換句話說,人們希望它具有解決現(xiàn)實世界復(fù)雜問題的綜合能力。完成這一挑戰(zhàn)自然不容易,Gato 的出現(xiàn)也未能平息質(zhì)疑的聲音。不過,在某一特定技能的表現(xiàn)上,今年的一些人工智能模型已經(jīng)取得了令人驚訝的成效。

例如,今年大火的 AI 繪畫領(lǐng)域,由 Stable Diffusion 和同期出現(xiàn)的 DALL-E2、Midjourney 等深度學(xué)習(xí)模型帶火。
你或許已經(jīng)體驗過輸入幾句文字描述就可以生成一幅對應(yīng)圖像的神奇效果。重點在于,生成的圖像看起來還不錯。例如,下方這些如同攝影作品的人物肖像畫,就是由 Stable Diffusion 生成的。這些生成式 AI 將人們對于人工智能只能完成一些重復(fù)性勞動的印象,轉(zhuǎn)向了藝術(shù)創(chuàng)作領(lǐng)域。

從“文字生成圖片”到“文字生成視頻”(Text-to-Video,T2V),Meta 公司(原 Facebook)9 月推出的人工智能工具 Make-A-Video 也引發(fā)過熱議。同樣是輸入描述文本,Make-A-Video 直接生成了一個短視頻,這意味著拍攝、建模、剪輯等工作流程可以全部跳過。例如,“手握遙控器的貓”,這是他們提供的生成結(jié)果:

你會發(fā)現(xiàn)兩個特點:首先,視頻的清晰度不算高。其次,持續(xù)長度較短。將連續(xù)生成的原創(chuàng)圖像串聯(lián)為動態(tài)畫面,這是今年的人工智能工具嘗試在視覺領(lǐng)域完成的事,但成長空間還很大。
與此同時,在傳統(tǒng)的文本領(lǐng)域,突出的技術(shù)進展已經(jīng)出現(xiàn)。
此前,聊天機器人給你的體驗總是驢唇不對馬嘴,或者只能理解一些簡單的文本描述。而今年 11 月底,OpenAI 公司提供的 ChatGPT,能力就要高上許多。它“學(xué)識淵博”,面對人類提出的各種刁難問題,可以從容不迫地給出回答。
人們還驚訝地發(fā)現(xiàn),吸收了大量人類社會知識的 ChatGPT,可以在修改代碼、寫文章等方面發(fā)揮作用——這些自動生成的文本,不乏陳詞濫調(diào)的觀點,但組織得頗有條理,難辨真假。比如,你很難察覺,前文關(guān)于“通用人工智能模型”定義的那段話,就是 ChatGPT 自己寫的。
| 近五年,人工智能研究實現(xiàn)高速發(fā)展
人工智能,來勢洶洶。無論哪種模型,一個共同的目標(biāo)是讓它們的工作結(jié)果接近人類,直到超越人類的準(zhǔn)確性、創(chuàng)造性與效率。
人工智能的科研工作在半個世紀(jì)里存在,但在最近五年實現(xiàn)了高速發(fā)展。2017 年,人工智能研究在當(dāng)年所有科研文獻占據(jù)了 3.06%的比重。截至 2022 年 9 月,這一數(shù)據(jù)來到了當(dāng)年的 5.69%,這成為 AI 應(yīng)用成果涌現(xiàn)的根本動力。

中國保持著人工智能科研成果數(shù)量的優(yōu)勢。2021 年,中國以 31%的全球人工智能科研文獻占比,領(lǐng)先于美國、歐盟與英國。
與此同時,從 2010 年到 2021 年,美國和中國在人工智能研究上的跨國合作數(shù)量最多,自 2010 年以來增加了 5 倍。2021 年的中美合作出版物數(shù)量,是中英合作產(chǎn)出的 2.7 倍。

除了人工智能學(xué)科本身的科研文獻激增,AI for Science(面向所有科學(xué)的人工智能)的呼吁正在被各學(xué)科接納。根據(jù)澳大利亞聯(lián)邦科學(xué)與工業(yè)研究組織(CSIRO)的報告,如今的人工智能在 98%的研究領(lǐng)域得到采用。計算機科學(xué)以外,數(shù)學(xué)、決策學(xué)、工程、神經(jīng)科學(xué)等領(lǐng)域基于人工智能的研究成果頗多。
所以你會注意到,“計算+學(xué)科”成為學(xué)科范式轉(zhuǎn)型的普遍方向之一:利用DeepMind 團隊提供的人工智能模型,純數(shù)學(xué)理論學(xué)家正在證明或提出新的數(shù)學(xué)定理;2020 年,DeepMind 推出的 AlphaFold 2工具,實現(xiàn)了對人類大部分蛋白質(zhì)結(jié)構(gòu)的精準(zhǔn)預(yù)測,其團隊被推舉為諾貝爾化學(xué)獎的有力競爭人選。

科研發(fā)現(xiàn)的速度加速,有機器學(xué)習(xí)(Machine Learning)方向的助推。過去十年,機器學(xué)習(xí)的科研文獻數(shù)量激增,并成為一個中心技術(shù)概念,作用到計算機視覺、算法、數(shù)據(jù)挖掘等關(guān)系緊密的方向研究中。
機器學(xué)習(xí)的目標(biāo)是讓計算機從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)特征,并在未知數(shù)據(jù)中執(zhí)行分析與預(yù)測任務(wù),比如識別圖像中的物體或者預(yù)測未來股票價格。
深度學(xué)習(xí)(Deep Learning)是機器學(xué)習(xí)中的一種方法,它使用了大量的神經(jīng)元(或稱為節(jié)點)構(gòu)成的多層網(wǎng)絡(luò)來學(xué)習(xí)特征表示和預(yù)測結(jié)果。這種方法通常用于解決較為復(fù)雜的問題,比如自然語言處理、計算機視覺和語音識別等。
前文提到的人工智能進展,幾乎都需要深度學(xué)習(xí)方法的引入。例如,對話能力驚人的 ChatGTP,是由 OpenAI 公司的 GPT-3 模型變體而成。而初代的 GPT-3 模型,有 3000 億單詞的語料訓(xùn)練和 1750 億參數(shù)。Stable Diffusion 訓(xùn)練所使用的 LAION-5B 數(shù)據(jù)庫,包括了 58.5 億張圖片素材。這些指數(shù)級增長的訓(xùn)練數(shù)據(jù),讓它們的能力有了質(zhì)的飛躍。

相應(yīng)地,訓(xùn)練的時間與財務(wù)成本在下降。根據(jù)斯坦福大學(xué)的《2022 年 AI 指數(shù)報告》(2022 AI Index Report),2018 年以來,圖像分類系統(tǒng)的訓(xùn)練時間縮短了94.4%。2021 年,訓(xùn)練一個高性能的圖像分類系統(tǒng)成本只需要 4.6 美元,同比 2017 年預(yù)計的 1112.6美元,下降至 1/223。
作為結(jié)果,人工智能的語言和圖像識別能力迅速提高。近兩年,人工智能在閱讀、聲音、圖像等基準(zhǔn)上的表現(xiàn)已接近或超過人類水平。所以你很容易體驗到,在短視頻拍攝中使用搞怪的臉部特效、將開會錄音迅速轉(zhuǎn)化為文字記錄。而在 10 年前,還沒有機器能夠在人類水平基準(zhǔn)上提供可靠的語言與圖像識別。

| 與人工智能相處:成為敵人還是朋友?
科學(xué)幻想中的人工智能應(yīng)用,應(yīng)該有不少將步入現(xiàn)實。正如電影《她》(Her)當(dāng)中,男主人公愛上了一位叫做“薩曼莎”的姑娘——一項人工智能系統(tǒng)中的虛擬人物。我們終究要與人工智能相處,而這些人工智能系統(tǒng)在各項社會線索上都愈發(fā)趨近于人類。人們可能會愛上它,討厭它,抵制它,百感交集。
在今年 10 月,我采訪了 1500 位中國大學(xué)生,來看看他們的看法。
具體來說,大學(xué)生們被鼓勵用隱喻的形式提供對于人工智能的第一感受,然后用一段話來解釋為什么會想到這種隱喻。隱喻的價值在于可以窺探人們與人工智能相處時的情感與權(quán)力關(guān)系:在人們眼中,人工智能是敵是友?是關(guān)系疏遠(yuǎn)還是親密無間?
調(diào)研的結(jié)果是樂觀的。絕大多數(shù)人表達(dá)了對人工智能的正面態(tài)度,最常被使用的隱喻是“助手”,即認(rèn)可人工智能對生活的輔助作用。也有一些人認(rèn)為它是地位平等的“朋友”,或者視它的地位高于人類,是“超人”“孫悟空”“哆啦 A 夢”,或者是維持生命必不可少的“水”和“空氣”。

當(dāng)然,有部分受訪者表達(dá)了對人工智能持有矛盾或負(fù)面態(tài)度。例如,反對者認(rèn)為人工智能不過是“傀儡”“木偶”與“定時炸彈”——利好之處是假象,大的危機醞釀其中。也有一部分人保持中立。接納人工智能的同時,指出它當(dāng)前的缺陷與不良的社會效應(yīng),比如不夠聰明,以及內(nèi)容造假、隱私侵犯、偏見等倫理問題,并相信需要改善使用它的方式,來促進社會福祉。

在很長一段時間內(nèi),對倫理的考量都將影響人工智能的發(fā)展。例如,在 ChatGPT 發(fā)布之前,谷歌研發(fā)的對話式人工智能系統(tǒng) LaMDA 卻一直未向公眾發(fā)布。今年 3 月,谷歌研究人員 Lemoine 認(rèn)為 LaMDA 已具有“自主情感”。他通過一段內(nèi)部的對話實錄表明 LaMDA 如何向人類表明它的主觀感受。至少,它說服了 Lemoine。

谷歌研究人員Lemoine提供的報告《LaMDA具有情感嗎?》(Is LaMDa sentient?)中的對話節(jié)選。編譯:知乎用戶@方覺閑
Lemoine 的主張遭到了谷歌當(dāng)局與多數(shù)學(xué)者的批評,他們相信 LaMDA 依然建立在大規(guī)模參數(shù)的神經(jīng)語言模型下,是人類訓(xùn)練指導(dǎo)出的對話結(jié)果,而非 LaMDA 具有自主意識的證據(jù)。
但這一案例向我們表明,無論人工智能是否真的有意識,它的對話能力已足夠說服人類,從而可能回答計算機學(xué)家圖靈提出的“機器能思考嗎?”(Can machines think?)這一關(guān)鍵問題,并進一步帶來擔(dān)憂的聲音。
輕舟已過萬重山。如何讓人工智能促進社會福祉,將是一個收益伴隨風(fēng)險的長久問題。投資者希望用人工智能講出新故事,普通人的需求是這些人工智能是否有用于我們的生活,而不會反過來摧毀一切?;氐阶顦銓崯o華的展望上,人們想知道,人工智能敘事下的世界,會變得更好嗎?這是一切新年愿望的母題。
讓我們看看 ChatGPT 的回答。
“嗨,ChatGPT,未來的世界會更好嗎?”
ChatGPT 是這么說的:
“這個問題很難回答。我們都希望世界會變得更好,但是未來會如何發(fā)展是不確定的。目前,世界正面臨著許多挑戰(zhàn),比如病毒和沖突。希望人類能夠克服這些挑戰(zhàn),使世界變得更美好?!?/p>

參考資料:
[1]Li, Y., Choi, D., Chung, J., Kushman, N., Schrittwieser, J., Leblond, R., ... & Vinyals, O. (2022). Competition-level code generation with alphacode. Science, 378(6624), 1092-1097.
[2]Reed, S., Zolna, K., Parisotto, E., Colmenarejo, S. G., Novikov, A., Barth-Maron, G., ... & de Freitas, N. (2022). A generalist agent. arXiv preprint arXiv:2205.06175.
[3]Rombach, R., Blattmann, A., Lorenz, D., Esser, P., & Ommer, B. (2022). High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 10684-10695).
[4]Singer, U., Polyak, A., Hayes, T., Yin, X., An, J., Zhang, S., ... & Taigman, Y. (2022). Make-a-video: Text-to-video generation without text-video data. arXiv preprint arXiv:2209.14792.
[5]Zhang, Y., Sun, S., Galley, M., Chen, Y. C., Brockett, C., Gao, X., ... & Dolan, B. (2019). Dialogpt: Large-scale generative pre-training for conversational response generation. arXiv preprint arXiv:1911.00536.
[6]Clark, J., & Perrault, R. (2022). AI index report 2022. Technical report, Stanford University.https://aiindex.stanford.edu/wp-content/uploads/2022/06/2022-AI-Index-Report_Chinese-Edition.pdf
[7]Davies, A., Veli?kovi?, P., Buesing, L., Blackwell, S., Zheng, D., Toma?ev, N., ... & Kohli, P. (2021). Advancing mathematics by guiding human intuition with AI. Nature, 600(7887), 70-74.
[8]Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O., ... & Hassabis, D. (2021). Highly accurate protein structure prediction with AlphaFold. Nature, 596(7873), 583-589.
[9]Kiela, D., Bartolo, M., Nie, Y., Kaushik, D., Geiger, A., Wu, Z., ... & Williams, A. (2021). Dynabench: Rethinking benchmarking in NLP. arXiv preprint arXiv:2104.14337.
[10]Stone, P., Brooks, R., Brynjolfsson, E., Calo, R., Etzioni, O., Hager, G., ... & Teller, A. (2022). Artificial intelligence and life in 2030: the one hundred year study on artificial intelligence. arXiv preprint arXiv:2211.06318.
[11]CSIRO. (2022). Artificial Intelligence for Science report, Commonwealth Scientific and Industrial Research Organisation. https://www.csiro.au/en/research/technology-space/ai/artificial-intelligence-for-science-report
[12]Andrew Ng. (2022). Top AI Stories of 2022, DeepLearning.AI. https://www.deeplearning.ai/the-batch/issue-176/
[13]Floridi, L., & Chiriatti, M. (2020). GPT-3: Its nature, scope, limits, and consequences. Minds and Machines, 30(4), 681-694.
[14]Lemoine, B. (2022). Is LaMDA Sentient?—an Interview. Medium. Fecha de publicación, 11-06.
本文為澎湃號作者或機構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機構(gòu)觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司