“理解ChatGPT的本質(zhì)并不困難!復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾介紹,ChatGPT的英文全稱是Chat Generative Pre-trained Transformer,其中Chat(聊天)一詞,在人工智能領(lǐng)域地位特殊,這源于圖靈測驗(yàn)的一項(xiàng)發(fā)明——早已出現(xiàn)的“聊天盒(chatbox)”技術(shù)。而ChatGPT作為一種大型語言模型,是“傳統(tǒng)神經(jīng)元網(wǎng)絡(luò)技術(shù)+深度學(xué)習(xí)技術(shù)”的進(jìn)階版,通俗來說,就是通過數(shù)學(xué)建模建造出一個(gè)簡易的人工神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)。
盡管ChatGPT的語言通順程度和機(jī)器翻譯水平令人贊嘆,但談到這種模型與人類的根本區(qū)別,徐英瑾指出,人工智能的進(jìn)步,實(shí)際上是統(tǒng)計(jì)學(xué)意義上的進(jìn)步,是通過不斷迭代的大規(guī)模數(shù)據(jù)集和人工語料訓(xùn)練后“野蠻投入”的結(jié)果,因此,縱使ChatGPT看到“路遙知馬力”能接上“日久見人心”,但它并不能真正理解中文詩詞的精妙內(nèi)涵。
從海德格爾哲學(xué)的角度看,這種人工智能系統(tǒng)訓(xùn)練方式將不得不把“常人”的意見加以建制化與機(jī)械化,由此使得社會意識形態(tài)的板結(jié)現(xiàn)象變得更為嚴(yán)重。換言之,從機(jī)器的視角看,一個(gè)正確的意見就是被大多數(shù)人所認(rèn)可的意見,因此,少數(shù)“異類”提出的“離經(jīng)叛道”之說在技術(shù)上就會被過濾掉。 “這需要我們的高度警惕!毙煊㈣獜(qiáng)調(diào),“假若ChatGPT技術(shù)在托勒密的時(shí)代就出現(xiàn),哥白尼的‘日心說’恐怕會永遠(yuǎn)被判定為錯(cuò)誤答案!
而由于人工智能訓(xùn)練與當(dāng)下總是存在時(shí)間差,無法面對未來,是ChatGPT這類人工智能的最大瓶頸所在。徐英瑾表示,過度依賴ChatGPT,可能會讓人喪失反思力與對未來的把握能力,陷入過度“自欺”的狀態(tài)。
人工智能未來到底走向何處?在他看來,要想真正走通人工智能道路,需要在結(jié)合節(jié)儉性算法與推理引擎的基礎(chǔ)上,兼顧哲學(xué)思維帶來的“破”與“立”。技術(shù)的跨越必然需要帶來應(yīng)用場景中的深入觀察,無論人工智能變得多聰明,適應(yīng)與滿足人類發(fā)展的需要是根本指向。大數(shù)據(jù)的訓(xùn)練很難讓機(jī)器對語境形成精準(zhǔn)識別,如何突破語料的偽裝,真正識別人類的精神內(nèi)核,人工智能仍在路上。 |