“深度學(xué)習(xí)三巨頭”之一杰弗里·辛頓請(qǐng)辭谷歌,警示人們?nèi)斯ぶ悄茱L(fēng)險(xiǎn)緊迫?
新技術(shù)總會(huì)伴隨新風(fēng)險(xiǎn),AI為何更棘手?
站在“人類文明的十字路口”,AI何去何從?這是擺在人類面前的一道必答題。自去年底ChatGPT橫空出世、5天突破百萬(wàn)用戶以來,有關(guān)AI與人類未來的討論愈演愈烈,從產(chǎn)業(yè)界到學(xué)界,至今尚無定論。
回望歷史,科學(xué)技術(shù)的發(fā)展總是在反對(duì)和質(zhì)疑聲中一路前行。新技術(shù)總會(huì)伴隨新風(fēng)險(xiǎn),這一次為何更棘手?作為地球文明的主導(dǎo)者,我們似乎遇到了一個(gè)前所未有的挑戰(zhàn):以目前AI的發(fā)展速度,人類會(huì)否淪為硅基智慧演化的一個(gè)過渡階段?這一次人人都是參與者,無人可以置身事外。
——編者
■本報(bào)記者 沈湫莎
繼全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)比GPT-4更強(qiáng)大的人工智能(AI)系統(tǒng)后,在業(yè)內(nèi)有“AI教父”之稱的計(jì)算機(jī)科學(xué)家杰弗里·辛頓(Geoffrey Hinton)本月初宣布離職谷歌,進(jìn)一步加深了人們對(duì)AI是否已經(jīng)失控的擔(dān)憂。
現(xiàn)年75歲的辛頓在神經(jīng)網(wǎng)絡(luò)領(lǐng)域長(zhǎng)期從事開創(chuàng)性工作,為AI技術(shù)的發(fā)展奠定了基礎(chǔ)。在3月下旬那封聚集了1000多個(gè)簽名的公開信發(fā)布時(shí),“深度學(xué)習(xí)三巨頭”、三位2018年圖靈獎(jiǎng)得主表現(xiàn)各不相同。其中,蒙特利爾大學(xué)教授約書亞·本吉奧(Yoshua Bengio)高調(diào)簽名,臉書首席人工智能科學(xué)家、紐約大學(xué)教授楊立昆(Yann LeCun)旗幟鮮明地反對(duì),身為谷歌副總裁的辛頓一言未發(fā)。
宣布離職谷歌后,辛頓公開表達(dá)了自己的觀點(diǎn)。他在接受《紐約時(shí)報(bào)》采訪時(shí)表示,相較于氣候變化,AI可能對(duì)人類的威脅“更緊迫”。他甚至表示,之所以離開谷歌,就是為了完全自由地說出AI潛在的風(fēng)險(xiǎn),向世人提出警示。在5月3日麻省理工技術(shù)評(píng)論舉行的一場(chǎng)半公開分享會(huì)上,辛頓坦言,過去他認(rèn)為AI風(fēng)險(xiǎn)是遙不可及的,“但現(xiàn)在我認(rèn)為這是嚴(yán)重的,而且相當(dāng)近,但停止發(fā)展AI的想法太天真了。”
人類又一次陷入“科林格里奇困境”
人類歷史上,曾無數(shù)次因新技術(shù)的誕生而產(chǎn)生擔(dān)憂。比如,1863年瑞典化學(xué)家諾貝爾發(fā)明硝化甘油炸藥,1885年德國(guó)人卡爾·本茨和戴姆勒發(fā)明內(nèi)燃機(jī)汽車,20世紀(jì)40年代人類發(fā)明了原子彈……
辛頓如今對(duì)AI的情緒,與晚年時(shí)期的諾貝爾和愛因斯坦如出一轍。諾貝爾發(fā)明炸藥原本是為了提高開礦、修路等工程的效率,當(dāng)他發(fā)現(xiàn)自己的發(fā)明被投入到戰(zhàn)場(chǎng)上后,其自責(zé)達(dá)到了頂點(diǎn),這也促使他后來創(chuàng)立了諾貝爾獎(jiǎng)。
清華大學(xué)人工智能國(guó)際治理研究院副院長(zhǎng)梁正認(rèn)為,在新技術(shù)興起時(shí),人類通常會(huì)面臨所謂的“科林格里奇困境”——技術(shù)尚未出現(xiàn),監(jiān)管者無法提前預(yù)測(cè)其影響并采取行動(dòng);而當(dāng)它已經(jīng)出現(xiàn)時(shí),采取行動(dòng)往往為時(shí)已晚或成本過高。
幸運(yùn)的是,迄今為止,人類通過不斷適應(yīng)新技術(shù)的發(fā)展而調(diào)整治理手段,一次次走出了“科林格里奇困境”。“比如在汽車大規(guī)模上市前,人們就為其安裝上了剎車,之后也一直在完善汽車的安全性,為其提供各類檢測(cè)和認(rèn)證,甚至在汽車發(fā)明100多年后,人們還在為其安全‘打補(bǔ)丁’——裝上安全氣囊。”梁正說。
不過,他也承認(rèn),這一次AI的來勢(shì)洶洶似乎與以往有些不同,“速度太快了。”比如,訓(xùn)練了幾個(gè)月的ChatGPT的性能提升比過去幾年迭代都要快,這意味著生成式AI大模型可以在幾周內(nèi)將潛在風(fēng)險(xiǎn)轉(zhuǎn)變?yōu)閷?shí)存風(fēng)險(xiǎn),進(jìn)而對(duì)人類社會(huì)造成不可估量的影響。
另一個(gè)不同是,這一次我們似乎無從下手。辛頓坦言,對(duì)于氣候變化的風(fēng)險(xiǎn),人類可以提出一些有效的應(yīng)對(duì)策略,比如減少碳排放,“你相信這樣做,最終一切都會(huì)好起來的。但對(duì)于AI的風(fēng)險(xiǎn),你根本不知道如何下手?!?/p>
另外,商業(yè)競(jìng)爭(zhēng)也會(huì)促使大模型一路“狂飆”。OpenAI深知GPT所蘊(yùn)含的潛在風(fēng)險(xiǎn),盡管他們對(duì)外表示將審慎推進(jìn)AI系統(tǒng)的研發(fā),但并不愿意就此暫?;驈氐追怕_步,而是期望社會(huì)為此做好準(zhǔn)備。今年2月,這家公司剛剛公布了其發(fā)展通用AI的雄心與策略。而其首席執(zhí)行官山姆·阿爾特曼表示,通用AI在AI技術(shù)上只能算是一個(gè)小節(jié)點(diǎn),他們的遠(yuǎn)景目標(biāo)是創(chuàng)造出遠(yuǎn)超人類智能的超級(jí)AI。
AI真的擁有人類智能了嗎?
AI失控的故事,一直出現(xiàn)在科幻小說中。在大模型出現(xiàn)前,人們也對(duì)AI保持了相當(dāng)警惕,但從未像今天一樣如臨大敵。那么,能識(shí)別出照片中的種種不合理、在各項(xiàng)考試中拿到高分、與人如沐春風(fēng)般對(duì)話的大模型,真的已經(jīng)擁有人類智能了嗎?
聯(lián)合國(guó)教科文組織AI倫理特設(shè)專家組專家、中國(guó)科學(xué)院自動(dòng)化研究所AI倫理與治理中心主任曾毅認(rèn)為,以ChatGPT為代表的大模型是“看似智能的信息處理”,與智能的本質(zhì)沒有關(guān)系。
“人們之所以覺得它很厲害,因?yàn)樗幕卮饾M足了人們的需求,如果這些回答來自于一個(gè)人,你會(huì)覺得他太聰明了。但如果你跟它說‘我很不高興’,它說‘那我怎么能讓你高興一些’,這讓人覺得它似乎理解了情感,而實(shí)際上它只是建立了文本之間的關(guān)聯(lián)。”曾毅認(rèn)為,目前的AI系統(tǒng)與人類智能的區(qū)別在于,大模型沒有“我”的概念,沒有自我就無法區(qū)分自我和他人,就無法換位思考,無法產(chǎn)生共情,也就無法真正理解情感。
清華瑞萊智慧科技有限公司AI治理研究院院長(zhǎng)張偉強(qiáng)表示,當(dāng)前的大模型仍屬于第二代AI,其主要特征為以深度學(xué)習(xí)為技術(shù)、以數(shù)據(jù)驅(qū)動(dòng)為模式。這使得它在決策鏈路和邏輯上具有天然的不確定性,即便是模型開發(fā)者,也無法準(zhǔn)確預(yù)知模型的輸出結(jié)果。當(dāng)語(yǔ)言大模型“信口開河”時(shí),不能認(rèn)為是出現(xiàn)了所謂的“自我意識(shí)”,而僅僅是技術(shù)缺陷使然。
“計(jì)算能力當(dāng)然是智能的一種,但智能的范圍比這大得多,除了計(jì)算還有算計(jì)?!绷赫f,如果把智能看作一個(gè)球體,阿爾法狗表現(xiàn)出的智力如同一個(gè)針尖般大小,大模型則是球體表面那一層,離真正的智慧內(nèi)核還差得遠(yuǎn)。因此,許多技術(shù)派將ChatGPT視作某種“高科技鸚鵡”或人類知識(shí)庫(kù)的映射。他們并不認(rèn)為情況已經(jīng)十分危急,因?yàn)榕c人類智能相比,大模型并沒有觸及認(rèn)知的底層邏輯。
大模型真正的威脅在哪里?
我們應(yīng)該允許機(jī)器充斥信息渠道傳播謊言嗎?應(yīng)該將所有工作(包括那些讓人有成就感的工作)都自動(dòng)化嗎?應(yīng)該去開發(fā)可能最終超越甚至取代我們的非人類智慧嗎?應(yīng)該冒文明失控的風(fēng)險(xiǎn)嗎?細(xì)讀那封千人簽名支持的公開信不難發(fā)現(xiàn),業(yè)界大佬們并非為AI的智能即將超過人類而憂心忡忡,而是擔(dān)心AI將消解人類存在的意義,解構(gòu)人類社會(huì)的關(guān)系。
2017年,AI領(lǐng)域的重磅論文《一種采用自注意力機(jī)制的深度學(xué)習(xí)模型Transformer》發(fā)表,這個(gè)不到200行代碼的模型開啟了AI發(fā)展的新階段。原本分屬不同領(lǐng)域的計(jì)算機(jī)視覺、語(yǔ)音識(shí)別、圖像生成、自然語(yǔ)言處理等技術(shù)開始融合。在Transformer的模型下,工程師利用互聯(lián)網(wǎng)上的文本進(jìn)行AI訓(xùn)練,訓(xùn)練方法是在一句話里刪除一些單詞,讓模型試著預(yù)測(cè)缺失的單詞或接下來的單詞。除了文本,此模型也可應(yīng)用于聲音和圖像。和單詞一樣,工程師可以將聲音和圖像分解成細(xì)小的模塊,并利用修補(bǔ)模型進(jìn)行預(yù)測(cè)和填補(bǔ)。
“所謂生成式AI,通俗來說就是讓AI能夠像人類一樣說話、寫字、畫畫,甚至分析和理解問題?!睆垈?qiáng)說,基于這種“創(chuàng)作”能力,“人工”與“非人工”的邊界正在消弭,數(shù)字世界的信息真?zhèn)我苍絹碓诫y以辨識(shí)。目前,已有聊天機(jī)器人被用來生成針對(duì)性的網(wǎng)絡(luò)釣魚郵件。不久的將來,當(dāng)人們聽到或看到家人的聲音或圖像時(shí),或許首先要問自己一個(gè)問題:這是真的嗎?畢竟,最新的AI技術(shù)只需3秒就能拷貝一個(gè)人的特征。
此外,生成式AI還帶來了其他新風(fēng)險(xiǎn)的挑戰(zhàn)。張偉強(qiáng)舉例說,第一個(gè)風(fēng)險(xiǎn)就是加深“信息繭房”。過去,當(dāng)我們搜索信息時(shí),還能得到多種答案以供選擇。語(yǔ)言大模型則更像一個(gè)“繭房”,你將如同《楚門的世界》中的男主角,被動(dòng)接受模型世界給你的信息。
大模型帶來的第二個(gè)新風(fēng)險(xiǎn)是對(duì)創(chuàng)新動(dòng)能的干擾。人類總是會(huì)在思考的過程中迸發(fā)靈感,在動(dòng)手的過程中有所收獲,在不斷試錯(cuò)的過程中走向成功,不少偉大的發(fā)明都是研究的“副產(chǎn)品”。而大模型提供了前往正確答案的直通車,人們將由此減少很多試錯(cuò)機(jī)會(huì)。正如劉慈欣在科幻作品《鏡子》中描寫的一種人類“結(jié)局”,人類因?yàn)閺牟环稿e(cuò)而走向滅亡。
我們?yōu)锳I“套籠頭”的速度并不慢
生成式AI的飛速發(fā)展,讓人類社會(huì)面臨著一場(chǎng)信任危機(jī)。當(dāng)網(wǎng)絡(luò)上充斥著越來越多不知真假的圖片和視頻,AI助手幾秒鐘就“洗”出了一篇像模像樣的稿件,大批學(xué)生開始用ChatGPT寫作業(yè)、寫論文,我們是否有信心用好生成式AI這個(gè)工具?
對(duì)此,梁正比較樂觀。他認(rèn)為,新技術(shù)總是伴隨著風(fēng)險(xiǎn),而人類曾無數(shù)次處理過這種情況,因此不必太過擔(dān)心。在他看來,人類應(yīng)對(duì)這一波生成式AI的速度算得上及時(shí)。
去年11月30日,OpenAI推出ChatGPT。今年3月,英國(guó)政府發(fā)布了第一份AI白皮書,概述了AI治理的五項(xiàng)原則。3月底,意大利個(gè)人數(shù)據(jù)保護(hù)局(DPA)宣布從即日起禁止使用ChatGPT,限制OpenAI處理意大利用戶信息數(shù)據(jù),同時(shí)對(duì)其隱私安全問題立案調(diào)查。隨后,德國(guó)、法國(guó)、愛爾蘭等國(guó)家也開始準(zhǔn)備效仿意大利的做法,加強(qiáng)對(duì)ChatGPT的監(jiān)管。
在生成式AI的立法方面,中國(guó)與歐盟基本同步。4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》。梁正認(rèn)為,《管理辦法》從三方面給生成式AI的發(fā)展戴上了“籠頭”:一是大模型的數(shù)據(jù)來源要可靠;二是對(duì)AI生成的內(nèi)容應(yīng)履行告知義務(wù);三是一旦造成損害,相關(guān)責(zé)任方需要承擔(dān)責(zé)任。他建議,對(duì)生成式AI實(shí)行分級(jí)分類管理。比如,對(duì)某些高風(fēng)險(xiǎn)領(lǐng)域應(yīng)該謹(jǐn)慎或嚴(yán)格控制使用生成式AI,而對(duì)一般的辦公娛樂場(chǎng)合,只要標(biāo)注出AI生成內(nèi)容即可。
與其焦慮,不如用技術(shù)規(guī)制技術(shù)
如果把生成式AI比作“矛”,那么檢測(cè)其安全性的公司就是“盾”。目前,在全球范圍內(nèi),“盾”公司的數(shù)量并不多。由清華大學(xué)人工智能研究院孵化的瑞萊智慧(Real AI)就是一家“盾”公司,他們負(fù)責(zé)檢測(cè)內(nèi)容是否由AI生成,以及給大模型的安全系統(tǒng)“挑刺”。
“人類需要保持辨識(shí)信息真?zhèn)蔚哪芰?#xff0c;只要能識(shí)別出哪些內(nèi)容是AI生成的,并精準(zhǔn)告知公眾,這項(xiàng)技術(shù)也沒有那么可怕?!睆垈?qiáng)說,目前他們研發(fā)了一套AI內(nèi)容識(shí)別系統(tǒng),在識(shí)別能力上處于國(guó)際領(lǐng)先。
比識(shí)別AI內(nèi)容更重要的,是彌補(bǔ)第二代AI本身的安全缺陷。張偉強(qiáng)解釋說,AI的“智力”提高后,需要視其為社會(huì)生活中的一位新參與者。但第二代AI本身的運(yùn)算過程是個(gè)“黑箱”,相當(dāng)于你無法看透這位新伙伴的所思所想(可解釋性差),且他還極易被欺騙犯錯(cuò)(魯棒性差)。至今在大模型中無法徹底解決的“幻覺”問題就是由此產(chǎn)生,即使數(shù)據(jù)來源準(zhǔn)確可靠,但大模型仍可能會(huì)“一本正經(jīng)地胡說八道”。
不可否認(rèn),ChatGPT開啟了一場(chǎng)全球范圍的大模型“軍備競(jìng)賽”,大廠紛紛發(fā)布各自的大模型系統(tǒng),不少小公司也推出了基于自身領(lǐng)域的“小模型”。張偉強(qiáng)表示,市場(chǎng)的充分競(jìng)爭(zhēng)固然有利于行業(yè)快速發(fā)展,但其先天的安全不足同樣需要引起重視。比如,上個(gè)月,瑞萊智慧僅通過添加少量對(duì)抗樣本,就讓Meta發(fā)布的史上首個(gè)圖像分割模型SAM失靈,顯示出大模型在安全性方面仍然任重道遠(yuǎn)。
梁正認(rèn)為,未來,當(dāng)人們回望現(xiàn)在所經(jīng)歷的這個(gè)階段,會(huì)清晰認(rèn)識(shí)到AI的工具屬性。為了保證它永遠(yuǎn)只是工具,我們必須及時(shí)跟進(jìn)它的動(dòng)向,敏捷治理,就像歷史上人類曾經(jīng)一貫為之的那樣。
相關(guān)稿件