圖靈獎得主楊立昆:AI的邏輯推理和規(guī)劃能力有限,會犯事實錯誤和邏輯錯誤|天天觀天下
2023-06-10 14:39:49 | 來源:搜狐科技 |
2023-06-10 14:39:49 | 來源:搜狐科技 |
出品|搜狐科技
作者|鄭松毅
6月9日,2023智源人工智能大會在北京舉辦。法國當(dāng)?shù)貢r間凌晨四點,被譽(yù)為“世界深度學(xué)習(xí)三巨頭”之一的楊立昆(Yann LeCun)在法國視頻連線北京現(xiàn)場,發(fā)表了主題為《走向能夠?qū)W習(xí)、推理和規(guī)劃的大模型》的演講,表達(dá)了對于人工智能的深度思考。
(資料圖片)
搜狐科技在智源大會現(xiàn)場觀看了這場演講,從楊立昆演講時面露微笑的表情中,可以感受到楊立昆對于人工智能發(fā)展的積極樂觀態(tài)度。此前在馬斯克等人聯(lián)名簽署聯(lián)名信提出人工智能發(fā)展將給人類文明帶來風(fēng)險時,楊立昆曾公開反駁,認(rèn)為人工智能尚未發(fā)展到給人類構(gòu)成嚴(yán)重威脅的程度。演講中,楊立昆再次強(qiáng)調(diào)人工智能是可控的,他表示,“恐懼是由對潛在負(fù)面結(jié)果的預(yù)期引起的,而興高采烈是由對積極結(jié)果的預(yù)測產(chǎn)生的,像這樣由目標(biāo)驅(qū)動的系統(tǒng),我將之稱為‘目標(biāo)驅(qū)動的人工智能’,它會是可控的,因為我們可以通過成本函數(shù)為它設(shè)定目標(biāo),確保這些系統(tǒng)不會想要接管世界,相反,它會屈從于人類和安全?!?/p>
楊立昆表示,人工智能距離人類和動物的能力差距在于邏輯推理和規(guī)劃,這是智能的重要特征,現(xiàn)在的大模型只能“本能反應(yīng)”。
“如果你用一萬億或兩萬億個token來訓(xùn)練它們,機(jī)器的性能是驚人的,但最終機(jī)器會犯事實錯誤、邏輯錯誤,它們的推理能力是有限的。”
楊立昆強(qiáng)調(diào),基于自我監(jiān)督的語言模型無法獲得關(guān)于真實世界的知識。他認(rèn)為,與人類和動物相比,機(jī)器的學(xué)習(xí)能力并不是很好。幾十年來,研發(fā)系統(tǒng)的方式都是在用監(jiān)督學(xué)習(xí),但監(jiān)督學(xué)習(xí)需要太多標(biāo)簽,學(xué)習(xí)任何東西都需要進(jìn)行大量的嘗試,強(qiáng)化學(xué)習(xí)的結(jié)果卻不盡人意,這些系統(tǒng)是脆弱的,會犯愚鈍和錯誤,且并不會真正地推理和計劃。
“就像我們在演講時,如何從一個觀點表達(dá)到另一個觀點,怎么解釋事物,大腦里是有計劃的,而不是一字一句的即興發(fā)揮。也許在低層次上,我們在即興發(fā)揮,但在高層次上,我們一定是在規(guī)劃。所以規(guī)劃的必要性是非常明顯的。我的預(yù)測是,在相對短的幾年內(nèi),理智的人肯定不會再使用自回歸元素(自監(jiān)督學(xué)習(xí)方法中的模型之一)。這些系統(tǒng)將很快被放棄,因為它們是無法修復(fù)的?!?/p>
他表示,為了讓語言模型真正理解真實世界的知識,需要一個新的架構(gòu)來取代,而這個架構(gòu)就是他在一年前所發(fā)表的論文中提出的架構(gòu),“自主智能(Autonomous Intelligence)”。這是由一個配置模塊控制整個系統(tǒng),基于輸入信息,進(jìn)行預(yù)測、推理、決策的架構(gòu)。其中的“世界模塊”具備估計缺失信息、預(yù)測未來外界狀態(tài)的能力。
談及未來幾年AI將面臨的挑戰(zhàn),楊立昆指出三個方面,其一是學(xué)習(xí)世界的表征和預(yù)測模型;其二是學(xué)習(xí)推理,即學(xué)習(xí)如何有意識、有目的地運用思維去完成任務(wù);最后一個挑戰(zhàn)是如何通過將復(fù)雜任務(wù)分解成簡單任務(wù),以分層的方式運行來規(guī)劃復(fù)雜的行動序列。
談到這里,楊立昆介紹了他發(fā)表在論文中的另一個模型“世界模型(World Model)”,該模型可以想象一個場景,并根據(jù)場景預(yù)測行動結(jié)果。目的是找出一系列根據(jù)其自己的世界模型預(yù)測的行動,并最小化一系列成本的行動序列。
當(dāng)楊立昆在提問環(huán)節(jié)被問及有關(guān)即將參加的一場關(guān)于AGI的地位和未來的辯論時,他表示這場辯論將圍繞一個問題展開,即人工智能系統(tǒng)是否會對人類構(gòu)成生存風(fēng)險。Max Tegmark 和 Yoshua Bengio 將站在“會”的一邊,認(rèn)為強(qiáng)大的 AI 系統(tǒng)可能對人類構(gòu)成存在風(fēng)險。而楊立昆和 Melanie Mitchell 將站在“不”的一邊。
“我們的觀點不是說沒有風(fēng)險,而是說這些風(fēng)險雖然存在,但很容易通過精心設(shè)計來減輕或抑制?!?/p>
楊立昆認(rèn)為,超智能系統(tǒng)尚未被研發(fā)出來,待其被發(fā)明出后,再討論“是否能使超智能系統(tǒng)對人類安全”也來得及。
責(zé)任編輯: