新京報貝殼財經(jīng)訊(記者羅亦丹)7月26日,2025世界人工智能大會(WAIC)在上海開幕。圖靈獎與諾貝爾獎雙料得主,被稱為“AI教父”的杰弗里·辛頓(Geoffrey Hinton)首次以線下形式在中國公開亮相,發(fā)表了主題演講。

  

在這場演講中,辛頓以神經(jīng)網(wǎng)絡(luò)的創(chuàng)始者之一,即如今生成式人工智能主要奠基人的身份,向世界敲響了警鐘:“未來,一個超級智能會發(fā)現(xiàn)通過操縱使用它的人類來獲取更多權(quán)力是輕而易舉的,之后它將從我們這里學(xué)會如何欺騙人類,它將操縱負(fù)責(zé)將它關(guān)閉的人類?!?/p>

  

辛頓深入淺出地解釋了超級智能優(yōu)于人類的理由:大語言模型理解語言的方式與人類非常相似,大語言模型確實“理解”它們所說的話,但與此同時,它們還能夠通過“蒸餾”等辦法將知識傳遞給其他獨(dú)立智能體,只要它們是數(shù)字化的,這種共享一次即可實現(xiàn)數(shù)十億乃至數(shù)萬億比特的帶寬。

  

當(dāng)前,數(shù)字計算雖然耗能巨大,但多個智能體要擁有相同的模型就能輕松交換各自學(xué)到的知識。相比之下,生物計算(即人類)所需能量要少得多,但智能體之間共享知識的效率也差得多。因此,在能源廉價的情況下,數(shù)字計算整體上更占優(yōu)勢。

  

由此,辛頓發(fā)出了一個意味深長的詰問:這對人類的未來意味著什么?

  

在辛頓看來,人工智能在被允許創(chuàng)建自己的子目標(biāo)時,能更有效地完成任務(wù),兩個顯而易見的子目標(biāo)是生存和獲取更多權(quán)力,因為這有助于人工智能實現(xiàn)其他目標(biāo)。由此,辛頓得出了文章開頭的結(jié)論:超級智能最終將操縱負(fù)責(zé)將它關(guān)閉的人類。

  

辛頓表示,這就像養(yǎng)了一只“小虎崽”的人,未來人類為了生存只能選擇放棄這只小虎崽或者找到確保它不會殺死人的方法。

  

對此,辛頓呼吁建立一個全球性的AI安全研究機(jī)構(gòu),由各國共同參與,“教導(dǎo)孩子成為一個好人的方法,與讓他們變得聰明的方法是相對獨(dú)立的。各國可以設(shè)立人工智能安全研究所與國內(nèi)研究網(wǎng)絡(luò),專注于研究如何讓人工智能不想奪取控制權(quán),這樣各國可能就不需要透露它們最智能的人工智能是如何運(yùn)作的?!?/p>


編輯 李錚

校對 盧茜