2024年4月7日 星期日

日經訪談 G. Hinton 談A. I.

 “AI教父”辛頓:AI將操控人類

  人工智慧(AI)正在以驚人的速度持續進步。當AI在所有領域都超越人類智慧的時代到來之時,世界將會發生怎樣的變化呢?被譽為「AI教父」的多倫多大學名譽教授傑佛瑞·辛頓(Geoffrey Hinton)在加拿大的家中接受了日本經濟新聞(中文版:日經中文網)的採訪,講述了AI和人類的未來。

  傑佛瑞·辛頓奠定了作為目前AI核心技術的「深度學習」的基礎。2023年,他突然從已工作10多年的美國谷歌辭職,開始談論AI的威脅。

記者:您一度擔任AI研發的重要職務卻最終離開谷歌,原因是什麼?

辛頓:這是因為我希望離職後自由地傳播自己相信的東西。我在2023年4月與作為上司的首席科學家傑夫·迪恩(Jeff Dean)交談。我提出了AI有可能帶來事關人類生存危機的看法。

  他有意挽留我説:「留在谷歌研究AI的安全對策怎麼樣?」。我非常尊敬他,但拒絕了提議。即使不會被明確限制,如果身為谷歌的一員,講話時也不得不考慮到公司的利益。

記者:您為什麼認為AI有可能威脅人類?

辛頓:這是因為如果給AI設定目標,作為解決對策,它可能會找出對人類不利的方法。比方説,假設向AI下達遏制氣候變化的指令。AI會意識到為了達到目的而有必要將人類清除,我擔心真的會付諸實施的風險。

  今後還可能會出現不同的AI相互競爭的局面。例如,如果AI之間發生數據中心等資源的爭奪,這將是一個像生物體一樣推動進化的過程。面對通過競爭變得更聰明的AI,我們人類將落在後面。

  很多人主張,要防止AI失控,只要關掉電源開關就可以。但超越人類智慧的AI可以用語言操縱我們。或許會試圖説服我們不要關掉開關。

記者:您的學生、美國OpenAI公司聯合創始人伊爾亞·蘇茨克維(Ilya Sutskever)在2023年11月曾試圖解雇該公司首席執行官(CEO) 山姆·奧特曼(Sam Altman),但以失敗告終。據報道,其動機仍然是認為AI對人類構成威脅這一危機感。

辛頓:伊爾亞非常擔心AI的危險性。OpenAI是重視AI安全性的非盈利組織,但採用了管理盈利企業的結構。從這次的事件看出,甚至是這樣的組織,比安全性,會更優先AI創造的利益。

   以前我們都認為數字的智慧不會像人類那麼優秀,理解語言和複雜的東西或將是很久之後的事情。伊爾亞率先改變了看法,但我並沒有馬上同意。現在我覺得他是對的。

記者:聯合國針對先進AI被轉用於軍事作出了著眼於限制的緊急應對的決議。

辛頓:我認為未來10年內將出現自主殺死人類的機器人武器。在第一次世界大戰中造成悲劇的化學武器被後來的國際協議所禁止。機器人武器或許遲早也會被限制。但是,這可能要等到真正在戰場上被使用、人類認識到會帶來多麼悲慘的結局後才能實現。

  我們誰也不希望看到被AI支配的未來。這一事實將成為各國在邁向AI武器限制的過程中保持一致步調的基礎。就像核戰爭一樣。這顯然對所有國家都有危害,所以美國和前蘇聯才能在冷戰期間就避免核戰爭達成協定。

  佛瑞·辛頓因為對人的大腦産生興趣,在大學本科期間攻讀了實驗心理學。由於這些經驗,他為模倣人類大腦神經回路的機制的AI研發方法找到了可能性。

記者:OpenAI開發的「ChatGPT」等對話式AI能理解人類的語言嗎?

辛頓:我認為作為生成式AI基礎的大語言模型能像我們一樣理解語言。我在1985年建立了第一個語言模型。在模倣大腦如何理解語言的基礎上進行設計。大多數聲稱AI不懂語言的人並不掌握人類是如何理解語言的理論。

記者:記得您以前好像説過「即使AI表面上看起來能理解語言,但實際上並不理解」。

辛頓:我一直把AI能不能理解笑話作為判斷的標準。2022年,讓使用谷歌開發的大語言模型「PaLM」的聊天機器人(自動應答系統)解釋幾個笑話。聊天機器人能夠理解為什麼笑話很有趣,並全部成功作出解釋。

記者:通過AI的研究,對人類的理解是否也發生了變化?

辛頓:由於模倣大腦的智慧可以人為創造出來,因此有很多發現。有些哲學家認為人類天生就具有使用語言的功能,這完全是無稽之談。我們認為語言是出生後經過學習的後天産物。

 50年來,我一直為了讓AI更接近人類大腦而不斷推進開發。這是因為我相信大腦在功能上更優越。但在2023年,我改變了想法。

  人類分享知識需要很長時間,我們無法逃脫死亡。另一方面,在數字世界裏,將一切內容都分為「0」和「1」加以記錄。不依賴於特定的硬體,可以瞬間複製數據並運行完全相同的程序。

  現在的對話式AI以人類大腦100分之1的規模而擁有數千倍的知識。大語言模型與人腦相比能夠更高效地學習。

記者:AI是否不僅擁有智慧,還將擁有感覺?

辛頓:如果從主觀經驗這一角度進行説明,我認為AI可以擁有和人類一樣的感覺。

  人類也會經歷與客觀事實不符的事件。例如我喝了很多酒,早上醒來時,眼前因為幻覺而出現了粉紅色的小象。我不會相信小象的存在,而是會認為自己的感知系統沒有正常工作,因此這只是內在的體驗。

  通過照相機收集視覺信息的AI也可以産生同樣的情況。例如,將物體放在相機前,用稜鏡使光線彎曲,形成産生物體在遠處的錯覺。如果對話式AI解釋稱感知系統因為稜鏡而不能正常工作,那麼我們就可以説它有著和人類一樣的感覺。

記者:與您共同獲得「圖靈獎」的美國紐約大學教授楊立昆(Yann LeCun)否認了AI具有意識或感覺的可能性。

辛頓:他至今仍是我的朋友,但我們有不同的意見。也許他認為AI沒有主觀經驗。很多人認為主觀經驗是人類固有的,AI並不理解世界。這是個錯誤。

 傑佛瑞·辛頓(Geoffrey Hinton)曾在英國劍橋大學攻讀實驗心理學,1978年在英國愛丁堡大學獲得AI博士學位。在約半個世紀的時間裏,他引領著世界AI研究,很多學生參與開發最尖端的生成式AI。曾于2013年至2023年供職美國谷歌。現年76歲。

記者採訪所感:1950年,數學家艾倫·圖靈設計了一個「圖靈測試」,用來判斷機器是否擁有和人類一樣的智慧。在4年前的採訪中,我曾詢問辛頓,AI什麼時候能聽懂語言並通過測試,他提出了「可能需要50到100年」的看法。

  這次我也提出了相同的問題,得到的回答是「已經快要及格了」。與上次採訪時驕傲地講述AI給社會帶來的好處相比,辛頓的態度發生了明顯變化。通過AI研究「人類如何思考」這一主題的頭號權威改變認識的意義重大。

  他並不是在預言AI會統治人類。而是在未來具有不確定的前提下,強調長期的風險。我們的社會需要從正面接受並討論辛頓先生敲響的警鐘。

※ 記者為日本經濟新聞(中文版:日經中文網)清水孝輔 矽谷