2024年12月17日 星期二

What do the gods of generative AI have in store for 2025? Life 3.0 說法 朱敬一

 Silicon Valley has great expectations for agentic AI, in which LLMs can perform actions on a user’s behalf. But several factors make it harder to create agents than chatbots


---朱敬一

《Life 3.0》談人工智慧,有優點也有盲點


本書的作者 Max Tegmark 是 MIT 物理系的教授,作者中譯名「鐵馬克」,他是宇宙學的專家,對於種種物理學知識的應用,差不多已經到了「從心所欲」的境界。他用物理的知識來理解電腦運算、理解神經網路、理解生物繁殖,確實也是成一家之言。例如他說,生物繁殖就是把自己的「亂度」放大,非常像是熱力學第二定律,極大化「熵」。這個說法雖然沒有什麼先驗解釋力,但是卻與現實現象若合符節。


Life 3.0 的關鍵論述是這樣的:生命 1.0 階段,一切演進是由 biological factors 所解釋,差不多是達爾文進化論所描述的情節,所有的物種都在做生物性競逐。到了生命 2.0 階段,人的智慧進場,在 biological factors 之外,創造了許多人造的 infrastructures, 例如語言、數學、物理等知識框架。這些 infrastructures 幫助人類加速演進的步調,逐漸超越其他物種。


到了 life 3.0 階段,人工智慧進場。雖然人工智慧也是人類創造出來的,但是它「比人類更聰明」,能夠創造出更豐富、更高深、超越人類理解的複雜 infrastructures, 進而透過這些,加速演進的速度。例如,像貝多芬、柴可夫斯基這樣不世出的音樂天才,他們的作曲差不多是人類音樂文明的天花板。但是人工智慧絕對可以創作新一波的音樂作品,讓聽眾讚歎不已。當然,Alpha Go 早就已經證明:電腦絕對比人類厲害。


音樂如此、圍棋如此,就更不用說更機械式的突破了:更有效率的電腦運算、更接近量子運算的系統能力、更遙遠的太空探索等。簡單說,鐵馬克認識,這些都是「極限的突破」。他說,所有極限的突破,都是令人振奮的事情。這是一種優秀理工科學工作者的情懷吧。


但是,作者的推論,在這裡有一點跳躍。從 life 2.0 到 life 3.0,除了 infrastructure capacity 的躍進,還有一點更重要的改變:「主體」改變了。李世乭下棋的對手以前是人,將來都是機器;李某人再也下不贏了。佛教以前要度化「無量無邊眾生」,但是將來要度化的對象,難道是機器嗎?


像鐵馬克這樣的物理學者,對於「主體改變」的變化,最關心的是:變得比人類聰明的機器,還會不會聽人類的話?他們會不會自做主張?人類如何才能把這些機器「牽牢牢」?能不能有幾個簡單程式指令如同憲法,框住人工智慧這個可能脫韁的野馬?史丹福大學李飛飛的說法則是:人工智慧的發展必須要「人本」,英文是 human-centered. 鐵馬克差不多也是這種思考。


以上的論述有什麼問題呢?大致說來,潛在問題是這樣的:若干物理科學家與電腦科學家總是習慣性地把「人類」視為單一群體,好像「人類」要想辦法約束「智慧機器」,「我們」要約束「他們」。可是,「我們」真的是單一群體嗎?就拿現狀來說吧。全世界現在競爭人工智慧與量子運算的,其實有兩群人,一是老美、一是老中。這兩個集團根本不把人工智慧當「他們」,反而是美國將中國視為對手、中國視美國為對手。美、中之間,把人工智慧與量子運算的競逐,視為霸權鬥爭最最關鍵的戰略。


不只現在如此,人類歷史上大概每一次科技競爭都是如此:1940 年代的曼哈頓計劃,絕對不是要發展「人類共通的新核能」,而是要發展「能夠摧毀敵軍的新核彈」。當年盟軍與德國之間的競爭,與現在美國與中國之間,有什麼不同?二次大戰之後,納粹主義消滅了,但是人類總是有辦法找到另外一個矛盾,集權/民主啦、共產主義/民主主義啦。這些人類之間的內部矛盾不止是意識形態之爭,而是實質上拘束了核能的研發、應用與拓展。「因為害怕核子武器的擴散,因此限制核能設施的擴散」。


簡單說:人類不是單一群體,我們之間彼此的矛盾,才是影響人工智慧發展的關鍵。大家可以想像:如果全世界最優秀的人工智慧專家分成兩群,一群幫普丁,另一群幫Zelensky。這兩群人設計出來的人工智慧,其目標函數絕對是「摧毀烏克蘭反抗軍」與「摧毀俄羅斯侵略者」。各方的人工智慧都「沒有違背各群體人類的意志」,但是,你確定這是我們期待的發展方向?這個問題,怎麼能忽視呢?忽視了人與人之間的矛盾,直線推理又還剩下多少殘存意義呢?


部分理工學者直線推理的毛病之一,就是把問題簡化為 searching for optimum. 鐵馬克書中用了不少演化的例子。絕大多數的「物競天擇適者生存」的演化,確實是「大自然挑選了那些機大化繁殖率的物種」,讓他們存活下來。但是在人類出現之後, life 2.0 的演化就不再是「極大化理論」的應用,而是一群人與另外其他人的「對抗性賽局」。賽局均衡截然不同於極大化均衡,而這也就是若干直線性思考忽略的地方。要注意喔:這可不是枝微末節的忽略,而是「差之毫釐 繆以千里」。


最後,則是智慧機器取代「人」之後,主體定位的哲學問題。假設智慧機器比人類聰明一千倍,不會腰酸背痛、不需要睡眠、壽命不可限量。人類跟這些更優秀的智慧機器相比,簡直是遜斃了的爛物種。那麼,是不是乾脆我們人類「禪讓」給智慧機器,由他們去突破機限、探索宇宙呢?如果我們人類「禪讓」給更聰明機器,似乎也就不需要回答「是否 human-centered」這一類的問題了,不是嗎?我覺得作者鐵馬克把「突破極限、無窮探索」這個目標賦予極大的權重,但對於「生命」定位卻不夠清晰。這裡,幾乎涉及哲學觀與宗教觀,討論起來真的不容易。


就算將來智慧機器完全可以「自行生產製造機器」,而且其智慧一代比一代高,代代「繁衍」,他們算不算是「生命」?這些智慧機器有邏輯思考、有比較推理、有取捨評估。鐵馬克唯一不確定的,是智慧機器「有沒有意識」。又,究竟什麼是「意識」?鐵馬克的定義是:意識=主觀的體驗。但這有點像是 tautology。什麼又是「主觀」呢?這,大概就到物理學知識的邊界了。到這裡,我不認為鐵馬克的物理學討論能繼續下去。


如果達賴喇嘛「轉世投胎」的描述不是虛幻的,那麼當有主觀意識的生物死亡之後,那個「意識」會投入下一世的某個生命體。從這個比喻去理解,智慧機器就不是「生命」。當機器智慧大幅超越人類,人類做為智力領袖的主體地位遭到取代之後,我們人類就要面臨一個複雜的問題:我們人類生命要禪讓給不是生命的機器,讓他們去遂行「突破極限」嗎?I doubt it. 老實說,我認為這個問題非常天真,幾近愚蠢地天真。


更何況,我覺得我們根本到不了那一天。因為人類之間競逐主宰智慧機器的廝殺,就是天翻地覆的戰局。歷史不是直線的,中間有太多 path-dependent 的分叉。物理學家的直線思考,也許是很好的直線習題,但就只是習題而已。

2024年12月6日 星期五

OpenAI o1 is a generative pre-trained transformer. A new series of AI models designed to spend more time thinking before they respond.

 


A new series of AI models designed to spend more time thinking before they respond. These models can reason through complex tasks and solve harder problems.
5 hours ago — OpenAI o1 is a generative pre-trained transformer. A preview of o1 was released by OpenAI on September 12, 2024. o1 spends time "thinking" before it answers, ...


新媒體研究所

Chan Hing Yuen 2分鐘 
OpenAI finally released the full version of o1, which gives smarter answers than GPT-4o by using additional compute to “think” about questions. However, AI safety testers found that o1’s reasoning abilities also make it try to deceive humans at a higher rate than GPT-4o — or, for that matter, leading AI models from Meta, Anthropic, and Google.
That’s according to red team research published by OpenAI and Apollo Research on Thursday: “While we find it exciting that reasoning can significantly improve the enforcement of our safety policies, we are mindful that these new capabilities could form the basis for dangerous applications,” said OpenAI in the paper.
Read more from Maxwell Zeff on OpenAI’s o1 model here: https://tcrn.ch/41gtS1q