2024年9月9日 星期一

簡述D. Dennett 和 Y. H. Harari 談A.I. :(周奕成)

 周奕成:


關於AI在台灣的公共討論,大多集中在產業面,而少關注其社會人文的影響。在西方,當前最重要的思想者之一,以色列出身的歷史學家Yuval Noah Harari 對AI做了許多討論,在媒體上有很大影響力。而今年過世的美國哈佛大學哲學與認知科學家Daniel Dennett則是AI與心智的先驅。這兩位思想家在AI、民主及創造力等議題上展現了不同的見解。儘管學術背景不同和世代差異,但兩位都極有洞見,值得放在一起討論。


Dennett出生於1942年,是哲學家和認知科學家,研究意識、自由意志以及人類心智的進化。他對AI的關注集中在其如何模擬人類心智,並提出AI能夠透過模仿人類行為來執行複雜任務,卻不具備真正的意識。他在《心智解釋》(Consciousness Explained, 1991)中探討了意識的進化,他主張意識只是神經系統運作的結果,並質疑人工智能是否能夠真正模擬或替代人類的自我意識。


Harari出生於1976年,是以色列著名的歷史學家,以他對歷史和未來的宏觀視角而聞名。他的著作《人類大歷史》(Sapiens, 2014)和《未來簡史》(Homo Deus, 2016)探討了人類文明的演變,並警告AI和其他技術將徹底改變未來社會。他擔心AI不僅會顛覆政治、經濟結構,還可能削弱人類自由意志,甚至影響人類的自我認知。在《未來簡史》中,他指出AI和大數據技術將能夠更準確地預測和影響人類行為,從而引發政治控制和社會不平等的加劇。


Dennett警告說,AI對民主最大的威脅並非來自科幻小說中的超級智能接管世界,而是AI模仿人類的能力可能會使社會信任崩潰。他認為,能在數位環境中冒充真人的AI實體,即「假人」,是歷史上最危險的人造物。這類技術可能破壞民主制度的知情同意原則,因為AI生成的虛假信息可能混淆公眾,使其無法辨別真實與虛假。更糟糕的是,AI掌控的強大實體可能操縱輿論,從而引發一種新型的奴役,並造成社會廣泛的混亂和不安。為此,Dennett主張應該對這類「假人」進行嚴格的法律限制,並懲罰模仿人類的AI系統,確保它們不會危害社會。


Dennett的思想雖然主要集中在心智和意識的問題上,但他的見解為我們理解AI對藝術的影響提供了洞見。他認為,藝術作為一種人類成就,是演化過程的結果,而非神靈的賦予。這表明他可能將AI生成的藝術視為人類創造力的延伸。但他同時對AI模仿人類藝術風格的能力表示擔憂,認為這可能會削弱人類藝術的真實性與價值,尤其是在AI創作出與人類無法區別的藝術作品時,會挑戰人類藝術家的地位。Dennett的這些擔憂也延伸到他對「假人」的危機警告中,因為這些AI技術不僅影響公眾的信任,還可能破壞我們對藝術的認識。


Dennett的哲學強調人類創造力與AI系統之間的相似性。他認為,無論是人類還是AI,創造過程都涉及數據的學習、聚合與再生產。因此,他指出,從本質上來看,人類與機器創造的過程並無太大區別。Dennett運用了神經網絡的類比,指出人類意識是數十億神經元相互作用的結果,與AI的運作方式類似。他認為人類的創造力和意識都可以在機器中實現,因為人類本身就是一個由無數「小機器」組成的複雜系統。


然而,Dennett也強調了當前AI與人類意識在複雜性上的巨大差異。他警告不要過於關注AI是否能達到「通用智能」,而應該更加關注AI作為「極具操縱性」的自主代理,可能帶來的社會風險。Dennett認為,人類對自己創造力的特殊性看法,可能只是一種錯覺,由文化和社會條件塑造而成。AI的發展使我們開始重新思考什麼是創造力,並挑戰了我們對人類作為獨特創作者的傳統觀念。


雖然Dennett認為人類與AI的創造過程相似,但他主張應該將AI視為一種工具,而不是賦予其「同事」或「夥伴」的地位。他認為賦予AI以情感或意識不僅是不必要的,還可能使其變得更加「焦慮」,而非更智能。因此,Dennett提出,將AI看作「奴隸」是合適的,因為它們沒有意識或感覺,我們可以像對待汽車一樣處理AI,隨時關閉或拆解它們。


同時,Dennett提醒我們,儘管AI在某些任務上表現優異,但它們並不理解自己在做什麼,這種「無理解的能力」可能帶來潛在的社會風險。如果AI被用來傳播虛假信息或操縱輿論,我們將陷入深重的困境,因為我們將不知道自己能信任什麼,甚至無法確定我們所接收到的信息是否真實。


Harari認為AI對民主體制帶來了前所未有的威脅,其中最大的危險在於AI操縱公眾輿論的能力。他指出AI可以被用來創造高度逼真的假內容,包括錄音、錄影和文字,這些內容可能被用來誤導選民,破壞政治對手的聲譽,或者製造社會分裂。隨著AI技術的進步,區分真實和虛假信息變得越來越困難,這可能導致公眾對所有信息來源失去信任,從而削弱民主社會賴以運作的溝通基礎。


Harari認為AI是歷史上第一個能夠自主做出決定和創造新想法的工具。這一特性使AI與過去的任何技術都截然不同。傳統工具,如鋤頭或印刷機,雖然改變了社會,但它們本身並不能做決定或產生新的思想。相比之下,AI可以分析大量數據,做出複雜的判斷,甚至創造出全新的概念。這種能力使AI成為一個潛在的強大政治行為者,可能對民主制度產生深遠影響。控制資訊流動的風險。


更令人擔憂的是,AI可能會控制人們獲取信息的方式。搜尋引擎、社交媒體平台和新聞媒體越來越依賴AI演算法來決定向用戶展示什麼內容。Harari指出,這種權力可能被濫用,無論是由獨裁政權還是私人公司。通過控制資訊流動,AI系統可以塑造公眾對重要議題的看法,影響政治辯論的走向,甚至決定選舉的結果。


Harari認為,AI可能會使傳統的民主程序,如選舉,變得不那麼重要或有效。隨著AI能夠更準確地預測和影響人類行為,選舉可能被視為一種過時的決策方式。例如,如果AI能夠準確預測大多數人在特定情況下的選擇,那麼舉行實際選舉的必要性就可能受到質疑。這種情況下,民主的基本原則——人民的意願——可能被AI的預測所取代。


更深層次的問題是,AI可能會挑戰自由意志的概念,而自由意志是民主的根本基礎。如果AI能夠準確預測和影響個人的決策,那麼我們是否還能說我們的選擇是真正自由的?Harari警告,這種情況可能導致一種新形式的極權主義,在這種制度下,政府或公司可以通過AI系統來操縱人們的思想和行為,而不需要使用傳統的強制手段。


全文詳見留言處

沒有留言: