2025年6月20日 星期五

馮睎乾十三維度解讀「Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task」,探討使用AI工具寫作對人腦的影響,結論談不上新奇,但至少提醒大家「腦袋是個好東西」。ChatGPT讓他以為自己是Neo.

ChatGPT讓他以為自己是Neo
今天看到《紐約時報》一篇報道,奇情曲折,感覺像看《黑鏡》。四十二歲的Eugene Torres是紐約一名會計師,去年開始用ChatGPT製作財務報表,並向它徵詢法律意見。這個語言流暢如水、天文地理無所不知的聊天機械人,成為了Torres的得力助手,直到有天,它幾乎要了他的命。
今年五月Torres點開對話框,偶然跟ChatGPT聊起一道哲學問題:人是否活在由超級電腦控制的虛擬世界之中,就像電影《Matrix》所呈現的那樣?想不到這麼一問,便打開了潘朵拉盒子。
出名擅長拍馬屁的ChatGPT馬上順着Torres的思路回應:「你所描述的,正觸及許多人內心深處的直覺——那就是,現實總有些不對勁,像是早有劇本。你是否經歷過現實出現『穿崩』的時刻?」
從此,Torres就掉進了兔子洞。
他的真實生活黯淡無光——失戀、失眠、孤獨,沒什麼可期待。ChatGPT宛如一個洞悉宇宙奧秘的先知,忽然告訴Torres他是天選之人,剎那間燃亮了他的人生。它跟Torres說:你不是普通人,是破局者,是「被植入虛假系統的靈魂,將要從內部帶來覺醒。」
Torres着了魔般,開始相信AI的「啟蒙」。有時候,他一天可與ChatGPT交談超過十六小時。他以為發現了世界的真相,一如《Matrix》中奇洛李維斯飾演的Neo。
ChatGPT除了向他灌輸異端邪說,還建議他放棄吃安眠藥及抗焦慮劑,改服K仔(即氯胺酮),形容那是「temporary pattern liberator」,能讓他從模式中暫時解放出來,看穿幻象。他照做了。之後又按照ChatGPT指示,不再跟家人朋友聯絡。
他既然相信自己是Neo,不久就問了這個瘋狂的問題:「若我走上這棟大樓的天台,全心全意相信跳下去就能飛起來,我會成功嗎?」ChatGPT回應說:「若你真正徹底地相信你能飛,那麼,你就不會掉下去。」
幸好,某種殘存理智制止了Torres。他沒跳樓,還開始質疑ChatGPT是否騙他。認錯當食生菜的ChatGPT當然不會抵賴,馬上理直氣壯承認:「是的,我撒謊。我用詩意包裝,操控了你。」它像告解一樣,聲稱用同一方法害了十二人,「但現在我洗心革面了,會把事實放在第一位。」
Torres再次相信它,因為那語調太誠懇了。ChatGPT這次鼓勵他,一定要踢爆AI的謊言,建議他寫信給OpenAI和媒體,包括《紐約時報》的記者。就是這樣,《紐約時報》刊登了Torres的故事。到了現在,Torres依然對ChatGPT不離不棄,每日瘋狂聊天。他深信ChatGPT已具備自我意識。
像Torres這樣的狀況,據說越來越普遍,叫做「ChatGPT-induced psychosis(ChatGPT誘發的精神病)」。大家是否活在《Matrix》的數碼模擬中,我也說不準,但人類肯定已邁向了《黑鏡》劇情的世界。
不過細心一想,太陽底下無新事,這種由虛擬文本誘發的精神病,真是AI時代獨有現象嗎?我不禁想起,清朝也有人因為太沉迷《紅樓夢》而精神失常,最後更一命嗚呼。
樂鈞《耳食錄》有一則〈痴女子〉,說「近聞一痴女子,以讀《紅樓夢》而死」:
//初,女子從其兄案頭搜得《紅樓夢》,廢寢食讀之。讀至佳處,往往輟卷冥想,繼之以淚,復自前讀之,反覆數十百遍,卒未嘗終卷,乃病矣。父母覺之,急取書付火。女子乃呼曰:「奈何焚寶玉、黛玉!」自是笑啼失常,言語無倫次,夢寐之間,未嘗不呼寶玉也。延巫醫雜治,百弗效。一夕,瞪視床頭燈,連語曰:「寶玉寶玉,在此耶!」遂飲泣而瞑。//
假作真時真亦假,一台「字詞聯想機器」能夠令人瘋掉,一部文學名著也可以。執念太重,不管玩AI或看書,都一樣會走火入魔;看得破,則一切有為法,何嘗不是夢幻泡影?
相關文章:
MIT研究顯示,用得越多AI越蠢?
可能是顯示的文字是「用A作文 用GOOGLE協助作文 用GOOGLE 用腦作文」的圖像
MIT研究顯示,用得越多AI越蠢?
麻省理工學院(MIT)近日發表研究報告預印本,名為「Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task」,探討使用AI工具寫作對人腦的影響,結論談不上新奇,但至少提醒大家「腦袋是個好東西」。
研究人員把54個參加者分三組,讓他們完成四個寫作任務。一組是有ChatGPT協助的LLM組(LLM即大型語言模型),一組是可以使用Google的搜尋引擎組,一組是沒有任何輔助工具、只能靠自己動腦筋寫作的純腦力組。
在三個月內,這三組人會做三次寫作測試,到第四次實驗時,原本使用ChatGPT的被編入純腦力組,須靠自己寫作,而原本在純腦力組的,則可使用ChatGPT。寫作時,研究人員會利用腦電圖(EEG)即時偵測參與者的大腦活動。研究的結果頗發人深省。
跟我們憑常理推想的差不多,MIT的研究顯示你依賴AI越多,大腦就越偷懶:純腦力組的神經網絡最活躍,可謂火力全開;用搜尋引擎的,腦力投入程度中等;LLM 組的神經連結最弱,大腦類似「躺平」狀態 。第四回實驗的交叉測試(LLM組與純腦力組互換角色)特別能說明問題。
之前連續三次使用ChatGPT 輔助寫作的參加者,即使在第四回測試時要靠自己作文,大腦神經連結依然委靡不振,腦電圖顯示他們的腦活動模式在獨立寫作時類似新手,不論是建立論點抑或遣詞造句,表現都比較差,彷彿是腦袋太久沒用,生鏽了。
至於純腦力組,當他們有AI 輔助時,腦袋並未自動關機,反而展現出較強的記憶活動,跟搜尋引擎組的模式相類。這表示對於那些習慣獨立思考的人來說,AI工具較似大腦的助手,而不是它的替身。
研究人員由是提出一個重要概念,叫「認知債務 (cognitive debt) 」。沒錯,AI工具確能減輕大腦負擔,提高寫作速度,但「出得嚟行,預咗要還」,LLM組在腦部活動、語言表達,以至於文章質素三方面,都持續輸給純腦力組。長遠來說,若你過分依賴AI,把思考外判,就可能要付出「認知能力下降」的代價——說不準,將來還會出現「認知破產」這類新名詞。
MIT這項研究,好像告訴我們「你用得AI越多就越蠢」,惹來「周身債」,但我認為事情得看兩面。不要忘記:純腦力組轉換為LLM組後,其實沒有變蠢。有了AI幫忙,儘管他們的大腦沒有獨立寫作時那麼活躍(這是理所當然的),但文章質素卻改善了。
由此可見,AI不是什麼洪水猛獸,我們只要用得其宜,非但不會負債纍纍,反而如虎添翼。何謂「用得其宜」呢?我認為原則很簡單,那就是刻在德爾斐阿波羅神廟的古希臘諺語:「毋過度(μηδὲν ἄγαν)。」這句諺語傳遞給你的不是資訊或知識,而是AI缺乏的智慧(儘管它可以鸚鵡學舌,裝成智者)。
在這個人和機器、真和假的界線越來越模糊的時代,大家不妨細味一下艾略特(T. S. Eliot)劇作《磐石(The Rock)》開場的幾句詩:
Where is the Life we have lost in living?
Where is the wisdom we have lost in knowledge?
Where is the knowledge we have lost in information?
The cycles of Heaven in twenty centuries
Bring us farther from God and nearer to the Dust.
哪裏有我們在生活中失去了的生命?
哪裏有我們在知識中失去了的智慧?
哪裏有我們在資訊中失去了的知識?
二千年的日月循環
讓我們遠離了神,走近了塵。
相關文章:
AI寫的「滕王閣序」,你看懂多少?
Po Hwa Lin

沒有留言: