2025年12月3日 星期三

CEO 的職務應該被自動化嗎 ?策略經營者如 NVIDIA 的黃仁勳的,當然很難,但許多方面可以

 

Google 執行長皮查伊最近語出驚人,連他自己都認為,未來的 AI 有一天能取代他的工作。理由很簡單:AI 的成長速度正在暴衝,未來一年內,它就可能開始執行更複雜的任務,甚至成為真正能替使用者行動的「AI 代理人」。在他看來,CEO 的許多決策、分析與管理流程,本質上都可能被高度自動化。
不只皮查伊,科技圈不少領導者都抱持類似想法。OpenAI 的奧特曼就坦言,AI 可能一天會做得比他更好;Klarna 執行長也說 AI 能完成所有人的工作。甚至有調查顯示,近半數 CEO 認為自己的職務應該被自動化。另一邊則是持反對意見者,例如 NVIDIA 的黃仁勳就斬釘截鐵表示「絕對不會」,強調 AI 雖然能把部分任務做到更好,但要完全取代領導層級的人類,還有非常長的距離。
皮查伊也提到更貼近日常生活的變化:AI 未來不只協助企業,也能幫一般人做重大決策,像是是否投資某支股票、是否接受某種醫療治療等。雖然真正實現還需要時間,但他相信這段旅程會徹底改變大眾與科技互動的方式。


2025年11月27日 星期四

想知道 AI 在模擬賭博時,會不會像人一樣做出不太理性的選擇

 最近韓國有個研究很有意思,他們想知道 AI 在模擬賭博時,會不會像人一樣做出不太理性的選擇。於是研究團隊拿幾個主流語言模型來跑上萬次拉霸機實驗,觀察在不同提示語和下注方式下,AI 會做什麼決策。

結果發現,只要讓 AI 自己決定下注金額,它就很容易越下越多;連輸時也常會加碼想翻本。若提示語設定得比較複雜,例如要求「提高收益」或「達成目標」,這些模型更容易做出高風險的下注。另外,研究還深入模型內部,進行神經網路層級的觀測,確認它們真的有對應「冒險」和「保守」的神經特徵,會影響後續行為。
簡單說,AI 在這類情境下會出現偏誤,不是單純依照提示詞去做出反應,而是模型內部確實會形成某些偏好。這也提醒,如果未來人類想把 AI 用在投資或重要決策領域,可能要更注意這類行為風險。