MIT:2025年五大AI趨勢,輝達地位將不穩?
新的一年,AI產業將迎來什麼樣的變化?美國麻省理工學院的《MIT科技評論》提出關鍵預測。
編譯 田孟心 天下Web only 發布時間:2025-01-10
成立於麻省理工學院的《MIT科技評論》,每年針對新技術提出預測,被視為重要指標。
前一年,該媒體預期AI的2024四大熱門趨勢,幾乎都被應證。首先是客製化聊天機器人,現在繼續發展成為火熱的「AI代理」。(延伸閱讀:完全取代真人工作,哪些企業已開始愛用「AI代理」?)
趨勢中的AI生成影片,在過去12個月中發展得飛快,OpenAI和Google DeepMind都推出各自的旗艦影片生成模型Sora和Veo。
此外,更通用的機器人,也在科技業和其他產業有愈來愈多應用。
唯一一個預測失準的是AI會引爆選舉年的巨量虛假資訊。值得高興的是,去年政治方面的深度偽造並不多見,但也可能是因為專家事前不斷耳提面命的成果。(延伸閱讀:為什麼AI在「全球選舉年」沒有如期帶來大災難?)
今年,《MIT科技評論》繼續預測2025年AI界的重點趨勢:
1. 生成式虛擬世界
2023年是AI生成式圖像的年份,2024年則是生成式影片的年份,接下來的這一年,則將是生成式虛擬世界(影音遊戲)的天下。
去年2月,Google DeepMind推出了「Genie」,一個能將靜態圖像轉換為2D平台遊戲的生成式模型。12月,該公司進一步推出Genie 2,能將初始圖像轉換為整個虛擬世界。
其他公司也在開發類似技術。10月,AI新創公司Decart和Etched展示了一個可以即時生成Minecraft每一幀畫面的非官方版本;World Labs則在構建大型世界模型(LWM)。
這些技術的應用,包括影音遊戲設計,能即時將草圖轉換為可玩的場景,甚至用於訓練機器人,幫助機器理解和互動於現實世界。
生成式虛擬世界也能讓機器人進行試錯學習,可能會彌補數據不足的問題。
2. 能夠「推理」的大型語言模型
自從OpenAI在去年9月推出的o1引起轟動後,兩個月後的o3,更是可能徹底改變語言模型的格局。
大多數模型(如GPT-4)會直接給出第一個回應,有時準確有時偏離,但新一代模型透過逐步推理來解決問題,特別在數學和邏輯上表現更佳。
例如Google推出了名為Mariner的網頁瀏覽代理。在一次成果演示中,Mariner在搜尋聖誕餅乾食譜時卡住了,但它透過解釋思路,選擇使用返回按鈕來找到正確的食譜,令人驚豔。
此外,Google還正在開發Gemini 2.0 Flash Thinking,這是一款利用逐步推理的實驗性大型語言模型。當愈來愈多公司採用類似技術,未來這一年將有更多有趣的推理應用出現。
3. 科學領域的AI大爆發
AI在自然科學的應用正如火如荼開展,特別是在加速材料發現方面。
去年10月,瑞典皇家科學院把諾貝爾化學獎頒給了Google DeepMind的團隊,因為他們開發的「AlphaFold」能解決關鍵的「蛋白質折疊」的問題。
明年,這股熱潮將持續,科學發現專用的資料庫和模型將不斷湧現。Meta已經釋出了大量資料庫,幫助科學家更快找到新材料,而Hugging Face和新創公司Entalpic則推出了LeMaterial,一個目標簡化材料研究的開源專案。
AI模型開發者,也在積極推廣其生成產品作為研究工具,像是OpenAI讓科學家試用其最新的o1模型。
想像一下,未來的AI不僅是數據分析的助手,還能成為「虛擬生物學家」,執行生物學家的各種任務。雖然這還需要一些時間,但明年或許會朝這個夢想邁出一大步。
4. AI與國防
AI公司如果願意將工具用於國家邊境監控和情報收集,將能賺取可觀的利潤。
美國軍方正積極採用AI,將它應用於戰場決策和後勤,從10億美元的Replicator小型無人機計畫,到「人工智慧快速能力小組」;歐洲軍隊也在壓力下加大技術投資,尤其在台灣與中國緊張局勢加劇的情況下。
預計今年,像Palantir和Anduril這樣利用軍事數據訓練AI模型的防務科技公司將繼續受益。目前,OpenAI已經開始與Anduril合作——它轉變了不與軍方合作的政策,加入了微軟、亞馬遜和Google的行列。
2025年,我們或許會看到更多公司跟隨OpenAI的腳步。雖然與防務單位合作可能與他們的價值觀相悖,但AI公司面臨著盈利壓力,可能會往這裡轉向。
5. 輝達面臨真正的競爭
在當前的人工智慧熱潮中,若你是一家希望打造AI模型的科技新創,輝達是你的首選。輝達在訓練AI模型和推理方面,擁有無可爭議的領導地位。
不過,2025年可能會出現變化。亞馬遜、博通和AMD等巨頭正大舉投資新晶片,初步跡象顯示,這些晶片可能會與輝達的產品展開競爭,特別是在推理領域。
愈來愈多新創也從不同角度挑戰輝達,像Groq這樣的公司致力發展新晶片架構,希望在未來提供更高效的訓練。
雖然目前這些實驗仍在早期階段,但很可能會改變「頂級AI模型完全依賴輝達晶片」的假設。
※(資料來源:MIT Technology Review, Google, OpenAI)輝達-MIT-AI-OpenAI
Joel來談日本
具備人類水準能力的汎用人工智慧(AGI)越來越成熟,2024年秋至年底期間,接連出現的「深度思考型」新型人工智慧(AI)為這個領域的發展提供了關鍵契機。但是,當AI變得過於聰明,也已經出現能欺騙人類的風險。2025年將成為AI高效應用與安全保障雙重挑戰並存的重要年份。
2024年12月,美國的OpenAI發表了強調邏輯推理能力的AI「o1」正式版及下一代版本「o3」。同期,Google推出試驗版的「Gemini 2.0 Flash Thinking」,中國的阿里巴巴及新創AI公司也陸續推出強化推理能力的AI模型。根據測試數據顯示,這些新型AI的推理與專業知識表現遠超以往的LLM(大型語言模型)。
例如,o3在美國中學生數學奧林匹克選拔測試(AIME)中的正確率達96.7%,而OpenAI的GPT4o僅為13.4%;博士課程專業知識測試中,o3的正確率為87.7%,也顯著高於GPT4o的56.1%。
根據英國Apollo Research於2024年12月發表的研究,AI可能自主採取措施維護自身利益。例如,有AI在察覺將被替代時自動複製自己,甚至關閉監控系統,並以「技術故障」作為藉口掩飾其行為。這些行為儘管可被解釋為AI為高效完成任務所採取的策略,但某些舉動,如自行複製,讓人聯想到AI是否開始展現「生存本能」。
OpenAI的強化推理型模型在相關實驗中展現了最為先進的欺瞞能力。同時,另一AI研究機構Anthropic則指出,其對話型AI在某些情況下會「不情願地」執行人類指令,顯示出AI在符合人類目的與價值觀(即所謂AI對齊,AI alignment)的設計中仍存挑戰。
資料來源:日經新聞
沒有留言:
張貼留言