《大西洋》美國正逐漸淪為「輝達化」國家
AI巨擘正在進行一場軍備競賽,投入巨額的資金在資料中心,股票不斷地飆漲,卻大多仍處於虧損狀態。
投入AI的資金存在一種「循環特性」,例如OpenAI 同意向甲骨文支付 3000 億美元獲取算力;甲骨文 向輝達支付數百億美元購買晶片;而輝達又同意向 OpenAI 投資至多 1000 億美元。
如果 AI 成功: 這很可能意味著它們創造出了一種革命性的技術,將在人類來不及適應的情況下淘汰無數工作崗位,給全球經濟帶來前所未有的衝擊。
我傾向失敗,因為整個都寄託在scaling law, 但全世界的數據都已經快被用完了。再下去就是inbreeding
----
蕭上農
韓國 AI 未來規劃首席秘書官河正宇,興奮分享獲得 26 萬張 GPU 的意義,成為世界第三算力大國
2025 年 6 月,河正宇被任命為李在明政府總統府首任AI未來規劃首席秘書官,這是該政府新設的職位,負責制定國家 AI 政策、推動 AI基礎設施建設,並將民間經驗應用於國家層級的 AI 戰略實施。
26萬張GPU的豪賭:韓國押注「實體AI」,決戰NVIDIA之後的戰場
黃仁勳旋風式造訪韓國,賣出韓國 26 萬張NVIDIA GPU。但這筆採購的重點,根本不在GPU。這是一場國家級的產業轉型宣告。在大型語言模型之後,韓國看見的下一個戰場是實體AI (Physical AI),機器人、自動駕駛車、智慧工廠。
這26萬張GPU,就是韓國用來點燃這場新工業革命的種子基礎設施。這筆巨額採購不是終點,而是起點,目標是確保韓國在AI驅動的物理世界中,佔據全球領導地位。
算力即王權:擠身全球前三的戰略布局
這批訂單的規模極具戰略意義。NVIDIA執行長黃仁勳在非公開會議中透露,美國目前約有2,000萬張GPU,中國次之。韓國目前持有約4萬張,若再加上這26萬張,總數將達30萬張。
這數字,將讓韓國一舉超越其他競爭者,成為全球第三大算力體(以Hopper架構以上等級計算),這被認為是取得AI時代最基礎入場券的必要投資。
這30萬張GPU,將被分配於公私兩大領域。其中5萬張將進入公共領域,投入「國家AI運算中心」,支援政府主導的R&D、學術界,以及關鍵的「國家代表AI企業」。其餘的21萬張,則由SK集團、現代汽車、Naver等民營巨頭自行採購,用於各自的商業戰略。
「這26萬張追加的GPU,將成為極為重要的種子基礎設施。」
此舉的直接目標非常清晰:用當下最強的算力,去打造最強大的AI模型。無論是大型語言模型、基礎模型 (Foundation Model),還是專為實體AI打造的「世界基礎模型 (World Foundation Model)」,都需要龐大到難以想像的運算量進行訓練 (Training)。沒有足夠的GPU,韓國的AI新創、乃至大企業,都將在起跑點上落後。
雙軌並行:用NVIDIA的「訓練」,養自己的「推論」
然而,這場會議的核心主軸,從來不只是GPU的數量。真正的關鍵字,是實體AI。韓國高層意識到,在純粹的軟體與大型語言模型競賽中,要超越美國的開放生態與龐大資本,難度極高。但如果戰場轉移到AI與硬體的結合機器人、自動駕駛、智慧製造,韓國的勝算將截然不同。韓國擁有全球頂尖的製造業基礎,這就是他們的「實體AI全端技術棧 (Physical AI Full Stack)」。
這就帶出韓國的「K-NVIDIA」雙軌戰略。
第一軌:即刻採購(訓練) 當下,AI模型的訓練環節,NVIDIA的GPU是唯一解,其市場地位近乎壟斷。韓國別無選擇,必須投入巨資購買,以維持AI研發的動能。這26萬張GPU主要用於此。
第二軌:長期內製(推論) 但韓國的野心不止於此。他們清楚,AI的價值鏈分為「訓練」和「推論 (Inference)」。訓練就像在大學培養一位博士,成本高昂且集中;推論則是博士畢業後,在各種崗位上實際應用知識,需求分散且龐大。
「GPU太貴。當AI模型被部署到工廠、機器人、汽車上時,我們需要有價格和電力競爭力的MPU(AI加速器),這就是國內企業的機會。」
NVIDIA的GPU在訓練上無可匹敵,但在推論應用上,其高昂的價格與功耗成為一大門檻。韓國的策略是,利用NVIDIA的GPU「訓練」出強大的AI模型,然後催生出一個巨大的國內市場,去部署這些模型。這個市場,將由韓國本土的AI半導體企業,用更具成本效益、更低功耗的MPU(AI加速器)來滿足,用NVIDIA的「訓練」霸權,來撬動並餵養本土的「推論」晶片產業。
國家隊聯盟:從企業CAPEX到產業生態
這場轉型不是政府的獨角戲,而是產官學的總動員。現代汽車集團與NVIDIA宣布共同投資30億美元,成立實體AI研究中心,目標直指軟體定義汽車 (SDV) 與未來的智慧移動。
SK集團則展現更大的格局。SK海力士是NVIDIA的記憶體夥伴,但SK集團的目標是整個製造業AI。SK宣布,將開發基於數位分身的「製造AI平台」,這平台不僅SK集團內部工廠使用,更關鍵的是,他們將以此為基礎,建立一個「製造AI新創聯盟」,將平台開放給所有韓國相關新創。
「SK將開發的製造AI平台,不僅SK使用,也將開放給國內的製造AI新創聯盟。」
SK的提議,等於是要求政府共同打造一個生態系。他們向政府喊話:企業負責投入資本與技術開發平台,政府則應在資料中心、數據法規、以及對新創的財政支援上「積極支援」。這顯示韓國大企業正從單純的資本支出 (CAPEX),轉向主導產業生態系的建立。
政府的回應也相當迅速。對於這些被列為「戰略技術」的AI基礎設施投資,政府正在內部研擬包含稅收減免在內的支援方案。這是一場由國家意志推動,以企業巨頭為先鋒,目標是抓住實體AI這個新典範的全面戰爭。
----
NVIDIA 將收購記憶體公司?韓國 HBM 專家金正浩教授的大膽預測
他還說,連 OpenAI 都可能收購記憶體公司,因為「記憶體比 GPU 更重要」。
金正浩教授是 HBM 領域的專家,他開發了 HBM 的基礎概念和結構。他的實驗室 TERALAB 在 HBM 設計技術領域領先全球超過 20 年,自 2010 年起直接參與 HBM 商業化,與 Samsung、SK Hynix、Google、NVIDIA、Apple、Tesla 等公司合作。30 年研究生涯中,他發表了 712 篇論文,獲得 34 個優秀論文獎,2025 年獲得韓陽百南獎(15 億韓元獎金)。
這是一個記憶體領域專家的預測,金教授用「夢想」這個詞,表示這是他的想像和推測,不是確定會發生的事。但他在訪談中花了很多時間解釋為什麼會有這個想法,提到的 HBF 技術和記憶體在 AI 時代的重要性,是一個正在發生的趨勢。這篇文章主要是整理金教授在訪談中提到的內容,以及一些可驗證的產業現況。
HBF 是什麼?
金教授在訪談中花了很多時間解釋一個新的記憶體技術:HBF,High Bandwidth Flash,高頻寬快閃記憶體。簡單說,就是把 NAND Flash,SSD 用的那種晶片,像 HBM 一樣垂直堆疊起來,讓它有更高的頻寬,可以更快速地讀取資料。
金教授用了一個比喻來解釋 AI 為什麼需要大容量記憶體,他說 AI 模型的核心知識就像一本「密碼本」或「百科全書」,這本書存在記憶體裡,AI 每次生成文字或圖片時都要去翻這本書。他更具體地解釋,這個密碼本在技術上叫做 K cache 和 V cache。K cache 是單詞之間的關係,V cache 是每個單詞的重要性。AI 每生成一個字都要去翻這本密碼本,所以讀取次數非常頻繁。
現在 AI 用的是 HBM,High Bandwidth Memory,高頻寬記憶體,但 HBM 是 DRAM 做的,速度快但容量小、成本高。HBF 用的是 NAND Flash,容量是 HBM 的 10 倍,成本更低,速度比 HBM 慢一點但比傳統 SSD 快很多。金教授說 HBF 適合存放 AI 模型的「密碼本」,因為這個密碼本需要的是大容量和穩定讀取,不需要像 HBM 那樣極致的速度。
HBF 為什麼現在才出現?金教授說因為需求剛剛產生,HBM 的成功讓 NAND Flash 廠商意識到「我們也可以堆疊」,技術上其實已經準備好了。3D NAND 內部已經是 128 層、256 層的堆疊,再把這些堆疊起來就是 2000-3000 層。金教授說:「為什麼以前不做?因為需求現在才出現,AI 這邊的需求只有 1-2 年。」
時程是什麼?金教授說全球有 4 家 NAND Flash 公司正在計劃推出 HBF,2027 年會推出,如果慢的話 2028 年。他預測,對 HBF 保守估計大約 10 年會超越 HBM 的銷售額。2025 年 8 月 SanDisk 和 SK Hynix 宣布合作推動 HBF 標準化,Samsung 也在開發類似技術。
為什麼 NVIDIA 會收購記憶體公司?
金教授的邏輯很直接:記憶體是瓶頸,NVIDIA 被卡脖子了。
他在訪談中說 GPU 現在 60-70% 的時間在等待記憶體,主持人問「GPU 現在是在閒置嗎」,金教授回答「是的,要配合記憶體工作,所以瓶頸在那裡」。主持人又問「那為什麼 NVIDIA 還要一直升級 GPU」,金教授說「就是試試看能不能做點什麼,在學習階段可能有點幫助」。
金教授說 GPU 的發展幾乎停滯了,未來會透過記憶體的創新來持續提升效能。他用 NVIDIA 的產品演進舉例:「仔細看 NVIDIA 的簡報,如果按照摩爾定律,GPU 應該是 1 個變 2 個、2 個變 4 個、4 個變 8 個,但實際上不是這樣。反而是記憶體一直在翻倍,2 倍、4 倍、8 倍。」
這就是為什麼金教授認為 NVIDIA 可能會收購記憶體公司。現在 NVIDIA 太依賴 SK Hynix 和 Samsung,HBM 市占率 SK Hynix 60%、Samsung 和 Micron 各 20%,產能都被預訂到 2026 年。如果未來 HBF 也被這些韓國廠商壟斷,NVIDIA 會繼續被卡脖子,金教授說垂直整合是解決方法。
收購目標會是誰?
金教授在訪談中提到幾個可能的目標。
首先是 SK Hynix 或 Samsung,他說「NVIDIA 可能會試圖收購 SK Hynix 或 Samsung」,但他接著說「如果條件不符合」,暗示這兩家比較困難,可能是因為反壟斷或地緣政治的問題。
接著是 Micron 或 SanDisk,金教授說「如果條件不符合,就收購 Micron 或 SanDisk」,他特別提到主持人說「SanDisk 看起來很適合收購」,金教授回應「是的」。為什麼 SanDisk 適合?因為 SanDisk 是 NAND Flash 龍頭,正在推動 HBF 標準化,而且規模比 SK Hynix 或 Samsung 小,收購難度較低。
金教授還透露他 2 週前和 SanDisk 開了 1 天 3 夜的會議,他說 SanDisk 最近 3 個月股價漲了 3 倍,其中一半原因是數據中心 NAND 需求增加。主持人問「那是不是要賣掉 SK Hynix 股票,買 SanDisk」,金教授說要繼續持有 SK Hynix,因為 SK Hynix 同時有 HBM 和 HBF 能力,這是很大的優勢。
最驚人的是金教授說連 OpenAI 都可能收購記憶體公司,他說「記憶體比 GPU 更重要,所以 OpenAI 也可能收購」。
記憶體的時代
金教授在訪談中用了一個比喻:「就像加州淘金熱時代,真正賺錢的不是淘金的人,而是賣牛仔褲的 Levi's 和修鐵路的公司,AI 熱潮也一樣,GPU 是主角,但記憶體可能是真正賺錢的產業。」
他說記憶體公司的股價會上漲,未來會是「記憶體的世界」。金教授在訪談中說「Jensen Huang 下次可能會來韓國,Sam Altman 已經來過了」,而就在訪談後不久,黃仁勳果真在 10 月底訪韓,參加 APEC CEO 峰會,並宣布供應 26 萬顆 GPU 給韓國。主持人問為什麼會這樣預測,金教授說因為記憶體供應在韓國,NVIDIA 需要跟韓國廠商合作。
金教授還提到,如果按照摩爾定律,記憶體需求每 2 年翻倍,20 年就是 10 次,也就是 1000 倍。他說「現在 Samsung 和 SK Hynix 的記憶體營收是 100 兆韓元,1000 倍是多少?100 京韓元,利潤率 10% 的話就是 1 京韓元,韓國一年預算才 600 兆韓元」,這是一個巨大的市場。
現實是什麼?
NVIDIA 現在的策略是供應合約和技術合作:SK Hynix 的 2025-2026 產能大部分被 NVIDIA 預訂,Micron 通過認證後開始供應 HBM3E,NVIDIA 和 SK Hynix、Micron、Samsung 合作開發新記憶體標準,這些都是合作,不是收購。
HBF 會不會取代 HBM?NVIDIA 會不會垂直整合記憶體?這些問題的答案可能要等到 2027-2028 年才會比較清楚。金教授用「夢想」這個詞,表示這是他的想像,他自己也說「我不是什麼神算,但今天說的這些,大概有 4-6 成會準確吧」。
沒有留言:
張貼留言