2025年1月4日 星期六

轉文 AI 晶片與服務

 SemiAnalysis的創辦人在Big2Pod的訪問中表示,預期 #AMD 今年在AI GPU表現ok,但不會有大成長,在Microsoft、Meta的狀況都將比不如2024年,AI GPU營收佔市場份額比重會下滑


#Nvidia 有自家的運算叢集數據中心,開發GPU的全棧AI軟體,客戶使用GPU遇到問題一兩天內就能推送解決的軟體方案


AMD則停留在賣晶片為主的思維,剛剛才收購伺服器設計公司,需要CSP協助


#Google 的TPU早已大量運用在Google search、YouTube等服務,約佔全球數據中心AI運算量的三成,剩下的七成Nvidia佔比超過98%


Google的TPU目前幾乎沒有外部客戶使用,也沒有適合外部客戶使用的軟體工具,接下來6個月因數據中心空間不足TPU需求將下滑,且Google正在嘗試擺脫對 #Broadcom 的依賴


整體而言,AI ASIC算力比不上Nvidia GPU,所以採用更高容量的HBM、更高的頻寬彌補劣勢,Broadcom的優勢在領先的網路能力,晶片可以採用被動傳輸硬體,其他如Marvell、世芯的技術則需要搭配較爲昂貴的主動傳輸硬體


HBM佔Nvidia GPU的成本高於台積電代工費用,2026年的AI硬體需求,取決於2025年應用能否遍地開花、大語言模型繼續進步

沒有留言: