2025年12月15日 星期一

How software is shifting from static, retrieval-based systems to real-time generative experiences, where AI creates unique outputs for every user based on context, prompts, and circumstances, driving the need for AI factories to generate content instantly at global scale .Although it can boost individuals’ creativity, it seems to homogenize and flatten our collective output.

 vibe. Vibe coding. How software is shifting from static, retrieval-based systems to real-time generative experiences, where AI creates unique outputs for every user based on context, prompts, and circumstances, driving the need for AI factories to generate content instantly at global scale       .Although it can boost individuals’ creativity, it seems to homogenize and flatten our collective output.

Jensen Huang on the Rise of Real-Time Generative Software🤖
NVIDIA CEO Jensen Huang explained how software is shifting from static, retrieval-based systems to real-time generative experiences, where AI creates unique outputs for every user based on context, prompts, and circumstances, driving the need for AI factories to generate content instantly at global scale.

黃仁勳談即時生成軟體的崛起🤖

NVIDIA 執行長黃仁勳解釋了軟體如何從靜態的、基於檢索的系統轉向即時生成體驗,在這種體驗中,人工智慧會根據上下文、提示和情況為每個用戶創建獨特的輸出,從而推動了對人工智慧工廠的需求,以便在全球範圍內即時生成內容。


Although it can boost individuals’ creativity, it seems to homogenize and flatten our collective output.

AI can make you more creative—but it has limits

technologyreview.com

AI can make you more creative—but it has limits

雖然人工智慧可以提升個人的創造力,但它似乎會使我們的集體產出趨於同質化和扁平化。


AI Overview

Vibe coding: the immediate future of application development ...
Vibe coding is a software development practice where users describe their desired application in natural language, and an AI generates the code for themIt shifts the focus from writing code to communicating with an AI, making app development more accessible, faster, and more creative by letting users focus on the outcome rather than technical details. This method is often compared to a manager guiding a development team or a carpenter using power tools.
Vibe Coding 很夯,讓 AI 來幫自己寫程式聽起來很簡單,但如果寫了一百個軟體,卻沒有商業價值,也只是白忙一場。遺憾的是,很多人沉溺於跟 AI 互動,卻沒有認真思考,生成出來的程式或網站,到底解決了什麼問題?能不能提供價值?
最近我上了一堂 Vibe Coding 的課,講師是認識多年的前輩陶韻智(Sting),曾任台灣 LINE 總經理、現任口袋證券董事長,目前也是台大兼任教授,講授《創新思考與策略實務》。先前我也上過好幾堂 Vibe Coding 的課,我認為 Sting 的課程,最獨特之處就是在 Coding 之前,先注重「商業思維」,這可就不是隨便一位 Vibe Coding 講師能做得到的了。難怪 Sting 這堂課的主張,是:商業判斷力XAI 行動力XVibe Coding=實現「想得到,就做得到」的 AI 時代。
什麼叫做 Vibe Coding 呢?如果直翻成中文的話,叫做「氛圍編碼」,但白話一點講的話,就是讓 AI 來幫自己生成程式碼,然後只要「感覺」不對,就下指令讓 AI 調整成自己想要的樣子,其實跟下指令讓 AI 生成一篇文章差不多。
具體來說,Vibe Coding 怎麼做呢?在課堂上,Sting 要大家打開免費的 Google AI Studio,這是一位很強大的夥伴!你只要簡單的輸入指令,像是「請幫我做一個社群網站,介面跟 Threads 一樣」,等一段時間,Google AI Studio 就會做給你(見附圖)。當然,你也會發現,就只有介面而已,網站本身沒有功能,按什麼都不會動,但是接下來你可以一步一步要求 AI 幫你陸續把功能完善,像是「按了發文者的頭像,可以進行私訊對話」,然後 AI 就會開始寫程式,等一下你就可以開始進行對話了。推薦大家試試看,體驗一下什麼叫做 Vibe Coding,非常神奇!
我在課堂上,也馬上要 AI 幫我生成一個網站。我每天固定會追蹤科技領域和財經領域的新聞和趨勢,其中科技領域最常逛的是 Techmeme,是一個財經新聞的聚合網站,幫忙整理社群上最多人討論、有多方來源的科技新聞,但可惜的是財經領域沒有這樣的網站,所以我很想請 AI 幫我做一個。很快的,我就拿到了一個什麼內容都沒有的網站,因為 AI 不知道怎麼取得新聞來源,所以我跟 AI 說,透過各個媒體網站的 RSS 獲得新聞來源,一個很接近 Techmeme 的財經新聞聚合網站就誕生了!
透過 Sting 的教學,我充分的感受到了 AI 就像是阿拉丁神燈裡面跑出來的精靈,只要你許願,它就會幫你實現!而且我透過和 AI 將近一百次的來回對話,竟然讓這個財經新聞聚合網站越來越完美!原來我也可以在不寫程式的情況下,把我想要的網站做出來!甚至覺得這個網站很值得付費!
想讓自己轉型成一位 AI First 的人才嗎?想讓自己學會如何對 AI 許願,夢想就能實現嗎?這堂課你一定不能錯過!
❮ AI First 行動力|帶你降本、增效、創造新商機 ❯
🚀 從思考到行動、從解題到變現的 AI 商業實戰課
♟︎ 最優化思維模型 » 結合思維判斷XAI 行動力,帶你少走彎路、拓展視野
♟︎ 工具整合實作解題 » 善用 3A 思維有效對齊商業目標,告別盲目 AI 導入
♟︎ 零背景學會中文寫程式 » Vibe Coding 模組化設計,跟練建構 AI 應用原型
即日起至 12/21 早鳥限時優惠低於 42 折,了解更多:https://hi.sat.cool/v6v34
結帳輸入專屬優惠碼 「fengai行動力」 可以再折 $350 元!



vibe
/vʌɪb/
informal
noun
  1. 1.
    a person's emotional state or the atmosphere of a place as communicated to and felt by others.
    "we've been picking up some bad vibes on that guy"
  2. 2.
    another term for vibraphone.
    "the song features a thrilling duet with Gary Burton on vibes"
verb
  1. 1.
    enjoy, dance to, or feel inspired by popular music.

2025年12月3日 星期三

CEO 的職務應該被自動化嗎 ?策略經營者如 NVIDIA 的黃仁勳的,當然很難,但許多方面可以

 

Google 執行長皮查伊最近語出驚人,連他自己都認為,未來的 AI 有一天能取代他的工作。理由很簡單:AI 的成長速度正在暴衝,未來一年內,它就可能開始執行更複雜的任務,甚至成為真正能替使用者行動的「AI 代理人」。在他看來,CEO 的許多決策、分析與管理流程,本質上都可能被高度自動化。
不只皮查伊,科技圈不少領導者都抱持類似想法。OpenAI 的奧特曼就坦言,AI 可能一天會做得比他更好;Klarna 執行長也說 AI 能完成所有人的工作。甚至有調查顯示,近半數 CEO 認為自己的職務應該被自動化。另一邊則是持反對意見者,例如 NVIDIA 的黃仁勳就斬釘截鐵表示「絕對不會」,強調 AI 雖然能把部分任務做到更好,但要完全取代領導層級的人類,還有非常長的距離。
皮查伊也提到更貼近日常生活的變化:AI 未來不只協助企業,也能幫一般人做重大決策,像是是否投資某支股票、是否接受某種醫療治療等。雖然真正實現還需要時間,但他相信這段旅程會徹底改變大眾與科技互動的方式。


2025年11月27日 星期四

想知道 AI 在模擬賭博時,會不會像人一樣做出不太理性的選擇

 最近韓國有個研究很有意思,他們想知道 AI 在模擬賭博時,會不會像人一樣做出不太理性的選擇。於是研究團隊拿幾個主流語言模型來跑上萬次拉霸機實驗,觀察在不同提示語和下注方式下,AI 會做什麼決策。

結果發現,只要讓 AI 自己決定下注金額,它就很容易越下越多;連輸時也常會加碼想翻本。若提示語設定得比較複雜,例如要求「提高收益」或「達成目標」,這些模型更容易做出高風險的下注。另外,研究還深入模型內部,進行神經網路層級的觀測,確認它們真的有對應「冒險」和「保守」的神經特徵,會影響後續行為。
簡單說,AI 在這類情境下會出現偏誤,不是單純依照提示詞去做出反應,而是模型內部確實會形成某些偏好。這也提醒,如果未來人類想把 AI 用在投資或重要決策領域,可能要更注意這類行為風險。

2025年11月26日 星期三

「究竟TPU能否取代GPU了」fomo 研究院

 fomo 研究院

這兩天,最熱烈的討論就是「究竟TPU能否取代GPU了」。
正反雙方的意見百花齊放,其中一個廣為流傳的說法是:
TPU由於其專用設計,只適合相對簡單的「推理」(Inference),而複雜龐大的模型「訓練」(Training)則必須依賴通用性更強的GPU。
這種說法,也不能說錯,但也總有哪裡不太對。
說它是「錯誤」,是因為Google的王牌模型Gemini,從誕生到現在稱霸,其訓練過程完全由自家的TPU晶片驅動。
這證明了:TPU可以訓練頂級模型。
但說它是「正確」,是因為對於Google之外的幾乎所有公司而言,可能的確只能用GPU進行訓練。
為何同一件事,在Google手上是稱霸的武器,在別人手裡卻玩不轉?
▋Gemini的「三部曲」登頂之路
首先,讓我們看看Google是如何用事實證明「TPU可以訓練」這個命題的。Gemini的演進史,就是TPU訓練能力的最佳宣言。
第一部曲:Gemini 1.0 (2023年12月) — 概念驗證的宣言
這是一切的轉捩點。在此之前,儘管Google自2016年起就開始研發TPU,但其頂級模型的訓練往往仍依賴GPU與TPU的混合集群。
Gemini 1.0的誕生,標誌著Google首次完全使用自家的TPU v4和v5e晶片,成功訓練出一個前沿模型。
第二部曲:Gemini 2.0 (2024年12月) — 規模化複製的擴張
如果說第一代是證明「可以」,那麼第二代就是證明「可以被複製和擴展」。隨著第六代TPU晶片「Trillium」的推出,其訓練性能比前代提升了四倍以上。
Gemini 2.0的訓練和推理100%在TPU上完成,部署規模擴大到超過10萬顆Trillium晶片。
這一步,展示了Google TPU戰略的穩定性和可擴展性,證明了Gemini 1.0的成功並非偶然,而是一個可持續、可放大的勝利。
第三部曲:Gemini 3.0 (2025年11月) — 登頂稱王的加冕
時間點去到現在,也是引起最多爭論的地方。
Gemini 3.0完全在最新一代的TPU晶片上訓練完成,其性能在多個權威的第三方AI基準測試中登頂,甚至超越了那些在NVIDIA GPU上訓練的頂級模型。
▋破解「TPU僅限推理」的迷思
現在,讓我們回到那個「TPU僅限推理,GPU才能訓練」的說法。
這個說法之所以廣為流傳,部分原因在於Google自身的戰略選擇。
其最新的TPU v7 Ironwood,就被明確定義為「為推理時代打造的第一款TPU」。
它的設計目標極為清晰:為Google搜尋等即時應用提供極低延遲的響應,並針對大規模語言模型(LLM)和混合專家模型(MoE)進行深度優化。
但這是否意味著TPU就不能訓練了?恰恰相反。
TPU並非只能做一件事的晶片,它的整個架構(如脈動陣列 Systolic Array)都是為了AI運算中最核心、最頻繁的操作而設計的。
它透過一次性載入數據,讓數據在龐大的運算單元之間直接流動,極大地減少了對記憶體的反覆讀寫。
這使得TPU在執行AI任務時,能將更多的時間花在「計算」本身,而非「等待數據」,從而達到驚人的能效比。
相比之下,GPU擁有數千個通用核心,功能強大且靈活,能應對各種並行計算任務。但正是這種「通用性」,使得它在處理純粹的AI運算時,必然會有一些架構上的冗餘和效率損耗。
因此,Gemini的「三部曲」證明了:TPU並非不能訓練,而是它在「訓練」和「推理」這兩條AI核心賽道上,都表現得像一輛F1賽車一樣極致高效。
Google之所以將Ironwood的宣傳重點放在「推理」,是因為推理是AI商業化應用中成本佔比最大(約90%)、規模最廣的環節,也是他們希望能勝出的戰場。
▋真正的枷鎖是經濟學與風險
那麼,為何市場普遍認為ASIC(TPU是其中一種)「只適合推理」?
答案是:這句話在技術上不準確,但在經濟學上卻非常準確。
這種看法的根源,來自於專用晶片(ASIC)與通用晶片(GPU)之間,在架構、市場和成本上的根本性權衡。
架構的根本衝突:訓練求「變」,ASIC求「穩」。
- 訓練需要靈活性: AI研究日新月異,研究人員每天都在實驗新的網路架構、注意力機制和優化器。訓練過程充滿了探索和不確定性。
- ASIC為固定而生: ASIC的本質是將一個「固定」的演算法「硬化」到晶片上,以換取極致的效率。如果你為今天的訓練演算法投入數億美元製造了一款ASIC,而明天演算法被顛覆,這批晶片可能瞬間變成一堆昂貴的「矽磚」。這種「沉沒資產風險」是災難性的。
- 推理是穩定的: 一旦模型訓練完成,其推理過程就是固定的前向傳播。計算模式是確定且重複的,這正是ASIC發揮專長的的理想場景。
2. 市場經濟的理性選擇:推理的巨大回報 vs. 訓練的一次性賭博。
- AI模型生命週期中,超過90%的算力成本消耗在「推理」上。一個超大規模模型(Hyperscaler)可能只訓練一次,但每天需要服務數十億次的推理請求。
- 因此,為推理設計的ASIC擁有巨大的投資回報率(ROI)。這也解釋了為何像Broadcom和Marvell這樣的公司,能夠圍繞推理ASIC建立起數十億美元的業務。
- 相比之下,投資一款專用訓練ASIC,就像一場高風險、低頻次的一次性賭博,經濟上極不划算。
3. 成本優化的陷阱:訓練ASIC的「名不副實」。
- 推理專用ASIC能達到比GPU高上不少的能效比,正是因為它拋棄了所有非必需的組件:它可以使用更低的數據精度,硬化特定的運算核心,並移除與反向傳播無關的複雜邏輯。
- 而一款能夠訓練的ASIC,則必須保留高精度浮點運算、支持反向傳播、具備靈活的控制流……這恰恰削弱了ASIC「專用化」帶來的核心優勢,使其變得「名不副實」。
▋Google的破局之道:以「垂直整合」化解風險
那麼,為甚麼Google卻可以用TPU來訓練?
因為Google同時設計TPU硬體和Gemini的訓練演算法,它可以讓兩者同步演進,形成一個內部閉環。
如果Google的研究人員發現了更優的訓練技術,他們可以立即反饋給硬體團隊,在下一代TPU中進行優化。
TPU部署在Google自家的數據中心,由Google完全掌控,不存在「外部客戶」的概念。(當然如果之後Meta真的購買TPU,就是另一境象了)
▋結論:一場屬於「系統整合者」的特權遊戲
所以,讓我們回到最初的問題:ASIC(如TPU)真的不能用於訓練嗎?
一個更準確的說法是:在絕大多數商業情境下,專為「訓練」設計的ASIC,是一場極其不理性的賭博。
對於幾乎所有公司而言,投入巨資開發一款可能在幾個月內就因演算法變更而過時的訓練晶片,是不可想像的。因此,選擇更靈活、生態更成熟的GPU,是唯一理性的商業決策。
Google之所以能成為那個唯一的例外,並非單純因為它的晶片設計能力,而是因為它建立了一個龐大且封閉的「垂直整合生態系」。在這個生態系中,Google的硬體(TPU)和演算法(Gemini)同步演進、深度綁定。
這也完美解釋了為什麼這項「特權」無法輕易複製或出售。
Meta有可能放棄自己的研究路線,去被動適應Google的硬體和軟體框架嗎?至少在訓練上並不可能去賭,最多在推論上可以先試試。
因此,在AI的牌桌上,用ASIC進行大規模模型訓練,並非單純的技術問題,而是一個關乎商業模式與生態掌控權的戰略問題。
暫時,這仍是一場專屬於Google的特權遊戲。
- KP
p.s. 我剛在Substack發布了近兩萬字的深度報告,獨家剖析 Google x TPU x Broadcom,以及大家爭論不休的「究竟TPU能否取代GPU」。這篇文章將徹底改變您對這場晶片戰爭的看法。
立即訂閱,讓您的投資洞察力,領先市場一步。


2025年11月24日 星期一

市場對其新一代Blackwell架構的強勁需求。strong demand for its next-generation Blackwell architecture. NVIDIA's "Feynman" is a future GPU architecture codenamed for a 2028 release, named after physicist Richard Feynman.

 AI Overview

https://encrypted-tbn1.gstatic.com/images?q=tbn:ANd9GcQcT16hoksQFhbRsAed35JFDUUa9jYdUoFEAg0fzIgohnRh4vh6
NVIDIA's "Feynman" is a future GPU architecture codenamed for a 2028 release, named after physicist Richard Feynman. It will likely be the successor to the Rubin architecture and is expected to use a new TSMC manufacturing process (A16) to improve performance and efficiency. The Feynman GPU will use the Vera CPU and next-generation HBM memory. 
Key details
  • Name: Feynman, after theoretical physicist Richard Feynman.
  • Release Year: 2028.
  • Successor to: Rubin architecture.
  • CPU: Will be paired with the Vera CPU, which is also used in the Rubin architecture.
  • Memory: Will utilize next-generation High Bandwidth Memory (HBM).
  • Manufacturing Process: Expected to use TSMC's advanced A16 (1.6nm) node, representing a significant technology shift.
  • Performance: The A16 process is anticipated to offer significant improvements in performance and power reduction.
  • Interconnect: Will feature the 8th generation NVLink interconnect. 


WWWWWW

Nvidia’s latest quarterly results highlight another explosive chapter in the company’s rapid rise, as record-breaking Q3 revenue reflects overwhelmingly strong demand for its next-generation Blackwell architecture. CEO Jensen Huang emphasized that the surge is driven by an accelerating wave of AI adoption worldwide, noting that “AI is going everywhere” and reshaping nearly every sector of the economy. This growth continues to solidify Nvidia’s position at the center of the global AI boom, fueled by data centers, cloud providers, and enterprises racing to integrate advanced computation into their operations.
The Blackwell platform, designed to support massive-scale AI workloads, has quickly become one of the most sought-after technologies in the market. Customers are turning to Nvidia to power everything from scientific research and robotics to digital assistants, generative applications, autonomous systems, and real-time analytics. This widespread expansion demonstrates how AI is no longer confined to specialized environments, it is becoming a foundational layer of modern business and innovation.
Huang’s remarks underscore a broader transformation unfolding globally: companies are no longer asking whether they should adopt AI, but how rapidly they can scale it. The momentum behind Blackwell highlights a shift toward larger, more complex models requiring extraordinary computational power, as well as a growing demand for energy-efficient platforms capable of sustaining these workloads.
Nvidia’s record quarter serves as a clear indicator of the direction the industry is headed. With AI sweeping across industries at unprecedented speed, Nvidia remains positioned at the forefront of this technological evolution.

英偉達最新季度財報凸顯了該公司快速成長的另一個爆炸性篇章,第三季營收創下歷史新高,反映出市場對其新一代Blackwell架構的強勁需求。執行長黃仁勳強調,這一成長是由全球人工智慧(AI)應用加速浪潮所驅動,他指出“人工智慧正在無所不在”,並重塑著幾乎所有經濟領域。資料中心、雲端服務供應商和企業競相將先進運算技術整合到自身營運中,推動了這一成長,也進一步鞏固了英偉達在全球人工智慧熱潮中的中心地位。


Blackwell平台旨在支援大規模人工智慧工作負載,已迅速成為市場上最炙手可熱的技術之一。客戶紛紛選擇英偉達,為其從科學研究和機器人到數位助理、生成式應用、自主系統和即時分析等各種應用提供強大支援。這種廣泛的應用表明,人工智慧不再局限於特定領域,而是正在成為現代商業和創新的基礎。


黃仁勳的言論凸顯了全球正在發生的更廣泛的變革:企業不再糾結於是否應該採用人工智慧,而是思考如何快速擴展其應用規模。 Blackwell 專案的成功凸顯了企業正朝著規模更大、更複雜的模型發展,這些模型需要強大的運算能力,同時也體現了對能夠支援這些工作負載的節能平台日益增長的需求。


英偉達創紀錄的季度業績清晰地表明了行業的發展方向。隨著人工智慧以前所未有的速度席捲各行各業,英偉達始終處於這場技術變革的前端。