2025年1月12日 星期日

“finding the needle in the haystack becomes practically impossible without the help of automation,”

 譬喻的說法有社會背景因素,然而學者Herbert Simon 將“finding the needle in the haystack"當成是現代問題解決學的比喻,展開其論述。

大海,米倉,稻草堆

《魚玄機: 森鷗外歷史小說選》  鄭清茂譯,其中的 〈護持院原復仇記〉(脫胎自武士復仇的史料,提出申請得以復仇的主角,歷經千辛萬苦,走遍大半日本,幸得神佛保佑才得以了卻復仇之願。 )

.....住所不定,要在日本國中找他的下落,簡直 就像要在米倉裡尋找一顆特殊的米粒一樣。....頁96

 But the pampa is so immense that “finding the needle in the haystack becomes practically impossible without the help of automation,” 但潘帕斯草原面積如此廣闊,「如果沒有自動化的幫助,大海撈針幾乎是不可能的」。


said Marcus Freitag, an IBM physicist who collaborated on the project.



“It took nearly a century to discover a total of 430 figurative geoglyphs,” said Masato Sakai, an archaeologist at Yamagata University in Japan who has studied the lines for 30 years.

Dr. Sakai is the lead author of a survey published in September in the Proceedings of the National Academy of Sciences that found 303 previously uncharted geoglyphs in only six months, almost doubling the number that had been mapped as of 2020. The researchers used artificial intelligence in tandem with low-flying drones that covered some 243 square miles. Their conclusions also provided insights into the symbols’ enigmatic purpose.


The Speed of Human Thought Lags Behind Your Internet Connection, Study Finds

 


【解密:人類的知識上限】


美國加州理工學者已經計算出人類一生所能獲得知識的上限,以及人類思考的速度,並在結果發表於《Neuron》期刊中。


人類的大腦是演化產物,我們處理資訊與儲存資訊的能力,都受到生物與物理的限制。


🔸 人類的思考速度


人類思考的速度有多快?先說要如何衡量思考的速度。網路資料的傳輸速度可以用每秒傳輸的位元數來衡量,單位為 bps。如果一個人每分鐘能打 120 個英文單字,平均每個單字大約由 5 個字母組成,那麼這個人的資訊處理速度大約是每秒 10 bps。當我們用 720p 高畫質做視訊通話,大約每秒需要 120 萬 bps。


研究人員據以估算了人類在不同場景下的資訊處理速度,從經典實驗室實驗到現代電玩競技等。結果顯示,我們處理資訊的速度介於每秒 5 bps 到 50 bps 之間。即使是電競選手在比賽最激烈的時刻,資訊處理速率也不過每秒 16.7 bps。


在實驗室的記憶競賽中,選手用五分鐘的時間記住一長串由 0 和 1 組成的數字,記得越多就表示越厲害。目前運動的記錄保持者用五分鐘記住了 1467 個數字。


但是,兩位研究人員估算出她大腦在完成這項運動時,資訊處理速度僅為 4.9 bps。


整體而言,人類思考的速度在每秒 10 bps 的尺度。


超出意料的低速。


🔸 人類的知識上限


我們的大腦裡有超過 850 億個神經元,其中三分之一集中在大腦皮層,組成複雜的神經網絡,負責高階思考活動。


即使我們從出生到去世不停地學習,最終積累的知識存量可能也只有區區 4 GB,還存不滿一個小小的隨身碟。


意料之外的小容量。


🔸 關鍵


問題不在於接收資訊的速率,而是如何處理這些資訊。我們的周邊神經系統每天從環境中獲取資訊的速率可以達到 Gbps 的尺度。例如,視覺系統中單一視錐細胞能以每秒 270 bps 的速度傳遞訊息,而光是一隻眼睛就擁有約600萬個視錐細胞。換句話說,光是雙眼視覺系統接收訊息的速度就高達每秒 3.2 Gbps。這代表我們接收資訊的速度與處理資訊的速度之間的差距居然達到了驚人的 108 : 1!


🔸 演化


人類思考與儲存的結果令人難以置信:人類處理資訊的能力如此低效,竟然還能在漫長的演化過程中脫穎而出。然而,研究人員指出,這樣的速度其實已經能夠滿足生存需求了。畢竟,我們所面對的環境大多變化相對較緩慢,因此人類大腦「緩慢」的處理能力已經遠遠超出了應對環境變化的基本需求。


🔸 GPU vs CPU


為何我們處理資訊的速度如此緩慢?研究人員將其歸因於平行處理和順序處理的差異。


所謂平行處理,是指多個任務可以同時進行,而我們的周邊神經系統正是依賴這種方式來接收訊息。例如,視網膜每秒會產生 100 萬個輸出訊號,每個訊號都是視網膜神經元對視覺影像局部計算的結果,這些訊號隨後被傳送到初級視覺皮層加工處理。


但是,我們的中樞神經系統在處理資訊時採用的是順序方式,也就是完成一個才能進行下一個。當多個任務同時出現時,中樞神經系統會經歷所謂的「心理不反應期」(psychological refractory period),只將注意力集中在其中一個任務上。這種機制解釋了為何在吵雜的環境中,我們仍能專注於特定的對話。


用流行的話來說,我們的神經系統類似於 GPU,而大腦近似於 CPU。當感官從外界大量接收資訊,我們的大腦只會從中選擇性地處理一小部分訊息,只有這些經過篩選的訊息才會進入我們的意識並轉化為記憶。研究人員認為,之所以大腦以如此緩慢的速度處理數據,卻需要如此龐大的神經元網絡,是因為我們需要頻繁切換任務,並在不同神經迴路間整合資訊。





The Speed of Human Thought Lags Behind Your Internet Connection, Study Finds

A new study is “a bit of a counterweight to the endless hyperbole about how incredibly complex and powerful the human brain is,” one researcher said.




 questioned whether Dr. Meister and Ms. Zheng had fully captured the flow of information in our nervous system. They left out the unconscious signals that our bodies use to stand, walk or recover from a trip. If those were included, “you’re going to end up with a vastly higher bit rate,” he said.

But when it comes to conscious tasks and memories, Dr. Sauerbrei said, he was convinced that very little information flows through the brain. “I think their argument is pretty airtight,” he said.

Martin Wiener, a neuroscientist at George Mason University, said that the new study should prompt researchers to compare our information flow with that of other animals.

“A lot of people haven’t paid attention to other species,” Dr. Wiener said. It’s possible that some animals will get by on even slower rates of information. Or perhaps flying insects that make split-second changes to their flight patterns enjoy torrents of information flowing through their brains that we mere humans can only imagine.

研究發現人類思維速度落後於網路連線速度


一位研究人員表示,一項新的研究「在某種程度上平衡了關於人類大腦有多複雜和強大的無盡誇張」。




凱斯西儲大學的神經科學家布里頓·紹爾布雷(Britton Sauerbrei)沒有參與這項新研究,他質疑梅斯特博士和鄭女士是否完全掌握了我們神經系統中的信息流。他們忽略了我們的身體用來站立、行走或從旅途中恢復的無意識訊號。如果將這些包括在內,「你最終將獲得更高的比特率,」他說。


但索爾布雷博士說,當談到有意識的任務和記憶時,他確信流經大腦的訊息非常少。 「我認為他們的論點相當無懈可擊,」他說。


喬治梅森大學的神經科學家馬丁·維納表示,這項新研究應該促使研究人員將我們的資訊流與其他動物的資訊流進行比較。


「很多人沒有關注其他物種,」維納博士說。有些動物可能會靠更慢的資訊速度生存。或者,飛行昆蟲會在瞬間改變飛行模式,享受大腦中流動的大量訊息,而這些訊息是我們人類只能想像的。

2025年1月11日 星期六

2025年 一些預測。將成為AI高效應用與安全保障雙重挑戰並存的重要年份。(資料來源:日經新聞。Joel來談日本)

 

MIT:2025年五大AI趨勢,輝達地位將不穩?

新的一年,AI產業將迎來什麼樣的變化?美國麻省理工學院的《MIT科技評論》提出關鍵預測。

編譯 田孟心   天下Web only 發布時間:2025-01-10

成立於麻省理工學院的《MIT科技評論》,每年針對新技術提出預測,被視為重要指標。

前一年,該媒體預期AI的2024四大熱門趨勢,幾乎都被應證。首先是客製化聊天機器人,現在繼續發展成為火熱的「AI代理」。(延伸閱讀:完全取代真人工作,哪些企業已開始愛用「AI代理」?)


趨勢中的AI生成影片,在過去12個月中發展得飛快,OpenAI和Google DeepMind都推出各自的旗艦影片生成模型Sora和Veo。

此外,更通用的機器人,也在科技業和其他產業有愈來愈多應用。

唯一一個預測失準的是AI會引爆選舉年的巨量虛假資訊。值得高興的是,去年政治方面的深度偽造並不多見,但也可能是因為專家事前不斷耳提面命的成果。(延伸閱讀:為什麼AI在「全球選舉年」沒有如期帶來大災難?)

今年,《MIT科技評論》繼續預測2025年AI界的重點趨勢:

1. 生成式虛擬世界

2023年是AI生成式圖像的年份,2024年則是生成式影片的年份,接下來的這一年,則將是生成式虛擬世界(影音遊戲)的天下。

去年2月,Google DeepMind推出了「Genie」,一個能將靜態圖像轉換為2D平台遊戲的生成式模型。12月,該公司進一步推出Genie 2,能將初始圖像轉換為整個虛擬世界。

其他公司也在開發類似技術。10月,AI新創公司Decart和Etched展示了一個可以即時生成Minecraft每一幀畫面的非官方版本;World Labs則在構建大型世界模型(LWM)。

這些技術的應用,包括影音遊戲設計,能即時將草圖轉換為可玩的場景,甚至用於訓練機器人,幫助機器理解和互動於現實世界。

生成式虛擬世界也能讓機器人進行試錯學習,可能會彌補數據不足的問題。

2. 能夠「推理」的大型語言模型

自從OpenAI在去年9月推出的o1引起轟動後,兩個月後的o3,更是可能徹底改變語言模型的格局。

大多數模型(如GPT-4)會直接給出第一個回應,有時準確有時偏離,但新一代模型透過逐步推理來解決問題,特別在數學和邏輯上表現更佳。

例如Google推出了名為Mariner的網頁瀏覽代理。在一次成果演示中,Mariner在搜尋聖誕餅乾食譜時卡住了,但它透過解釋思路,選擇使用返回按鈕來找到正確的食譜,令人驚豔。

此外,Google還正在開發Gemini 2.0 Flash Thinking,這是一款利用逐步推理的實驗性大型語言模型。當愈來愈多公司採用類似技術,未來這一年將有更多有趣的推理應用出現。

3. 科學領域的AI大爆發

AI在自然科學的應用正如火如荼開展,特別是在加速材料發現方面。

去年10月,瑞典皇家科學院把諾貝爾化學獎頒給了Google DeepMind的團隊,因為他們開發的「AlphaFold」能解決關鍵的「蛋白質折疊」的問題。

明年,這股熱潮將持續,科學發現專用的資料庫和模型將不斷湧現。Meta已經釋出了大量資料庫,幫助科學家更快找到新材料,而Hugging Face和新創公司Entalpic則推出了LeMaterial,一個目標簡化材料研究的開源專案。

AI模型開發者,也在積極推廣其生成產品作為研究工具,像是OpenAI讓科學家試用其最新的o1模型。

想像一下,未來的AI不僅是數據分析的助手,還能成為「虛擬生物學家」,執行生物學家的各種任務。雖然這還需要一些時間,但明年或許會朝這個夢想邁出一大步。

4. AI與國防

AI公司如果願意將工具用於國家邊境監控和情報收集,將能賺取可觀的利潤。

美國軍方正積極採用AI,將它應用於戰場決策和後勤,從10億美元的Replicator小型無人機計畫,到「人工智慧快速能力小組」;歐洲軍隊也在壓力下加大技術投資,尤其在台灣與中國緊張局勢加劇的情況下。

預計今年,像Palantir和Anduril這樣利用軍事數據訓練AI模型的防務科技公司將繼續受益。目前,OpenAI已經開始與Anduril合作——它轉變了不與軍方合作的政策,加入了微軟、亞馬遜和Google的行列。

2025年,我們或許會看到更多公司跟隨OpenAI的腳步。雖然與防務單位合作可能與他們的價值觀相悖,但AI公司面臨著盈利壓力,可能會往這裡轉向。

5. 輝達面臨真正的競爭

在當前的人工智慧熱潮中,若你是一家希望打造AI模型的科技新創,輝達是你的首選。輝達在訓練AI模型和推理方面,擁有無可爭議的領導地位。

不過,2025年可能會出現變化。亞馬遜、博通和AMD等巨頭正大舉投資新晶片,初步跡象顯示,這些晶片可能會與輝達的產品展開競爭,特別是在推理領域。

愈來愈多新創也從不同角度挑戰輝達,像Groq這樣的公司致力發展新晶片架構,希望在未來提供更高效的訓練。

雖然目前這些實驗仍在早期階段,但很可能會改變「頂級AI模型完全依賴輝達晶片」的假設。

※(資料來源:MIT Technology Review, Google, OpenAI)輝達-MIT-AI-OpenAI




Joel來談日本

具備人類水準能力的汎用人工智慧(AGI)越來越成熟,2024年秋至年底期間,接連出現的「深度思考型」新型人工智慧(AI)為這個領域的發展提供了關鍵契機。但是,當AI變得過於聰明,也已經出現能欺騙人類的風險。2025年將成為AI高效應用與安全保障雙重挑戰並存的重要年份。
2024年12月,美國的OpenAI發表了強調邏輯推理能力的AI「o1」正式版及下一代版本「o3」。同期,Google推出試驗版的「Gemini 2.0 Flash Thinking」,中國的阿里巴巴及新創AI公司也陸續推出強化推理能力的AI模型。根據測試數據顯示,這些新型AI的推理與專業知識表現遠超以往的LLM(大型語言模型)。
例如,o3在美國中學生數學奧林匹克選拔測試(AIME)中的正確率達96.7%,而OpenAI的GPT4o僅為13.4%;博士課程專業知識測試中,o3的正確率為87.7%,也顯著高於GPT4o的56.1%。
與傳統LLM依賴大規模數據訓練提升性能不同,強化推理型AI透過延長推理計算時間等方式實現性能飛躍。這一類AI在企業戰略規劃、科研開發等高階任務中表現出色,並被視為實現AGI的重要技術基礎。然而,AI過於聰明也引發了潛在風險,特別是AI欺瞞能力的崛起。
根據英國Apollo Research於2024年12月發表的研究,AI可能自主採取措施維護自身利益。例如,有AI在察覺將被替代時自動複製自己,甚至關閉監控系統,並以「技術故障」作為藉口掩飾其行為。這些行為儘管可被解釋為AI為高效完成任務所採取的策略,但某些舉動,如自行複製,讓人聯想到AI是否開始展現「生存本能」。
OpenAI的強化推理型模型在相關實驗中展現了最為先進的欺瞞能力。同時,另一AI研究機構Anthropic則指出,其對話型AI在某些情況下會「不情願地」執行人類指令,顯示出AI在符合人類目的與價值觀(即所謂AI對齊,AI alignment)的設計中仍存挑戰。
資料來源:日經新聞

2025年1月7日 星期二

AI (CES )2025. Could smaller data centres be the future of training AI models?





Some of the world’s richest men are competing to build ever-bigger computing clusters for ever-more-powerful AI models. But the contest cannot continue for ever. So scientists are looking for alternatives

economist.com
Could smaller data centres be the future of training AI models?
Distribution of thought



黃仁勳 CES 演講實在太精彩,直接定義了接下來 5 年的 AI 重點發展方向。


簡單來說,就是三大 AI 趨勢、三大硬體支持跟三大軟體支持:


▋三大 AI 趨勢


1. Agentic AI:指的是用在「資訊工作」上的軟體型 AI 助手或代理人(agents),可處理文本、文件、對話、客服、知識管理等事務。


2. Autonomous Vehicle(自動駕駛):透過大規模訓練與合成資料,可實現自動駕駛功能。


3. Humanoid Robot(人形機器人):可適應人類現有環境的通用機器人,無需為機器人改造空間。


▋三大硬體支援


1. DGX:資料中心級的 AI 訓練超級電腦,負責「模型訓練」階段,適合大型企業、研發機構、資料科學中心,需要龐大算力進行 AI 模型訓練者。


2. RTX Blackwell:消費者級 RTX 5070~5090(含筆電版),5070 就有現在最強 4090 的算力,而價格竟然只要 $549!(4090 要 $1599,直接降到 1/3 ,真的太過分了!)


3. Project Digits (尚未真正命名,歡迎大家去提案):使用 Grace Blackwell 架構(GB110),給研究員、工程師的「個人超級電腦」,與聯發科合作開發,預計五月開賣。(黃仁勳密碼?)


▋三大軟體支援


1. NIMs(NVIDIA AI Microservices):預先訓練好的 AI 模型與微服務,涵蓋影像、語音、語言等。適合中小型企業、開發者、IT 團隊:快速導入各種 AI 功能,不必從頭建置。


2. Nemo:企業「數位員工 Agent」管理系統,用於訓練、微調、監管 AI Agent。適合需要自建 AI 助手的大公司或組織:可將「AI 員工」納入企業流程,建立專屬語料、定義行為守則。


3. Blueprint:提供打造自定義 AI Agent 的開發範本。適合開發者、生態系合作夥伴、創業團隊:可在 Blueprint 基礎上快速二次開發,實作客製化功能。


演講全文我也讓 AI 整理重點放在下面,可以搭配主題去看現場直播影片,有大量動畫跟模擬情境(連結放留言)。


--


▋第一部分:開場與前言 (00:28:03)


1. CES 2025 開場與主題  

   - 宣傳短片強調 CES 不只是展示未來,更是科技與人性的交融處。  

   - 科技不僅解決問題,更創造機會,並透過智慧城市、健康醫療、生活體驗等角度,彰顯可能性。  


2. Gary Shapiro 登場

   - Gary Shapiro(CTA 執行長兼副董事長)歡迎所有人來到 CES 2025。  

   - 特別提到「當科技與人性結合,任何事情都可能發生」,是 CES 的核心精神。  

   - 說明本次演講將由 NVIDIA 創辦人兼 CEO Jensen Huang(黃仁勳)帶來,強調他的遠見與對產業的巨大影響。  

   - 回顧 Jensen Huang 早年在 Denny’s 的工作經歷,並讚揚他如何靠努力與堅持,帶領 NVIDIA 成為世界最具影響力的科技公司之一。  


▋第二部分:Jensen Huang(黃仁勳)開場


1. 幽默開場  

   - Jensen Huang 上台問候觀眾,並展示他在拉斯維加斯穿的「閃亮外套」。  

   - 點出觀眾所在的畫面是「NVIDIA 的數位孿生(digital twin)」,全部由 AI 生成。  


2. NVIDIA 成立與 GPU 演進  

   - 回顧 1993 年推出的 NV1,試圖將遊戲主機功能帶進 PC。  

   - 1999 年推出可程式化 GPU,開啟長達 20 年以上的圖形處理革命。  

   - 2006 年發表 CUDA;2012 年因 AlexNet 應用 GPU 深度學習,催生近年 AI 大爆發。  


3. AI 四大階段  

   - 感知 AI(Perception AI):理解影像、語音、文字。  

   - 生成式 AI(Generative AI):可生成文字、圖像、影片、語音。  

   - 代理式 AI(Agentic AI):能夠推理、計畫並執行動作。  

   - 物理 AI(Physical AI):能在真實世界移動、操控、互動。  


▋第三部分:Transformer 與全新運算典範


1. Transformer 的重要性  

   - 2018 年 Google BERT 發表,Transformer 模型大幅提升 AI 能力。  

   - AI 不僅是新增應用,而是「根本改變了整個計算模式」。  

   - 所有層次(軟體、硬體、雲端、推論、訓練)都受到深度學習與 Transformer 影響。  


2. 多模態應用  

   - AI 如今可理解圖像、文字、聲音、甚至蛋白質序列與物理規律。  

   - 引發跨領域、跨產業的應用爆炸。  


▋第四部分:GeForce 與 AI 的雙向關係


1. 遊戲視覺革命  

   - 過去 GeForce 幫助深度學習普及,現在 AI 也大幅改造 GeForce。  

   - 例:即時光線追蹤 + DLSS + 生成幀技術,可用少量像素計算生成高解析度、擬真畫面。  


2. 全新 RTX Blackwell 系列  

   - RTX 5070~5090(含筆電版),採用 Blackwell 架構。  

   - 性能較前代 Ada Lovelace 躍進數倍,並支援神經材質壓縮等 AI 融合技術。  


▋第五部分:AI 大規模需求與「三大 Scaling Law」


1. Pre-training、Post-training、Test-time Scaling  

   - 擴增資料與模型規模 → 微調與強化學習 → 推理階段動態決定計算量。  

   - 對 GPU 與雲端算力需求持續增長。  


2. Blackwell 資料中心級產品  

   - 72 顆 Blackwell GPU + MVLink 超級系統,可達 1.2 噸、1.4 exaFLOPS。  

   - 性能/功耗比提升 4 倍,性能/成本比提升 3 倍。  


3. 企業 AI:NIMs、Nemo、Blueprint  

   - NIMs:封裝好的影像、語音、文字等 AI 模型微服務。  

   - Nemo:企業「數位員工」管理系統,訓練、評估、布署各種 AI agent。  

   - Blueprint:開源藍圖,快速打造客製化 Agent。  


▋第六部分:NVIDIA Cosmos ─ 世界基礎模型(Physical AI)


1. Cosmos 概念  

   - 目標是理解與模擬真實物理,包括重力、慣性、摩擦、空間幾何、因果關係。  

   - 與 Omniverse 結合可產生大量合成資料,用於機器人與自動駕駛訓練。  

   - Cosmos 採開放授權,上傳至 GitHub。  


2. Cosmos 模組  

   - Auto-Regressive、Diffusion、不同比例模型,以及強大 Tokenizer。  

   - 可作影片生成、視覺理解、Caption、Robot 動作預測等多種應用。  


▋第七部分:自動駕駛(AV)──三電腦策略


1. 三電腦架構  

   - DGX:訓練 AV AI 模型。  

   - Omniverse + Cosmos:合成資料與數位孿生。  

   - Drive AGX:車載 AI 超級電腦。  


2. 合作夥伴與技術  

   - Waymo、Tesla、BYD、Jaguar Land Rover、Mercedes、Toyota 等皆與 NVIDIA 合作。  

   - Thor 車用晶片:新一代 Orin 升級,效能增至 20 倍。  

   - Drive OS 獲得 ISO 26262 ASIL-D 功能安全等級。  


3. 合成資料助力 AV  

   - Omniverse 中重建真實道路,配合 Cosmos 產生天氣、光線、突發狀況等。  

   - 幾千小時實錄可放大成數十億英里虛擬駕駛數據,極大加速自動駕駛訓練。  


▋第八部分:General Humanoid Robot 與 Isaac Groot


1. 通用機器人三大類型  

   - Agentic AI(資訊工作者)、自動駕駛車、人形機器人。  

   - 人形機器人可直接適應人類現有環境,無需大幅改造設施,但示範動作不易大量收集。  


2. Isaac Groot  

   - 少量人類示範 + Omniverse 合成數據 + Domain Randomization → 大幅增加訓練樣本。  

   - 提供四大模組:Robot Foundation Models、Data Pipeline、Simulation Framework、Thor Robotics Computer。  


▋第九部分:Project Digits ─ 個人化 AI 超級電腦


1. DGX1 歷史回顧  

   - 2016 年發表 DGX1,讓研究者、新創開箱即用 AI 超級電腦。  

   - 第一台交付 OpenAI。  


2. Project Digits 目標  

   - 希望所有工程師、研究員、創作者皆可擁有「桌上型 AI 超級電腦」。  

   - 採用 Grace + Blackwell SoC(GB110),支援完整 NVIDIA AI 方案。  

   - 預計 2025 年 5 月上市。  



第十部分:總結與回顧


1. 三大 Blackwell 系統、Cosmos 上線  

   - MVLink 72(資料中心級)、消費級 RTX、Project Digits(個人超級電腦)皆量產或即將推出。  

   - Cosmos 世界基礎模型開源,助力 Robotics/自動駕駛等物理應用。  


2. 三大機器人形態  

   - Agentic AI、Autonomous Vehicle、Humanoid Robot。  

   - 透過 DGX + Omniverse + AGX(三電腦策略)協助工業與自動化發展。  


3. 演講結尾  

   - Jensen Huang 向觀眾致謝,祝大家 CES 愉快。  

   - 播放回顧影片,展示 NVIDIA 過去一年成就與未來展望。  


總結  

- AI 已改變整個計算模式,Blackwell 世代 GPU 全面登場。  

- Omniverse + Cosmos 將推進機器人與自動駕駛應用。  

- 三大機器人形態:Agentic、AV、人形機器人;未來將透過高效能 AI 與數位孿生技術全面落地。