2025年底,網路上最火熱的話題不是去哪跨年,而是忙著湊齊Google One的五人揪團。這群原本只貪圖便宜雲端空間的「AI麻瓜」,卻意外晉身為頂級AI算力的用戶,上演了一幕魔幻劇:「我就是那個買硬碟送大腦的,請問這AI能幹嘛?」
算力游牧民族 轉投Google懷抱
與此同時,許多原先是GPT的老訂戶,在驚豔於Gemini 3的強大功能後,化身為「算力游牧民族」,果斷轉投Google懷抱。
然而,當這些「湊熱鬧的觀光客」(麻瓜)與「進大觀園的劉姥姥」(GPT原訂戶),開始狂玩Gemini Banana(即Gemini 2.5 Flash/3 Pro的影像生成模型暱稱)時,大家卻驚訝發現:最近Gemini似乎「變笨、變懶」甚至「撂挑子怠工」了。
Google Nano Banana生成繪圖(尤其是高解析度)極吃硬體資源,為應付海量新用戶的繪圖需求,Google在後台暫時調低了每個Request的算力分配。表現形式就是,原本該用高算力直接生成的內容,AI模型選擇較節省算力的路徑,直接調用Google搜尋引擎現成的資料(RAG),這遠比啟動核心大腦去進行複雜邏輯推理或創意生成,更節省算力成本,但結果就是使用者覺得它「變懶了」。
AI底層算力不足仍是巨大痛點
查理.蒙格(Charlie Munger)曾言:「反過來想,永遠反過來想。」大眾眼中的「AI變笨、體驗變差」,恰恰證明了AI變革的底層算力仍然是巨大的痛點。
這就像蘇聯第一顆衛星史普尼克1號升空時,美國才驚覺太空基建的匱乏。算力危機本質很簡單,即「模型需求增長速度>硬體供給擴容速度」,當前AI基建投資根本不是太多,而是太少、太慢了。
算力賽道 盯緊七大硬體支柱
沒有扎實的硬體支撐,任何趨勢革命都只是口號。解決「算力荒」的一勞永逸解方,就是建構更多「數位鐵軌」。這是一場長達十年的雪球賽道,我們必須盯緊以下七大硬體支柱:
1.增蓋AI算力中心(Data Centers):這是物理擴容的基礎,需要地、需要機房、需要AI伺服器。
2.添購GPU或ASIC:無論是Google的TPU v6/v7或NVIDIA的Blackwell/Rubin,這就是新時代的「蒸汽火車頭」。
3.增購HBM(高頻寬記憶體):這是目前的最大瓶頸。現在AI變慢不是GPU算不動,而是資料塞在記憶體通道上。HBM3E甚至HBM4是打破「記憶體牆(Memory Wall)」的唯一解方。
4.增購企業級NVMe SSD:這對於RAG(檢索增強生成)至關重要,AI需要極快速度從海量資料庫撈取數據。
5.能源供給與散熱:這是最硬核的物理上限。一個大型AI算力中心吃掉的電量相當於一個中型城市。且風冷已壓不住新一代GPU的熱量,液冷技術(Liquid Cooling)將成為標配。
6.高速光通訊與交換器(CPO/Silicon Photonics):這是神經網絡的傳導系統。當10萬顆GPU串聯時,如果網通設備跟不上,GPU就會大量時間在「空轉」,造成AI回答延遲。
7.先進封裝產能:這是晶片的「縫合術」。買了GPU也買了HBM,若無台積電的CoWoS技術將兩者封裝,一切都是白搭。
AI算力危機本質上就是一場「速度與容量的軍備競賽」。目前的AI基建(數位鐵軌)完成度恐怕不到三分之一。從運算核心、記憶體、儲存、封裝到傳輸神經,乃至於最底層的數位煤炭(電力與散熱),這條產業鏈上的好日子還長著。
面對AI暫時的「變笨」,對有先見的投資人反而是個訊號,因為這代表我們仍處於這場超級循環的早期階段。
更多文章就在 [理財周刊1324期] 👈點紅字看完整精彩內容


