![]() 第4代「香港飛龍」標誌 本文内容: 公衆號記得加星標??,第一時間看推送不會錯過。來源:內容編譯自tomshardware。近年來,AI GPU 的功耗穩步上升,預計隨着 AI 處理器集成更多計算能力和 HBM 芯片,功耗還將繼續上升。我們一些業內人士表示,Nvidia 計劃將其下一代 GPU 的熱設計功耗 (TDP) 設定在 6,000 瓦至 9,000 瓦之間,但韓國領先的研究機構 KAIST 的專家認爲,未來 10 年,AI GPU 的熱設計功耗 (TDP) 將一路飆升至 15,360 瓦。因此,它們需要相當極端的冷卻方法,包括浸入式冷卻甚至嵌入式冷卻。直到最近,高性能風冷系統(包括銅散熱器和高壓風扇)足以冷卻 Nvidia 的 H100 AI 處理器。然而,隨着 Nvidia 的 Blackwell 將其散熱功率提升至 1200W,Blackwell Ultra 又將其 TDP 提升至 1400W,液冷解決方案几乎成爲必需。Rubin 的散熱性能將進一步提升,TDP 將提升至 1800W;而 Rubin Ultra 的 GPU 芯片和 HBM 模塊數量將翻倍,TDP 也將一路飆升至 3600W。韓國科學技術研究院 (KAIST)的研究人員認爲,Nvidia 及其合作伙伴將在 Rubin Ultra 中使用直接芯片 (D2C) 液冷技術,但對於 Feynman,他們將不得不使用更強大的冷卻技術。韓國科學技術研究院 (KAIST) 的研究人員預測,AI GPU 模塊(尤其是 Nvidia 的 Feynman)的功耗將達到 4,400W,而業內其他一些消息人士則認爲,Nvidia 的 Feynman Ultra 的 TDP 將提升至 6,000W。如此極端的散熱要求需要採用浸入式冷卻技術,即將整個 GPU-HBM 模塊浸入導熱液中。此外,此類處理器及其 HBM 模塊預計將通過熱通孔 (TTV) 引入,TTV 是硅基板上專用於散熱的垂直通道。這些 TTV 將與嵌入 HBM 模塊基片中的熱粘合層和溫度傳感器配對,以實現實時熱監控和反饋控制。預計到 2032 年,浸入式冷卻將足夠好,屆時後 Feynman GPU 架構將把每個封裝的 TDP 提高到 5,920W(後 Feynman)甚至 9000W(後 Feynman Ultra)。需要注意的是,GPU 模塊中的主要功耗是計算芯片。然而,隨着後 Feynman 時代 HBM 堆棧數量增加到 16 個,並且 HBM6 的單堆棧功耗增加到 120W,內存的功耗將在 2000W 左右,約佔整個模塊功耗的三分之一。韓國科學技術研究院 (KAIST) 的研究人員推測,到 2035 年,AI GPU 的功耗將增至約 15,360 瓦,這將需要爲計算和內存芯片組配備嵌入式冷卻結構。專家們提到了兩項關鍵創新:將熱量從熱點橫向轉移到冷卻接口的熱傳輸線 (TTL),以及允許冷卻液垂直流過 HBM 堆棧的流體硅通孔 (F-TSV)。這些技術直接集成到中介層和硅片中,以保持熱穩定性。到 2038 年,全集成散熱解決方案將更加普及和先進。這些解決方案將採用雙面中介層,實現兩側垂直堆疊,並在整個過程中嵌入流體冷卻。此外,GPU-on-top 架構將有助於優先從計算層散熱,而同軸 TSV 則有助於平衡信號完整性和熱流。https://www.tomshardware.com/pc-components/cooling/future-ai-processors-said-to-consume-up-to-15-360w-massive-power-draw-will-demand-exotic-immersion-and-embedded-cooling-tech*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅爲了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。今天是《半導體行業觀察》爲您分享的第4068期內容,歡迎關注。加星標??第一時間看推送,小號防走丟求推薦 (本文内容不代表本站观点。) --------------------------------- |