![]() 香港飛龍.online 官方授權發布的第4代「香港飛龍」標誌 本文内容: 如果您希望可以時常見面,歡迎標星收藏哦~來源:內容編譯自semiengineering,謝謝。OpenAI、Anthropic和xAI的首席執行官有着驚人相似的願景——人工智能的進步是指數級的,它將改變人類,其影響將超出大多數人的預期。這不僅僅是猜測。人工智能的市場及其價值如今已是真實存在的:1、使用GitHubCoPilot的人類開發人員藉助AI可將編碼速度提高55%。2、GPT-4在LSAT考試中的得分爲88%,而普通人的得分爲50%。3我個人正在使用ChatGPT進行西班牙語會話練習和語法練習2025年,OpenAI的大模型收入將達到約100億美元,Anthropic的大模型收入將達到20億至40億美元。四年前,GPT-2提供的是學齡前兒童的智力。GPT-4就像一箇聰明的高中生。到2028年左右,大模型(LLM)將提供博士級別的智力。到2030年代,法學碩士的智商將超越人類。人工智能的經濟效益也在不斷提升。特定模型的成本每年下降4倍(Anthropic)到10倍(OpenAI)。這是計算能力和算法改進的共同作用。這意味着到2030年,當今模型的運行成本將降至千分之一到十萬分之一。有五家以上的公司有能力和資本做到這一點,其中包括亞馬遜、谷歌、微軟等巨頭。像OpenAI和Anthropic這樣的初創公司,目前的市值都在1000億美元左右,如果它們能夠實現目標,市值將達到1萬億美元。大模型項目獲勝者將成爲首家市值10萬億美元的公司。它們的成功將給半導體、封裝、數據中心、冷卻和電力領域的增長和產能帶來巨大壓力。到2030年,半導體收入將主要來自人工智能/高性能計算。GPUvsASIC?是的:超大規模企業需要更多選擇如今,數據中心AI加速器90%以上都是NVIDIAGPU,還有一些AMDGPU,其餘的是定製ASIC(主要是亞馬遜)。NVIDIA是唯一一家提供全套解決方案的廠商——涵蓋GPU、NVlink網絡、機架、系統和軟件。在NVIDIA這一領域,想要匹敵甚至擊敗NVIDIA非常困難。該公司的年營收高達1600億美元。NVIDIA有3或4個客戶購買其超過10%的產量,每家客戶每年的購買量接近200億美元。但AMD的GPU路線圖正在追趕NVIDIA。其M350將在2025年下半年與Blackwell架構相匹配。其M400將與NVIDIA預計的Rubin架構(Blackwell的繼任者)相匹配。AMD在軟件和互連/系統方面也在迎頭趕上,希望到2026年實現年收入100億美元。即使AMD不如NVIDIA,大型超大規模計算廠商也有望爲其提供業務。他們希望找到NVIDIA的強大替代方案,而這種替代方案能夠爲超大規模計算廠商提供一些定價優勢,並且在NVIDIA供應受限的情況下,能夠更快地提升其數據中心的產能。那麼用於AI加速器的ASIC呢?就在幾年前,ASIC在投資者眼中還是個貶義詞——低利潤、低增長。現在,它卻火了,因爲超大規模企業想要更多選擇。亞馬遜、谷歌、Meta和OpenAI都在開發自己的AI加速器。當然,還有其他公司也在積極佈局。例如,博通的AI收入在三年內飆升了約10倍,約佔總銷售額的一半。同樣,Marvell的AI收入也在同一時期飆升,目前AI已成爲其最大的業務部門。在三月初的摩根士丹利技術大會上,OpenAI首席執行官SamAltman表示,如果放棄GPU的部分靈活性,特定模型的ASIC可以非常高效。別忘了,網絡過去使用x86處理器。現在則全部使用交換芯片,因爲需要處理的數據包類型變化緩慢。市場正在從以訓練爲主轉向以推理爲主。僅用於推理的ASIC可以簡單得多。關鍵在於成本和功耗。而僅限於例如Transformer模型的推理ASIC則可以更簡單、更便宜。Alchip的首席執行官表示,ASIC的性價比比GPU高40%,並且可以針對客戶的特定軟件進行優化。如今的AI加速器通常配備3納米或2納米計算引擎,在“更老”、更便宜的節點上,或許還會配備獨立的5納米SRAM和PHY芯片。Alchip首席執行官表示,AI加速器的NRE成本高達5000萬美元。博通/Marvell可能正在開發更復雜的加速器,採用更多芯片組和3D封裝,開發成本超過1億美元。超大規模計算廠商將擁有超過100人的架構團隊;超過100人負責網絡連接,還有更多人負責軟件開發。這意味着總成本將在三分之一到五億美元之間。他們能負擔得起嗎?如果一家超大規模廠商每年採購200億美元,由於有其他選擇,可以從NVIDIA獲得10%的折扣,那麼它就有能力自主研發ASIC。如果一家超大規模廠商成功打造出一款成本僅爲NVIDIAGPU一半、功耗更低的ASIC,那麼它就取得了巨大的成功。Alchip的首席執行官表示,這款ASIC的價格可能比GPU便宜40%左右。超大規模數據中心運營商可能會部署NVIDIA和AMD的GPU來處理最複雜、變化最快的工作負載,以及外部客戶,而內部變化較慢的工作負載則會使用自家的ASIC。GPU和ASIC的最終組合將取決於相對性能、功耗和可用性。可能是90%GPU和10%ASIC。或者,正如麥肯錫預測的那樣,可能是10%GPU和90%ASIC。每年僅花費10億美元的小型客戶將不得不使用GPU。https://semiengineering.com/gpu-or-asic-for-llm-scale-up/半導體精品公衆號推薦專注半導體領域更多原創內容關注全球半導體產業動向與趨勢*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅爲了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。今天是《半導體行業觀察》爲您分享的第4019期內容,歡迎關注。『半導體第一垂直媒體』實時專業原創深度公衆號ID:icbank喜歡我們的內容就點“在看”分享給小夥伴哦 (本文内容不代表本站观点。) --------------------------------- |