盡管AI芯片種類繁多,GPU因其適應性和強大的并行計算能力,仍是AI模型訓練的主流硬件。英偉達在GPU領域的技術積累和生態(tài)建設使其處于領先地位,而國內(nèi)GPU廠商雖在追趕,但仍存在差距。AI應用向云、邊、端全維度發(fā)展,模型小型化技術成熟,數(shù)據(jù)傳輸需求增加,Chiplet技術降低設計復雜度和成本。
如果大家每天需要處理數(shù)百萬億次AI模型執(zhí)行,并在生成式AI步入主流的背景下時刻準備將這樣的負載規(guī)模再提升一、兩個數(shù)量級,那GPU就是各位不可或缺的戰(zhàn)略資源。Meta Platforms明顯就是這樣,他們正拿出大筆財務預算,想要用“鈔能力”從英偉達手中奪取顯卡產(chǎn)能。
智算中心的發(fā)展依托最新AI理論和計算架構,以AI大模型和算力技術為核心。GPU主導算力芯片市場,AI信創(chuàng)推動國產(chǎn)算力。AI分布式計算市場由算力芯片、內(nèi)存和互聯(lián)設備組成。ChatGPT推動GPU需求,SK海力士HBM3產(chǎn)量售罄。CoWoS封裝技術集成HBM與處理器,臺積電領先封裝市場。AI算力需求推動高效電源技術發(fā)展,背面供電技術成為關鍵。
ChatGPT的火爆使生成式AI(AIGC)回歸焦點,AIGC指利用AI技術生成內(nèi)容,涵蓋文本、圖像、音頻等領域。AIGC產(chǎn)業(yè)圖譜V2.0展示了基礎設施、算法模型、內(nèi)容應用等生態(tài)布局。
Arm Neoverse數(shù)據(jù)中心計算路線圖剛剛迎來一系列新鮮元素,遺憾的是數(shù)據(jù)中心級獨立GPU加速器仍然缺席。
今天Nvidia公布了第四季度財務業(yè)績,結果再次超出華爾街預期,使其股價在盤后交易中走高。
根據(jù)Groq官網(wǎng)的介紹,LPU是一種專為AI推理所設計的芯片。但要訓練大模型,仍然需要購買GPU。
NVIDIA RTX 2000 Ada的推出為AI加速帶來了高性價比的解決方案,展現(xiàn)了NVIDIA在推動技術進步和賦能未來工作方式方面的前瞻性。
要說當下最困難的挑戰(zhàn),就是如何為計算系統(tǒng)采購充足的英偉達“Hopper”H100 GPU。哪怕是作為供應商的英偉達自己,也只能在有限的配額之下謹慎規(guī)劃、調(diào)撥給內(nèi)部使用。
英偉達公司今天推出了新的Nvidia RTX 2000 Ada Generation GPU,將更強大的生成式人工智能處理器打包到“緊湊型工作站”中,讓用戶能夠在設備上運行高級AI應用程序。
從最近的態(tài)勢來看,AMD旗下Instinct數(shù)據(jù)中心GPU加速器業(yè)務在2024年的表現(xiàn)似乎將比人們的預期好上不少。
各大云服務商已經(jīng)部署數(shù)以萬計的GPU與AI加速器,希望充分滿足市場在大語言模型方面的需求激增。
整個世界正為生成式AI而瘋狂,且瘋狂程度仍在與日俱增。到2027年,全球GPU硬件總支出將達到4000億美元。
AMD在圣何塞召開的Advancing AI大會上公布了MI300產(chǎn)品家族,基本與英偉達、英特爾和其他AI加速器廠商的節(jié)奏保持一致。
一個月前,在英偉達通過財務會議放出的技術路線圖中,可以看到GH200 GPU和H200 GPU加速器將作為“Blackwell”GB100 GPU和B100 GPU之前的過渡產(chǎn)品,而Blackwell家族計劃在明年年內(nèi)推出。
近日,Imagination Technologies推出IMG DXD,這是支持DirectX的高性能GPU IP新產(chǎn)品線的首款產(chǎn)品。
Omdia發(fā)布統(tǒng)計,認為在一定時期之內(nèi),服務器市場將繼續(xù)以GPU為最主要的核心組件。這家市場研究機構估計,單英偉達H100 GPU這一款產(chǎn)品在今年第二季度的出貨量就超過了900噸。
Nvidia公司正在和位于多倫多的初創(chuàng)公司Xanadu Quantum Technologies展開合作,首次實現(xiàn)在超級計算機上運行量子計算模擬。
Nvidia近日宣布推出一款名為TensorRT-LLM的新開源軟件套件,擴展了Nvidia GPU上大型語言模型優(yōu)化的功能,并突破了部署之后人工智能推理性能的極限。
NVIDIA L40S GPU 結合 NVIDIA Omniverse 平臺,將加速計算密集型的復雜應用,推動生成式 AI 發(fā)展并開啟更多可能性。