四虎影视精品永久在线观看,中文字幕婷婷日韩欧美亚洲 ,婷婷成人综合激情在线视频播放,中文在线а√天堂,伊人久久大香线蕉成人

ChatGPT火爆背后凸顯算力產業(yè)發(fā)展兩大短板

作者:李祥敬
2023-02-17

總體來說,ChatGPT的快速滲透、落地應用,也將大幅提振算力需求,這將刺激整個算力產業(yè)鏈,包括數(shù)據(jù)中心、AI芯片、服務器等將迎來重要的發(fā)展機遇。

即使是不關注互聯(lián)網(wǎng)的普通大眾,這些天也會被ChatGPT刷屏。

ChatGPT針對人們的問題,給出了令人驚艷的回答,而不是以往的“天書”。

通過學習大量現(xiàn)成文本和對話集合,ChatGPT能夠像人類那樣即時對話,流暢地回答各種問題,包括回答歷史問題,到寫故事,甚至是撰寫商業(yè)計劃書和行業(yè)分析等。

而這一效果的實現(xiàn)離不開人工智能技術的發(fā)展,特別是強大算力的支持。

ChatGPT是生成式AI的一種形式,其背后的支撐是人工智能大模型。而大模型參數(shù)量、數(shù)據(jù)量高度擴張,算力需求陡增。

寧暢副總裁兼CTO趙雷告訴記者,ChatGPT的火爆其實凸顯了算力產業(yè)的難題——算力密度和效率,以及算力成本。

算力密度和效率是個大問題

在算力方面,GPT-3.5總算力消耗約3640PF-days(即每秒一千萬億次計算,運行3640個整日)。這僅僅指的是ChatGPT在訓練階段消耗的算力。

趙雷表示,AI模型訓練通常意義上來說要比推理高一個數(shù)量級的算力,也就是說,至少是10倍算力。對于訓練來說,一般是周級或者是月級響應;而推理的話基本上是實時或者半實時的,它的響應是秒級的。

趙雷說,ChatGPT所需要的算力是巨大的,而實現(xiàn)理想人工智能的算力需求至少需要現(xiàn)在100-1000倍的算力。(如ChatGPT至少需要現(xiàn)在100倍算力,元宇宙需要現(xiàn)在1000倍的算力。)

寧暢系列人工智能服務器

目前,我國總體算力不足,而且算力分布不平衡,需要進行算力協(xié)調,而這需要云計算技術來解決。

趙雷表示,其實我們需要借助液冷或者深度定制方式提高算力效率。算力的應用類型越窄,它的效率就會越高。越通用化,它的效率就越低。

算力成本不容忽視

效率問題與成本往往密切相關,雖然每單位算力的單價下降了,但是服務器的成本,包括服務器的平均售價在過去3年一直是上漲的。

根據(jù)估算,GPT-3訓練成本約為140萬美元;對于一些更大的LLM模型,訓練成本約達到1120萬美元。

按近期在國內落地的某數(shù)據(jù)中心為參照物,算力500P耗資30.2億落成,若要支持ChatGPT的運行,需要7到8個這樣數(shù)據(jù)中心支撐,基礎設施投入需以百億計。

在算力的成倍甚至是指數(shù)級增長下,服務器耗電量和電費也將是乘倍增長。如何通過更高效的節(jié)能方式來解鎖算力,釋放功耗?

寧暢基于現(xiàn)有行業(yè)節(jié)能痛點,提供傳統(tǒng)風冷、冷板式液冷和浸沒液冷等多場景的散熱方式。其冷板式液冷可實現(xiàn)部件級精確制冷,使能效提升40%,以一個總負載10MW的機房為例,寧暢冷板液冷方案可助力用戶每年節(jié)省電費1580萬元,而其最新推出的業(yè)界首款搭載第四代英特爾至強可拓展處理器的浸沒液冷服務器,其PUE最低可達1.05。

此外,寧暢通過軟硬件的調優(yōu),在單位成本上實現(xiàn)降本增效。根據(jù)國際測試TPCx-AI成績顯示,寧暢單位算力僅用94美元,相比平均300美元的算力成本,降低了68%的硬件成本。

ChatGPT帶來的機會

ChatGPT在應用時需要大算力的服務器支持,ChatGPT的持續(xù)爆火也為AIGC帶來全新增量,行業(yè)對AI模型訓練所需要的算力支持提出了更高要求,也為服務器廠商帶來更多市場空間和發(fā)展機會。

對于AI公司來說,或者開發(fā)AI應用的公司來說,時間成本高,客戶要在時間成本和硬件投資上做一個取舍和平衡。

我們可以看到,對于未來的服務器的產品的需求,將更加理性。對于產品方案,也更加務實,同時對于IT基礎設施的生態(tài)要求需要更加包容。

寧暢冷靜計算戰(zhàn)略發(fā)布會現(xiàn)場圖

基于當前的業(yè)務場景和背景的這種需求,寧暢將更加著眼于滿足客戶高質量算力的交付目標,通過自身的技術能力和產品方案的實現(xiàn),為客戶找到算力最優(yōu)解,實現(xiàn)需求與能力的雙平衡。

例如寧暢X620 G50是兼?zhèn)溆柧毰c推理功能的全能型GPU服務器,既支持高強度計算,滿足機器學習、AI推理、云計算等眾多應用場景需求,同時又可實現(xiàn)綠色節(jié)能,符合當前ChatGPT等模型對算力/服務器的需求。

寧暢X620 G50

趙雷說,服務器的研發(fā)設計生產制造交付是以年計的,寧暢選了了AI和液冷兩個賽道,匹配市場發(fā)展需求。未來兩到三年里,寧暢堅定不移地走定制化市場,以用戶為中心,拓展人工智能賽道。

未來算力展望

對于未來的算力需求,更多的客戶將會面臨兩個方面的挑戰(zhàn)。一方面要考慮算力的足量,同時還要考慮綠色節(jié)能和可持續(xù)性發(fā)展,既要考慮當前業(yè)務的導向,政策的導向,同時不斷去把創(chuàng)新優(yōu)化的業(yè)務場景導入進來,實現(xiàn)增量市場的可持續(xù)性。

在這一過程中,企業(yè)追求強大算力就會面臨高功耗和高能耗等問題,如何用更有效的方式在滿足算力需要的情況下,解鎖更高算力,釋放更多功耗。寧暢給出的答案是定制化的算力解決方案和液冷。

定制化的算力解決可量身定制用戶需求,實現(xiàn)從需求梳理、機房部署到智能運維的全面定制化,避免不必要的浪費,此外,使用冷板式液冷方案,可通過風液CDU等設備,在不改變傳統(tǒng)風冷機房部署的情況,實現(xiàn)向液冷過度。該方案能使能效提升40%。而寧暢近期推出的浸沒式液冷服務器,更能將PUE降低至1.05及以下。

總體來說,ChatGPT的快速滲透、落地應用,也將大幅提振算力需求,這將刺激整個算力產業(yè)鏈,包括數(shù)據(jù)中心、AI芯片、服務器等將迎來重要的發(fā)展機遇。

本文章選自《AI啟示錄》雜志,閱讀更多雜志內容,請掃描下方二維碼

《AI啟示錄》雜志