四虎影视精品永久在线观看,中文字幕婷婷日韩欧美亚洲 ,婷婷成人综合激情在线视频播放,中文在线а√天堂,伊人久久大香线蕉成人

性能優(yōu)化 關(guān)鍵字列表
Iceberg時代來臨:StarTree成為采用熱門表格式的最新廠商

Iceberg時代來臨:StarTree成為采用熱門表格式的最新廠商

開源Iceberg正成為數(shù)據(jù)湖表格式的通用標準,StarTree是最新將其作為實時后端的供應(yīng)商。StarTree Cloud基于Apache Pinot構(gòu)建,現(xiàn)可作為Iceberg之上的分析和服務(wù)層。該公司聲稱Iceberg支持能將其從被動存儲格式轉(zhuǎn)變?yōu)閷崟r后端,為面向客戶的應(yīng)用和AI代理提供高并發(fā)服務(wù)。與其他查詢引擎不同,StarTree專為低延遲、高并發(fā)訪問而構(gòu)建,可直接在原生Iceberg表上提供實時查詢加速。

DDN推出Infinia存儲系統(tǒng),聲稱可大幅提升AI推理速度并降低成本

DDN推出Infinia存儲系統(tǒng),聲稱可大幅提升AI推理速度并降低成本

DDN發(fā)布性能基準測試顯示,其Infinia存儲系統(tǒng)通過優(yōu)化中間KV緩存處理,能夠?qū)I處理速度提升27倍。該系統(tǒng)專為英偉達H100和GB200等GPU設(shè)計,提供亞毫秒級延遲,支持每秒超10萬次AI調(diào)用。在112000令牌任務(wù)測試中,傳統(tǒng)重計算方法需57秒,而Infinia僅需2.1秒。DDN稱該技術(shù)可削減輸入令牌成本75%,為運行1000個并發(fā)AI推理管道的企業(yè)每日節(jié)省8萬美元GPU成本。

鎧俠UFS 4.1閃存承諾提升AI應(yīng)用性能表現(xiàn)

鎧俠UFS 4.1閃存承諾提升AI應(yīng)用性能表現(xiàn)

鎧俠正在測試最新的UFS v4.1嵌入式閃存芯片,專為智能手機和平板電腦設(shè)計,可提供更快的下載速度和更流暢的設(shè)備端AI應(yīng)用性能。該芯片采用218層TLC 3D NAND技術(shù),提供256GB、512GB和1TB容量選擇。相比v4.0產(chǎn)品,隨機寫入性能提升約30%,隨機讀取性能提升35-45%,同時功耗效率改善15-20%。新標準還增加了主機發(fā)起碎片整理、增強異常處理等功能特性。

AMD在AI領(lǐng)域持續(xù)發(fā)力,仍有大量工作要做

AMD在AI領(lǐng)域持續(xù)發(fā)力,仍有大量工作要做

在AMD AI推進大會上,CEO蘇姿豐展示了公司在AI硬件和軟件方面的顯著進展。新一代MI350系列GPU性能提升4倍,高端MI355X在內(nèi)存、計算吞吐量和性價比方面均優(yōu)于英偉達B200。公司計劃2026年推出Helios機架級平臺,ROCm 7推理性能提升3.5倍。盡管在GPU訓練、TCO優(yōu)勢等方面表現(xiàn)良好,但在NIMs微服務(wù)、企業(yè)級GPU市場滲透等領(lǐng)域仍需加強,以進一步縮小與英偉達的差距。

Voltron Data力推AMD,為GPU加速SQL注入新動力

Voltron Data力推AMD,為GPU加速SQL注入新動力

Voltron Data宣布其加速SQL引擎Theseus將支持AMD Instinct GPU,這標志著英偉達CUDA護城河正在變淺。Theseus使用GPU加速SQL查詢,能高速處理大量數(shù)據(jù)。隨著企業(yè)尋求利用AI,快速處理大量數(shù)據(jù)變得越來越重要。AMD投入大量資源構(gòu)建開源軟件棧以縮小與英偉達的差距,最新版本基于AMD的hipDF庫。早期基準測試顯示AMD平臺性能表現(xiàn)良好,生產(chǎn)支持預計今年底推出。

OpenAI 表示 GPT-4.1 模型現(xiàn)已在 ChatGPT 中上線

OpenAI 表示 GPT-4.1 模型現(xiàn)已在 ChatGPT 中上線

OpenAI 按用戶需求在 ChatGPT 推出全新 GPT-4.1 及其 mini 與 nano 版本,專注提升編程、指令理解與長文本處理能力,免費及付費用戶均可體驗。

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

聯(lián)發(fā)科最近發(fā)布了新款高端芯片 Kompanio Ultra 和天璣 9400+,進一步完善其產(chǎn)品線。Kompanio Ultra 為 Chromebook 帶來全新性能水平,天璣 9400+ 則在天璣 9400 基礎(chǔ)上小幅提升。這些產(chǎn)品強化了聯(lián)發(fā)科在智能手機和 Chromebook 市場的競爭力,同時展示了公司在 AI 和高性能計算領(lǐng)域的持續(xù)發(fā)力。

中國燕融將 KVCache 集成到文件系統(tǒng)以加速 AI 推理

中國燕融將 KVCache 集成到文件系統(tǒng)以加速 AI 推理

中國存儲軟件供應(yīng)商燕融科技將KVCache整合到其文件系統(tǒng)中,顯著提升了KV緩存命中率和長上下文處理能力,降低了AI推理成本。通過在GPU服務(wù)器集群中部署分布式內(nèi)存層存儲元數(shù)據(jù),燕融的YRCloudFile系統(tǒng)實現(xiàn)了高并發(fā)查詢吞吐量,為推理工作負載帶來了明顯的性能提升。測試結(jié)果顯示,該技術(shù)在首個令牌生成時間和并發(fā)查詢支持方面均有數(shù)倍的改進。

Google 推出第七代 Ironwood TPU 芯片,借助 AI 進行性能對比

Google 推出第七代 Ironwood TPU 芯片,借助 AI 進行性能對比

Google宣布第七代張量處理單元(TPU)芯片即將向云客戶開放租用,可提供256或9216芯片的集群。新一代TPU在內(nèi)存帶寬、算力和能效方面都有顯著提升,專為大語言模型推理設(shè)計,每個芯片具有192GB高帶寬內(nèi)存。Google稱9216芯片集群的AI算力可達42.5 exaFLOPS,遠超現(xiàn)有超級計算機。

聯(lián)發(fā)科發(fā)布新芯片,使 Chromebook 具備 AI 助手運行能力

聯(lián)發(fā)科發(fā)布新芯片,使 Chromebook 具備 AI 助手運行能力

MediaTek 推出新一代 Kompanio Ultra 芯片,專為 Chromebook 設(shè)計。這款芯片不僅提升了性能和電池續(xù)航,更重要的是增強了生成式 AI 能力,使得價格親民的 ChromeOS 筆記本電腦也能運行先進的 AI 助手。MediaTek 與 Google 密切合作,確保新芯片能充分發(fā)揮 Chromebook Plus 設(shè)備的下一代 AI 功能。

Nvidia 新推出的工具讓本地 AI 計算變得輕而易舉

Nvidia 新推出的工具讓本地 AI 計算變得輕而易舉

Nvidia 推出全新 AI 工具套件 NIM 微服務(wù),讓擁有 RTX 顯卡的用戶能夠在本地輕松運行 AI 模型。這套工具支持文本、圖像和代碼生成等多種功能,不僅可以節(jié)省長期使用成本,還能確保數(shù)據(jù)安全性。該舉措體現(xiàn)了 AI 本地化運算的發(fā)展趨勢,也展示了 Nvidia 在 AI 領(lǐng)域的領(lǐng)導地位。

AMD 發(fā)布第五代 Epyc 嵌入式處理器,面向網(wǎng)絡(luò)、存儲和工業(yè)邊緣領(lǐng)域

AMD 發(fā)布第五代 Epyc 嵌入式處理器,面向網(wǎng)絡(luò)、存儲和工業(yè)邊緣領(lǐng)域

AMD 發(fā)布第五代 Epyc 嵌入式處理器,采用 Zen 5 架構(gòu),專為網(wǎng)絡(luò)、存儲和工業(yè)邊緣計算優(yōu)化。新處理器在性能、能效和嵌入式特性方面均有提升,可支持高達 192 核心,內(nèi)存容量達 6TB,并提供 7 年產(chǎn)品制造支持。多家行業(yè)合作伙伴已開始采用這一新產(chǎn)品。

Meta 通過 eBPF 技術(shù)實現(xiàn)服務(wù)器計算效率提升 20%

Meta 通過 eBPF 技術(shù)實現(xiàn)服務(wù)器計算效率提升 20%

Meta公司通過使用基于eBPF的Strobelight性能分析套件,成功將其主要服務(wù)的CPU使用率降低20%。這一成果不僅大幅減少了服務(wù)器需求,還展示了eBPF在系統(tǒng)優(yōu)化和效率提升方面的巨大潛力。eBPF作為一種創(chuàng)新技術(shù),正在revolutionizing操作系統(tǒng)內(nèi)核級編程,為企業(yè)帶來顯著的性能提升和成本節(jié)約。

M3 Ultra GPU 性能對比 M4 Max:究竟快多少?

M3 Ultra GPU 性能對比 M4 Max:究竟快多少?

Apple 最新推出的 M3 Ultra 芯片 GPU 性能表現(xiàn)出色,比 M4 Max 快 38%,比上一代 M2 Ultra 快 16%。在 Metal 測試中得分高達 259668。CPU 性能方面,M3 Ultra 多核性能小幅領(lǐng)先 M4 Max 8%。新款 Mac Studio 已開啟預訂,將于 3 月 12 日正式發(fā)售。

OpenAI 的 GPT-4.5 AI 模型向更多 ChatGPT 用戶開放

OpenAI 的 GPT-4.5 AI 模型向更多 ChatGPT 用戶開放

OpenAI 已開始向其 ChatGPT Plus 用戶推出最新的 AI 模型 GPT-4.5。OpenAI 在 X 平臺上發(fā)布的一系列帖子中表示,此次推出將持續(xù)“1-3 天”,并預計速率限制會有所變化。

PEAK:AIO AI 數(shù)據(jù)服務(wù)器性能峰值達到 120 GBps

PEAK:AIO AI 數(shù)據(jù)服務(wù)器性能峰值達到 120 GBps

PEAK:AIO推出了一款新的2RU 1.5 PB AI 數(shù)據(jù)服務(wù)器產(chǎn)品,使用戴爾硬件,數(shù)據(jù)傳輸速率達到120 GBps。PEAK:AIO是一家專注于人工智能的英國存儲初創(chuàng)公司,提供基于第三方硬件的軟件定義存儲,密切管理和控制以降低延遲并提高吞吐量。其2RU服務(wù)器已為中型GPU集群提供40 GBps的傳輸速率,現(xiàn)可實現(xiàn)三倍的速度。

ChatGPT 4.5 震撼發(fā)布:更大、更智能,但也更貴

ChatGPT 4.5 震撼發(fā)布:更大、更智能,但也更貴

OpenAI 最近推出了 GPT-4.5,這款新模型在準確性測試中表現(xiàn)優(yōu)于之前的版本,能夠更好地理解細微差別。盡管面臨 GPU 短缺的挑戰(zhàn),OpenAI 仍然致力于將這一模型推向市場,并計劃在未來推出更先進的推理能力模型。

新型 AI 文本擴散模型突破速度瓶頸,從噪聲中提取文字

新型 AI 文本擴散模型突破速度瓶頸,從噪聲中提取文字

Inception Labs 于周四發(fā)布了 Mercury Coder,這是一種新的 AI 語言模型,利用擴散技術(shù)比傳統(tǒng)模型更快地生成文本。與逐字生成文本的傳統(tǒng)模型(如 ChatGPT)不同,基于擴散的模型(如 Mercury)能夠同時生成完整的響應(yīng),并將其從最初的遮蔽狀態(tài)逐步精煉為連貫的文本。

Inception 從秘密研發(fā)中推出新型 AI 模型

Inception 從秘密研發(fā)中推出新型 AI 模型

Inception是一家位于帕洛阿爾托的新公司,由斯坦福大學計算機科學教授Stefano Ermon創(chuàng)立,聲稱開發(fā)了一種基于“擴散”技術(shù)的新型AI模型,稱為擴散基礎(chǔ)的大型語言模型(DLM)。目前備受關(guān)注的生成AI模型大致可分為兩類:大型語言模型(LLMs)和擴散模型。Inception的模型結(jié)合了傳統(tǒng)LLMs的功能,如代碼生成和問答,但性能顯著更快,計算成本更低。

Qualcomm 和諾基亞貝爾實驗室展示多供應(yīng)商 AI 模型如何在無線網(wǎng)絡(luò)中協(xié)同工作

Qualcomm 和諾基亞貝爾實驗室展示多供應(yīng)商 AI 模型如何在無線網(wǎng)絡(luò)中協(xié)同工作

高通和諾基亞貝爾實驗室成功展示了多廠商AI模型在無線網(wǎng)絡(luò)中的互操作性。通過序列學習技術(shù),他們實現(xiàn)了編碼器和解碼器模型的無縫協(xié)作,提高了網(wǎng)絡(luò)效率和用戶體驗。這項突破性成果為AI在無線通信領(lǐng)域的應(yīng)用開辟了新的可能性,有望顯著提升網(wǎng)絡(luò)容量、可靠性和能源效率。