四虎影视精品永久在线观看,中文字幕婷婷日韩欧美亚洲 ,婷婷成人综合激情在线视频播放,中文在线а√天堂,伊人久久大香线蕉成人

AI啟示錄 第18期 2020/12/30

亞馬遜AWS針對(duì)人工智能推出新硬件

AWS針對(duì)人工智能推出了兩款新的硬件,并且大幅度擴(kuò)展了其SageMaker軟件,以簡(jiǎn)化AWS上人工智能模型的運(yùn)行,幫助它們獲得最佳性能。

在今年的re:Invent年會(huì)上,AWS的首席執(zhí)行官Andy Jassy和人工智能副總裁Swami Sivasubramanian發(fā)布了重要新聞。AWS針對(duì)人工智能推出了兩款新的硬件,并且大幅度擴(kuò)展了其SageMaker軟件,以簡(jiǎn)化AWS上人工智能模型的運(yùn)行,幫助它們獲得最佳性能。當(dāng)看到人工智能軟件的廣度、人工智能硬件的深度以及在AWS上使用人工智能客戶的廣度時(shí),我們相信AWS在云人工智能服務(wù)方面已經(jīng)超越了谷歌和微軟。AWS最初只有一個(gè)簡(jiǎn)單的聊天機(jī)器人,具備文本、圖片和語(yǔ)音識(shí)別功能,可是現(xiàn)在已經(jīng)成了全球最全面的人工智能云服務(wù)領(lǐng)導(dǎo)者。

亞馬遜還在繼續(xù)打造其人工智能軟件產(chǎn)品,在過去三年里,每年平均要增加200多項(xiàng)新功能。Amazon SageMaker Studio讓人工智能的使用變成只需要點(diǎn)擊這么簡(jiǎn)單,從而減少了對(duì)深度人工智能專業(yè)知識(shí)的需求。

如圖2所示,Swami背后的幻燈片上顯示了客戶參與的范圍,這些內(nèi)容令人印象極為深刻。

來(lái)自英偉達(dá)、英特爾和AWS自身的新硬件

亞馬遜基于開放性和客戶選擇,構(gòu)建了行業(yè)最全面的基礎(chǔ)架構(gòu)服務(wù)。AWS EC2實(shí)例可提供其客戶需要的各種樣式的處理器和加速器,包括使用英特爾、AMD、Arm CPU、Xilinx FPGA、英偉達(dá)GPU以及AWS自己的人工智能加速器的實(shí)例。在本文中,我們將重點(diǎn)討論最后一種情況。

去年,AWS推出了自主研發(fā)的Inferentia推理處理器,該處理器似乎吸引了亞馬遜內(nèi)部應(yīng)用程序以外的關(guān)注。據(jù)AWS稱,Inferentia提供了出色的性價(jià)比和延遲——據(jù)稱吞吐量比GPU高出了35%,而價(jià)格卻比GPU低了40%。值得注意的是,AWS沒有說明他們是用哪些GPU與Inferentia進(jìn)行對(duì)比的。

為了響應(yīng)對(duì)英偉達(dá)A100 GPU的需求,AWS還推出了帶有8個(gè)A100 GPU的P4d實(shí)例,這些實(shí)例可在4000 GPU GPU超級(jí)集群中使用。該產(chǎn)品旨在提供集成化且靈活的基礎(chǔ)架構(gòu),以解決最大的培訓(xùn)任務(wù)。通過使用英偉達(dá)的HGX設(shè)計(jì),P4d證明了英偉達(dá)在過去三年中通過不斷地提升價(jià)值持續(xù)地改進(jìn)了系統(tǒng)設(shè)計(jì)業(yè)務(wù)。它還顯示出AWS愿意提供英偉達(dá)GPU的意愿——即使該公司也向其客戶提供了替代產(chǎn)品。

盡管AWS的客戶對(duì)英偉達(dá)的GPU感到滿意,但亞馬遜一直在努力尋找更多具有成本效益并且性能更高的替代產(chǎn)品。在re:Invent年會(huì)上,AWS的首席執(zhí)行官Andy Jassy宣布即將推出兩個(gè)新的培訓(xùn)平臺(tái),這兩個(gè)平臺(tái)都將于明年推出。第一個(gè)平臺(tái)使用了期待已久的英特爾Habana加速器, Jassy先生表示,這個(gè)平臺(tái)的性價(jià)比將提高40%。在與英特爾的溝通中,我聽說這一說法源自于一攬子基準(zhǔn)測(cè)試,約占AWS上運(yùn)行的人工智能工作的80%。

Jassy先生還宣布,AWS正在開發(fā)Inferentia的“大哥”,這款產(chǎn)品名為Trainium,它將“擁有云端所有機(jī)器學(xué)習(xí)實(shí)例中最多的萬(wàn)億次浮點(diǎn)運(yùn)算”。預(yù)計(jì)到了該服務(wù)在2021年晚些時(shí)候(也有可能是今年下半年)推出的時(shí)候,才會(huì)有更多的細(xì)節(jié)透露出來(lái)。和谷歌一樣,AWS打算使用自己的人工智能芯片,用這種方式讓自己針對(duì)人工智能的云服務(wù)與眾不同,當(dāng)然,這些芯片也只會(huì)被用于他們自己的云服務(wù)中。所以,短期內(nèi)就不要指望能夠購(gòu)買到這些芯片用于本地運(yùn)算了。

人工智能軟件更新

AWS還宣布擴(kuò)展SageMaker支持的數(shù)據(jù)和模型以進(jìn)行分布式培訓(xùn)。當(dāng)增加GPU容量時(shí),這些改進(jìn)將提供近乎線性的性能提升,自動(dòng)將工作分散到整個(gè)集群之中。

該公告標(biāo)志著AWS一直致力于增強(qiáng)Amazon SageMaker軟件服務(wù),專注于簡(jiǎn)化開發(fā)和部署。該公司現(xiàn)在擁有成千上萬(wàn)的客戶在使用SageMaker,并將人工智能模型的開發(fā)時(shí)間從數(shù)周減少到數(shù)小時(shí)。

通常,為了方便開發(fā),用戶必須犧牲性能。數(shù)據(jù)科學(xué)家為了將吞吐量最大化并實(shí)現(xiàn)并行,通常會(huì)用手工編碼的方式處理加速器指令集。但是,在這方面,亞馬遜似乎通過SageMaker做得非常出色。

總結(jié)

AWS為人工智能提供了出色的GPU基礎(chǔ)架構(gòu)服務(wù),但是,該公司的Lex和Text等人工智能工具似乎有些局限?焖偾斑M(jìn)了三年之后,一切都發(fā)生了變化,AWS通過Intel Habana增加了更多選擇——這是第一家這樣做的公司,但很有可能不會(huì)是最后一個(gè)。通過Tranium,AWS將很快與Google TPU和GPU展開直接競(jìng)爭(zhēng)。同時(shí),SageMaker開發(fā)團(tuán)隊(duì)一直非常繁忙,在努力地大幅擴(kuò)展并增強(qiáng)其易于擴(kuò)展的人工智能應(yīng)用程序開發(fā)和部署。

憑借著這些穩(wěn)定的發(fā)展和最近的公告,亞馬遜AWS已經(jīng)在人工智能方面占據(jù)了領(lǐng)導(dǎo)地位。

本文章選自《AI啟示錄》雜志,閱讀更多雜志內(nèi)容,請(qǐng)掃描下方二維碼

《AI啟示錄》雜志