2024-03-24 13:22

在被譽(yù)為“AI春晚”的GTC大會(huì)上,英偉達(dá)發(fā)布了下一代芯片架構(gòu)Blackwell,大秀肌肉。


隨后,亞馬遜云科技與英偉達(dá)宣布,NVIDIA Blackwell GPU平臺(tái)即將登陸亞馬遜云科技,這意味著亞馬遜云科技的客戶,很快就能使用新一代GPU基礎(chǔ)設(shè)施,在云上更快、更大規(guī)模、更安全地構(gòu)建和運(yùn)行數(shù)萬億參數(shù)的大語言模型。


據(jù)了解,Blackwell繼承了Hopper GPU架構(gòu),擁有2080億個(gè)晶體管,是英偉達(dá)首個(gè)采用多芯片封裝設(shè)計(jì)的GPU,推理能力是Hopper的30倍。英偉達(dá)創(chuàng)始人黃仁勛介紹,如果用Blackwell訓(xùn)練一個(gè)1.8萬億參數(shù)GPT模型,只需要2000個(gè)GPU,花費(fèi)90天時(shí)間,以及四兆瓦的電力。


這次合作,是雙方在技術(shù)領(lǐng)域的強(qiáng)強(qiáng)聯(lián)合。


一方面,亞馬遜云科技將提供配置GB200 NVL72的英偉達(dá)Blackwell平臺(tái),該平臺(tái)具備配備72顆Blackwell GPU和36顆Grace CPU,通過第五代NVIDIA NVLink?互連。


另一方面,亞馬遜云科技將在云中為其提供EFA網(wǎng)絡(luò)連接、高級(jí)虛擬化的Amazon Nitro系統(tǒng)和Amazon EC2 UltraClusters超大規(guī)模集群等技術(shù)支持,客戶能夠在亞馬遜云科技上擴(kuò)展至數(shù)千個(gè)GB200 Superchips。


亞馬遜云科技還計(jì)劃提供配備基于新的英偉達(dá)B100 GPU的Amazn EC2實(shí)例,并能夠在Amazon EC2 UltraClusters中進(jìn)行大規(guī)模部署。


此前,亞馬遜云科技已經(jīng)成功推出基于英偉達(dá)H100芯片的Amazon EC2 P5實(shí)例,客戶能夠在云上將其P5實(shí)例擴(kuò)展到超過2萬個(gè)英偉達(dá)H100 GPU,后續(xù)還提供可短期使用這些實(shí)例的EC2 Capacity Blocks for ML功能,以幫助客戶更好地安排云上生成式AI開發(fā)進(jìn)程。


GB200芯片同時(shí)也在亞馬遜云科技和英偉達(dá)共同開發(fā)的AI平臺(tái)NVIDIA DGX? Cloud上可用,這是一個(gè)在亞馬遜云科技上雙方共同開發(fā)的AI平臺(tái),為企業(yè)開發(fā)者提供了構(gòu)建和部署先進(jìn)生成式AI模型所需的專用基礎(chǔ)設(shè)施和軟件。


Blackwell也加入了雙方合作的Project Ceiba項(xiàng)目,這是一臺(tái)專為英偉達(dá)自身的研究和開發(fā)而設(shè)的超級(jí)計(jì)算機(jī),獨(dú)家托管在亞馬遜云科技上,它搭載了20,736顆GB200 Superchips芯片,并通過第四代EFA網(wǎng)絡(luò)擴(kuò)展,為每個(gè)Superchip提供高達(dá)800 Gbps的低延遲、高帶寬網(wǎng)絡(luò)吞吐量;


與去年11月底的re:Invent2023全球大會(huì)上披露的上一代Ceiba相比,計(jì)算性能從65exaflops提升至414 exaflops,提升了6倍多。


亞馬遜云科技首席執(zhí)行官Adam Selipsky表示:“我們雙方的深入合作可以追溯到13年前,那時(shí)我們共同推出了世界上第一個(gè)亞馬遜云科技上的GPU云實(shí)例,而今天我們?yōu)榭蛻籼峁┝俗顝V泛的英偉達(dá)GPU解決方案。英偉達(dá)下一代Grace Blackwell處理器是生成式AI和GPU計(jì)算的標(biāo)志性事件。”


英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“人工智能正在以前所未有的速度推動(dòng)突破,導(dǎo)致新的應(yīng)用、商業(yè)模式和跨行業(yè)的創(chuàng)新。我們與亞馬遜云科技的合作正在加速新的生成式AI能力的發(fā)展,并為客戶提供前所未有的計(jì)算能力,以推動(dòng)可能性的邊界?!?/p>

全部評(píng)論(0)

推薦工具