3月19日消息,當?shù)貢r間周一,英偉達在美國加州圣何塞(San Jose)舉辦的全球開發(fā)者大會上,隆重發(fā)布了最新一代人工智能專用GPU芯片以及運行人工智能模型的軟件,意圖進一步鞏固其作為人工智能領(lǐng)域首選供應(yīng)商的地位。
英偉達推出的新一代人工智能GPU架構(gòu)命名為Blackwell,首款基于該架構(gòu)的GB200芯片預計將在今年晚些時候推出。盡管當前市面上如Hopper架構(gòu)的H100芯片等舊款產(chǎn)品依然供不應(yīng)求,英偉達仍通過推出更高性能的新芯片來吸引客戶,鼓勵他們持續(xù)下單。
自2022年底,隨著OpenAI推出聊天機器人ChatGPT,掀起了一股人工智能熱潮,英偉達股價隨之飆升五倍,營業(yè)收入也增長了逾兩倍。英偉達的高性能GPU對于訓練和運行大型人工智能模型至關(guān)重要。像微軟、Meta這樣的科技巨頭,都斥資幾十億美元購買這種芯片。
英偉達首席執(zhí)行官黃仁勛在大會上表示:“Hopper架構(gòu)固然出色,但我們追求的是更加強大的GPU。”
英偉達股價在周一盤后交易中微跌超過1%。
為了讓客戶在面對日益增多的競爭產(chǎn)品時更傾向于選擇英偉達芯片,公司還推出了一款名為NIM的付費軟件,使得部署人工智能變得更加簡單。
英偉達高管表示,公司正從單一芯片供應(yīng)商轉(zhuǎn)型為類似于微軟或蘋果那樣的平臺提供者,其他公司可以在其平臺上開發(fā)軟件。
黃仁勛坦言:“Blackwell不僅僅是一款芯片,它代表的是一個平臺?!?/p>
英偉達企業(yè)計算部門副總裁馬努維爾·達斯(Manuvir Das)在接受采訪時表示:“最暢銷的商業(yè)產(chǎn)品仍是GPU,軟件則是為了幫助用戶以不同的方式使用GPU?!彼a充道:“當然,我們依然在致力于產(chǎn)品的創(chuàng)新。但現(xiàn)在,我們真正實現(xiàn)了轉(zhuǎn)變,已經(jīng)發(fā)展出了自己的商業(yè)軟件業(yè)務(wù)?!?/p>
英偉達新軟件能讓在所有英偉達GPU上運行程序變得更加簡便,即便是對于那些老款GPU,它們雖更適合于部署人工智能應(yīng)用,而非開發(fā),也能輕松應(yīng)對。
達斯說:“如果您是開發(fā)者,手中有一個備受期待的模型,希望能讓更多人采用,只需將其部署在NIM上。我們承諾將兼容所有英偉達GPU,確保模型能觸及廣泛用戶群?!?/p>
Hopper架構(gòu)的繼任者Blackwell
每隔兩年,英偉達都會更新其GPU架構(gòu),從而實現(xiàn)性能的顯著躍升。在過去一年中,眾多發(fā)布的人工智能模型均在2022年宣布的Hopper架構(gòu)基礎(chǔ)上進行訓練,此架構(gòu)涵蓋了包括H100在內(nèi)的多款芯片。
據(jù)英偉達介紹,基于Blackwell架構(gòu)的GB200芯片將為人工智能領(lǐng)域公司帶來性能上巨大的飛躍,其人工智能計算能力可達每秒20千萬億次,遠超過H100芯片的每秒4千萬億次。這一強大的計算力將使企業(yè)得以訓練規(guī)模更大、復雜度更高的人工智能模型。
GB200芯片還特別集成了英偉達的高性能Transformer推理引擎,該技術(shù)專為運行基于Transformer架構(gòu)的人工智能設(shè)計,正是構(gòu)成流行聊天機器人ChatGPT核心技術(shù)的關(guān)鍵部分。
Blackwell架構(gòu)的GPU芯片體積龐大,實際上是由兩塊獨立制造的芯片集成于一塊臺積電代工的芯片上。英偉達同時推出了配套的GB200 NVLink 2服務(wù)器,內(nèi)置72塊Blackwell架構(gòu)GPU,以及其他用于人工智能模型訓練的專業(yè)組件。
知名云服務(wù)提供商,包括亞馬遜、谷歌、微軟及甲骨文等,均將提供GB200芯片的云服務(wù)。每套GB200系統(tǒng)由兩塊基于Blackwell架構(gòu)的B200 GPU和一塊基于ARM架構(gòu)的Grace CPU組成。英偉達透露,亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)計劃建立一個包含2萬套GB200系統(tǒng)的超級計算集群。
英偉達表示,亞馬遜的服務(wù)器集群能夠部署達到27萬億參數(shù)的人工智能模型,規(guī)模遠超目前已知最大的GPT-4模型,后者擁有1.7萬億個參數(shù)。許多人工智能研究人員認為,擁有更多參數(shù)和數(shù)據(jù)的超大模型能夠展現(xiàn)出更為強大的能力。
雖然英偉達未公布GB200芯片及其系統(tǒng)的具體售價,但根據(jù)分析師估計,參照Hopper架構(gòu)H100芯片的售價范圍(每塊約2.5萬至4萬美元),一整套GB200系統(tǒng)的成本可能高達20萬美元。
英偉達的推理微服務(wù)
英偉達還宣布,在其企業(yè)軟件訂閱服務(wù)中新增了一款名為NIM的產(chǎn)品,即英偉達推理微服務(wù)(NVIDIA Inference Microservices)的縮寫,旨在簡化使用舊型號GPU進行人工智能推理和軟件運行的過程,使企業(yè)能夠繼續(xù)利用現(xiàn)有的數(shù)億塊英偉達GPU資源。相較于訓練新的人工智能模型,推理計算所需的計算資源更少,因此,企業(yè)可以通過NIM更加便捷地運行自己的人工智能模型,而不必依賴于OpenAI等公司提供的計算服務(wù)。
作為其戰(zhàn)略的一部分,英偉達鼓勵購買其服務(wù)器的客戶訂閱英偉達企業(yè)服務(wù),并按每塊GPU每年4500美元的標準收取許可費。此外,英偉達將與微軟、Hugging Face等領(lǐng)先的人工智能企業(yè)合作,確保它們開發(fā)的人工智能模型能夠在所有兼容的英偉達芯片上順暢運行。開發(fā)者可通過NIM服務(wù),無需復雜配置,就能在自己的服務(wù)器或基于云的英偉達服務(wù)器上高效地運行模型。
“在原本調(diào)用OpenAI服務(wù)的代碼中,僅需替換一行代碼,即可將其連接至英偉達提供的NIM服務(wù),”達斯解釋說。
英偉達表示, NIM軟件不僅能在云服務(wù)器上運行,還能使配備英偉達GPU的筆記本電腦上順暢運行人工智能應(yīng)用,進一步擴展了NIM服務(wù)的應(yīng)用場景。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/638272.html