每日經(jīng)濟(jì)新聞 2024-06-04 00:16:15
每經(jīng)記者 楊卉 每經(jīng)編輯 陳俊杰
6月2日晚間,英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛登臺(tái)演講,透露了不少關(guān)鍵信息。據(jù)他介紹,使用NVIDIA NIM將AI模型部署在云、數(shù)據(jù)中心或工作站上的開(kāi)發(fā)者,可將模型部署時(shí)間從以前的數(shù)周縮短至幾分鐘。和碩、勞氏公司、西門(mén)子等客戶(hù)均在使用。
視覺(jué)中國(guó)
此外,被英偉達(dá)寄予厚望的新一代AI芯片與超級(jí)計(jì)算平臺(tái)Blackwell芯片已開(kāi)始投產(chǎn),預(yù)計(jì)將在2025年推出Blackwell Ultra AI芯片。
據(jù)悉,英偉達(dá)的第一款Blackwell芯片名為GB200,宣稱(chēng)是目前“全球最強(qiáng)大的芯片”。目前,供應(yīng)鏈對(duì)GB200寄予厚望,預(yù)估2025年出貨量有機(jī)會(huì)突破百萬(wàn)顆,將占英偉達(dá)高端GPU出貨量的近40%~50%。
NIM大幅加快模型部署
6月2日晚間,一身皮衣的黃仁勛又在舞臺(tái)上擺弄起了自家產(chǎn)品,重磅介紹了NVIDIA NIM,一種推理微服務(wù),可通過(guò)經(jīng)優(yōu)化的容器形式提供模型,旨在助力各種規(guī)模企業(yè)部署AI服務(wù)。
不過(guò),嚴(yán)格來(lái)說(shuō),NVIDIA NIM并非新品,最早露面是在今年3月。英偉達(dá)在6月2日晚間宣布,全球2800萬(wàn)開(kāi)發(fā)者皆可下載NVIDIA NIM,將AI模型部署在云、數(shù)據(jù)中心或工作站上,構(gòu)建Copilot(微軟的AI助理)、ChatGPT聊天機(jī)器人等生成式AI應(yīng)用。下月起,NVIDIA開(kāi)發(fā)者計(jì)劃的會(huì)員可免費(fèi)使用NIM,在其選擇的基礎(chǔ)設(shè)施上進(jìn)行研究、開(kāi)發(fā)和測(cè)試。
根據(jù)英偉達(dá)的說(shuō)法,新的生成式AI應(yīng)用正變得越來(lái)越復(fù)雜,通常需要使用具有不同功能的多個(gè)模型來(lái)生成文本,如圖像、視頻、語(yǔ)音等。而NVIDIA NIM提供了一種簡(jiǎn)單、標(biāo)準(zhǔn)化的方式,將生成式AI添加到應(yīng)用中,可使模型部署時(shí)間從以前的數(shù)周縮短至幾分鐘。
黃仁勛還透露,包括Cadence、 Cloudera、 Cohesity、DataStax、NetApp、Scale AI和新思科技等在內(nèi)的近200家技術(shù)合作伙伴正在將NIM集成到他們的平臺(tái)中,以加快生成式AI的部署。“每個(gè)企業(yè)都希望在其運(yùn)營(yíng)中融入生成式AI,但并非每個(gè)企業(yè)都擁有專(zhuān)門(mén)的AI研究團(tuán)隊(duì)。NVIDIA NIM可被集成到任意平臺(tái)中,任何地方的開(kāi)發(fā)者都可以訪問(wèn),并且可以在任意環(huán)境中運(yùn)行。”黃仁勛稱(chēng)。
《每日經(jīng)濟(jì)新聞》記者了解到,NIM是預(yù)先構(gòu)建的,目前有近40個(gè)模型可作為NIM的端點(diǎn)供開(kāi)發(fā)者體驗(yàn);開(kāi)發(fā)人員可從開(kāi)源社區(qū)平臺(tái)Hugging Face訪問(wèn)適用于Meta Llama 3模型的NVIDIA NIM微服務(wù),使用Hugging Face推理端點(diǎn)訪問(wèn)和運(yùn)行Llama 3 NIM。
值得注意的是,英偉達(dá)還透露了一批大客戶(hù)的使用情況,如電子制造商Foxconn正在使用NIM開(kāi)發(fā)針對(duì)特定領(lǐng)域的大語(yǔ)言模型(LLM),用于智能制造、智慧城市和智能電動(dòng)汽車(chē);和碩正在將NIM用于一個(gè)當(dāng)?shù)氐幕旌蠈?zhuān)家(MoE)模型;勞氏公司正在用NVIDIA NIM推理微服務(wù)來(lái)提升員工和客戶(hù)的體驗(yàn);西門(mén)子正在將其運(yùn)營(yíng)技術(shù)與NIM微服務(wù)整合,用于車(chē)間AI工作負(fù)載;還有數(shù)十家醫(yī)療保健公司正在部署NIM,為包括手術(shù)規(guī)劃、數(shù)字助理、藥物發(fā)現(xiàn)和臨床試驗(yàn)優(yōu)化等在內(nèi)的應(yīng)用領(lǐng)域的生成式AI推理提供支持。
Blackwell開(kāi)始投產(chǎn)
除了上述產(chǎn)品,黃仁勛還在演講中透露,英偉達(dá)Blackwell芯片已開(kāi)始投產(chǎn),并將在2025年推出Blackwell Ultra AI芯片。
今年5月,黃仁勛在財(cái)報(bào)電話會(huì)上稱(chēng),預(yù)計(jì)今年Blackwell架構(gòu)芯片將為公司帶來(lái)大量收入。英偉達(dá)對(duì)Blackwell芯片寄予厚望,還是與市場(chǎng)強(qiáng)勁需求有關(guān)。從最新披露的財(cái)報(bào)數(shù)據(jù)來(lái)看,2025財(cái)年第一財(cái)季,英偉達(dá)實(shí)現(xiàn)營(yíng)收260億美元,較上年同期增長(zhǎng)262%。其中,數(shù)據(jù)中心業(yè)務(wù)營(yíng)收226億美元,與上年同期相比增長(zhǎng)427%,是業(yè)績(jī)收入的“大頭”。
據(jù)英偉達(dá)首席財(cái)務(wù)官科萊特·克雷斯(Colette Kress)解讀,數(shù)據(jù)中心業(yè)務(wù)的增長(zhǎng)源自Hopper架構(gòu)GPU(例如H100)出貨量的增加;該季度的重要亮點(diǎn)之一就是Meta宣布推出Llama 3 開(kāi)源大模型,使用了近2.4萬(wàn)塊H100GPU。
除了披露芯片量產(chǎn)進(jìn)度,英偉達(dá)此次還推出了一系列采用NVIDIA Blackwell架構(gòu)的系統(tǒng)。
據(jù)悉,這些系統(tǒng)搭載了Grace CPU以及NVIDIA網(wǎng)絡(luò)和基礎(chǔ)設(shè)施,用于助力企業(yè)建立AI工廠和數(shù)據(jù)中心。其中,NVIDIA MGX模塊化參考設(shè)計(jì)平臺(tái)加入了對(duì)NVIDIA Blackwell產(chǎn)品的支持,包括專(zhuān)為主流大語(yǔ)言模型推理、檢索增強(qiáng)生成和數(shù)據(jù)處理提供卓 越 性 能 打 造 的 NVIDIA GB200 NVL2平臺(tái)。
英偉達(dá)強(qiáng)調(diào),GB200 NVL2適合用于數(shù)據(jù)分析等新興領(lǐng)域,借助NVLink—C2C互連技術(shù)帶來(lái)的帶寬內(nèi)存性能及Blackwell架構(gòu)中專(zhuān)有的解壓縮引擎,較使用X86CPU時(shí)的數(shù)據(jù)處理速度可最多提速到18倍,能效提高8倍。“新一輪工業(yè)革命已經(jīng)開(kāi)始,眾多企業(yè)和地區(qū)正在與NVIDIA合作推動(dòng)價(jià)值萬(wàn)億美元的傳統(tǒng)數(shù)據(jù)中心向加速計(jì)算轉(zhuǎn)型,并建造一種新型數(shù)據(jù)中心AI工廠來(lái)生產(chǎn)新的商品,人工智能。”黃仁勛稱(chēng)。
英偉達(dá)方面表示,目前已有超過(guò)25家合作伙伴的90多套已發(fā)布或正在開(kāi)發(fā)中的系統(tǒng)使用了MGX參考架構(gòu),開(kāi)發(fā)成本較之前最多降低了四分之三,開(kāi)發(fā)時(shí)間縮短到六個(gè)月,較之前減少了三分之二。另外,英偉達(dá)還透露,比亞迪電子、西門(mén)子、泰瑞達(dá)和Alphabet旗下公司Intrinsic等全球10多家機(jī)器人企業(yè)正在將NVIDIA Isaac加速庫(kù)、基于物理學(xué)的仿真和AI模型集成到其軟件框架和機(jī)器人模型中,以此提高工廠、倉(cāng)庫(kù)和配送中心的工作效率。
封面圖片來(lái)源:視覺(jué)中國(guó)
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP