国产成人精品免费视,91天堂嫩模在线播放,国产免费小视频在线观看,久久免费公开视频,国产成人精品免费视频网页大全,日韩不卡在线视频,视频一区二区精品的福利

每日經(jīng)濟(jì)新聞
今日報紙

每經(jīng)網(wǎng)首頁 > 今日報紙 > 正文

英偉達(dá)深夜發(fā)“重磅” 預(yù)計明年推出Blackwell Ultra AI芯片

每日經(jīng)濟(jì)新聞 2024-06-04 00:16:15

每經(jīng)記者 楊卉    每經(jīng)編輯 陳俊杰    

6月2日晚間,英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛登臺演講,透露了不少關(guān)鍵信息。據(jù)他介紹,使用NVIDIA NIM將AI模型部署在云、數(shù)據(jù)中心或工作站上的開發(fā)者,可將模型部署時間從以前的數(shù)周縮短至幾分鐘。和碩、勞氏公司、西門子等客戶均在使用。

視覺中國

此外,被英偉達(dá)寄予厚望的新一代AI芯片與超級計算平臺Blackwell芯片已開始投產(chǎn),預(yù)計將在2025年推出Blackwell Ultra AI芯片。

據(jù)悉,英偉達(dá)的第一款Blackwell芯片名為GB200,宣稱是目前“全球最強(qiáng)大的芯片”。目前,供應(yīng)鏈對GB200寄予厚望,預(yù)估2025年出貨量有機(jī)會突破百萬顆,將占英偉達(dá)高端GPU出貨量的近40%~50%。

NIM大幅加快模型部署

6月2日晚間,一身皮衣的黃仁勛又在舞臺上擺弄起了自家產(chǎn)品,重磅介紹了NVIDIA NIM,一種推理微服務(wù),可通過經(jīng)優(yōu)化的容器形式提供模型,旨在助力各種規(guī)模企業(yè)部署AI服務(wù)。

不過,嚴(yán)格來說,NVIDIA NIM并非新品,最早露面是在今年3月。英偉達(dá)在6月2日晚間宣布,全球2800萬開發(fā)者皆可下載NVIDIA NIM,將AI模型部署在云、數(shù)據(jù)中心或工作站上,構(gòu)建Copilot(微軟的AI助理)、ChatGPT聊天機(jī)器人等生成式AI應(yīng)用。下月起,NVIDIA開發(fā)者計劃的會員可免費(fèi)使用NIM,在其選擇的基礎(chǔ)設(shè)施上進(jìn)行研究、開發(fā)和測試。

根據(jù)英偉達(dá)的說法,新的生成式AI應(yīng)用正變得越來越復(fù)雜,通常需要使用具有不同功能的多個模型來生成文本,如圖像、視頻、語音等。而NVIDIA NIM提供了一種簡單、標(biāo)準(zhǔn)化的方式,將生成式AI添加到應(yīng)用中,可使模型部署時間從以前的數(shù)周縮短至幾分鐘。

黃仁勛還透露,包括Cadence、 Cloudera、 Cohesity、DataStax、NetApp、Scale AI和新思科技等在內(nèi)的近200家技術(shù)合作伙伴正在將NIM集成到他們的平臺中,以加快生成式AI的部署。“每個企業(yè)都希望在其運(yùn)營中融入生成式AI,但并非每個企業(yè)都擁有專門的AI研究團(tuán)隊。NVIDIA NIM可被集成到任意平臺中,任何地方的開發(fā)者都可以訪問,并且可以在任意環(huán)境中運(yùn)行。”黃仁勛稱。

《每日經(jīng)濟(jì)新聞》記者了解到,NIM是預(yù)先構(gòu)建的,目前有近40個模型可作為NIM的端點供開發(fā)者體驗;開發(fā)人員可從開源社區(qū)平臺Hugging Face訪問適用于Meta Llama 3模型的NVIDIA NIM微服務(wù),使用Hugging Face推理端點訪問和運(yùn)行Llama 3 NIM。

值得注意的是,英偉達(dá)還透露了一批大客戶的使用情況,如電子制造商Foxconn正在使用NIM開發(fā)針對特定領(lǐng)域的大語言模型(LLM),用于智能制造、智慧城市和智能電動汽車;和碩正在將NIM用于一個當(dāng)?shù)氐幕旌蠈<遥∕oE)模型;勞氏公司正在用NVIDIA NIM推理微服務(wù)來提升員工和客戶的體驗;西門子正在將其運(yùn)營技術(shù)與NIM微服務(wù)整合,用于車間AI工作負(fù)載;還有數(shù)十家醫(yī)療保健公司正在部署NIM,為包括手術(shù)規(guī)劃、數(shù)字助理、藥物發(fā)現(xiàn)和臨床試驗優(yōu)化等在內(nèi)的應(yīng)用領(lǐng)域的生成式AI推理提供支持。

Blackwell開始投產(chǎn)

除了上述產(chǎn)品,黃仁勛還在演講中透露,英偉達(dá)Blackwell芯片已開始投產(chǎn),并將在2025年推出Blackwell Ultra AI芯片。

今年5月,黃仁勛在財報電話會上稱,預(yù)計今年Blackwell架構(gòu)芯片將為公司帶來大量收入。英偉達(dá)對Blackwell芯片寄予厚望,還是與市場強(qiáng)勁需求有關(guān)。從最新披露的財報數(shù)據(jù)來看,2025財年第一財季,英偉達(dá)實現(xiàn)營收260億美元,較上年同期增長262%。其中,數(shù)據(jù)中心業(yè)務(wù)營收226億美元,與上年同期相比增長427%,是業(yè)績收入的“大頭”。

據(jù)英偉達(dá)首席財務(wù)官科萊特·克雷斯(Colette Kress)解讀,數(shù)據(jù)中心業(yè)務(wù)的增長源自Hopper架構(gòu)GPU(例如H100)出貨量的增加;該季度的重要亮點之一就是Meta宣布推出Llama 3 開源大模型,使用了近2.4萬塊H100GPU。

除了披露芯片量產(chǎn)進(jìn)度,英偉達(dá)此次還推出了一系列采用NVIDIA Blackwell架構(gòu)的系統(tǒng)。

據(jù)悉,這些系統(tǒng)搭載了Grace CPU以及NVIDIA網(wǎng)絡(luò)和基礎(chǔ)設(shè)施,用于助力企業(yè)建立AI工廠和數(shù)據(jù)中心。其中,NVIDIA MGX模塊化參考設(shè)計平臺加入了對NVIDIA Blackwell產(chǎn)品的支持,包括專為主流大語言模型推理、檢索增強(qiáng)生成和數(shù)據(jù)處理提供卓 越 性 能 打 造 的 NVIDIA GB200 NVL2平臺。

英偉達(dá)強(qiáng)調(diào),GB200 NVL2適合用于數(shù)據(jù)分析等新興領(lǐng)域,借助NVLink—C2C互連技術(shù)帶來的帶寬內(nèi)存性能及Blackwell架構(gòu)中專有的解壓縮引擎,較使用X86CPU時的數(shù)據(jù)處理速度可最多提速到18倍,能效提高8倍。“新一輪工業(yè)革命已經(jīng)開始,眾多企業(yè)和地區(qū)正在與NVIDIA合作推動價值萬億美元的傳統(tǒng)數(shù)據(jù)中心向加速計算轉(zhuǎn)型,并建造一種新型數(shù)據(jù)中心AI工廠來生產(chǎn)新的商品,人工智能。”黃仁勛稱。

英偉達(dá)方面表示,目前已有超過25家合作伙伴的90多套已發(fā)布或正在開發(fā)中的系統(tǒng)使用了MGX參考架構(gòu),開發(fā)成本較之前最多降低了四分之三,開發(fā)時間縮短到六個月,較之前減少了三分之二。另外,英偉達(dá)還透露,比亞迪電子、西門子、泰瑞達(dá)和Alphabet旗下公司Intrinsic等全球10多家機(jī)器人企業(yè)正在將NVIDIA Isaac加速庫、基于物理學(xué)的仿真和AI模型集成到其軟件框架和機(jī)器人模型中,以此提高工廠、倉庫和配送中心的工作效率。

封面圖片來源:視覺中國

如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai 英偉達(dá) AI芯片

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0