每日經(jīng)濟(jì)新聞 2024-06-07 18:27:28
每經(jīng)編輯 張錦河
開欄語(yǔ):《AIGC行業(yè)周報(bào)》梳理AIGC行業(yè)一周內(nèi)發(fā)生的重要?jiǎng)討B(tài),產(chǎn)品發(fā)布和業(yè)內(nèi)大咖的最新觀點(diǎn)。
圖片來(lái)源:每經(jīng)制圖
(一)OpenAI公開前沿大模型安全策略細(xì)節(jié)
6月6日凌晨,OpenAI首次系統(tǒng)性地公開了其前沿大模型的安全策略,包括基礎(chǔ)架構(gòu)、保護(hù)措施、敏感數(shù)據(jù)存儲(chǔ)和開發(fā)人員訪問管理等高級(jí)細(xì)節(jié)。這些信息不僅展示了OpenAI模型的開發(fā)流程,也為開發(fā)者研究前沿大模型提供了技術(shù)參考。同時(shí),OpenAI近期頻繁發(fā)布關(guān)于AI模型安全的介紹,反映出其面臨的安全壓力。此外,11名OpenAI的現(xiàn)役和前員工發(fā)布了公開信,警告前沿AI模型可能帶來(lái)的風(fēng)險(xiǎn),并呼吁制定安全、可持續(xù)的監(jiān)督條例和規(guī)則。
(二)斯坦福Llama3-V項(xiàng)目被指抄襲清華MiniCPM-Llama3-V 2.5,引發(fā)開源社區(qū)質(zhì)疑
近日,斯坦福大學(xué)的研究團(tuán)隊(duì)發(fā)布了Llama3-V項(xiàng)目,宣稱僅需500美元就能訓(xùn)練出一個(gè)與GPT4-V等性能相當(dāng)?shù)亩嗄B(tài)模型。然而,項(xiàng)目很快受到社區(qū)的質(zhì)疑,被指控抄襲了清華大學(xué)與面壁智能合作開發(fā)的MiniCPM-Llama3-V 2.5模型。面對(duì)抄襲指控,Llama3-V的GitHub倉(cāng)庫(kù)和HuggingFace頁(yè)面被刪除,作者之一也對(duì)使用MiniCPM-Llama3-V 2.5的tokenizer進(jìn)行了回應(yīng),但社區(qū)成員通過(guò)對(duì)比分析發(fā)現(xiàn)了更多代碼和架構(gòu)上的相似之處,指出Llama3-V作者可能并不完全理解自己所使用的代碼。盡管Llama3-V項(xiàng)目試圖通過(guò)刪除項(xiàng)目頁(yè)面來(lái)應(yīng)對(duì)質(zhì)疑,但社區(qū)成員已經(jīng)保存了相關(guān)證據(jù),并呼吁斯坦福大學(xué)介入調(diào)查這一可能的學(xué)術(shù)不端行為。
(三)OpenAI和Google員工聯(lián)名警告AI風(fēng)險(xiǎn),獲“深度學(xué)習(xí)之父”支持
近日,來(lái)自O(shè)penAI和Google DeepMind的數(shù)名現(xiàn)任和前任員工發(fā)表了一封公開信,警告人工智能發(fā)展可能帶來(lái)的風(fēng)險(xiǎn),包括社會(huì)不平等加劇、錯(cuò)誤信息傳播和自主AI系統(tǒng)失控等。公開信強(qiáng)調(diào),盡管全球政府和AI專家已意識(shí)到這些風(fēng)險(xiǎn),但追求財(cái)務(wù)利益的AI公司往往抵制有效監(jiān)督,現(xiàn)有企業(yè)治理結(jié)構(gòu)不足以應(yīng)對(duì)挑戰(zhàn)。信中呼吁AI企業(yè)遵循不簽訂禁止負(fù)面評(píng)價(jià)的協(xié)議、建立匿名反饋機(jī)制等原則。這封公開信得到了“AI教父”Geoffrey Hinton、圖靈獎(jiǎng)得主Yoshua Bengio以及AI安全領(lǐng)域頂級(jí)學(xué)者Stuart Russell的支持。
(一)英偉達(dá)發(fā)布Blackwell GPU,推進(jìn)AI帝國(guó)建設(shè)并解決全球耗電難題
6月3日凌晨,英偉達(dá)CEO黃仁勛(老黃)宣布了一系列技術(shù)創(chuàng)新和產(chǎn)品迭代,包括已經(jīng)量產(chǎn)的Blackwell GPU,這款迄今為止最大的芯片將在未來(lái)8年內(nèi)將1.8萬(wàn)億參數(shù)GPT-4的訓(xùn)練能耗降低至原來(lái)的1/350。Blackwell GPU的推出,連同其后三代的路線圖,標(biāo)志著英偉達(dá)在AI領(lǐng)域的雄心和實(shí)力。黃仁勛還展示了英偉達(dá)在加速計(jì)算、AI工廠、數(shù)字人、智能體等領(lǐng)域的進(jìn)展,并預(yù)告了下一代芯片Rubin。此外,英偉達(dá)還發(fā)布了數(shù)字孿生地球「Earth-2」項(xiàng)目,旨在通過(guò)高解析度的模擬預(yù)測(cè)全球氣候變化,推動(dòng)物理AI和具身AI的發(fā)展,為未來(lái)的AI機(jī)器人時(shí)代鋪路。
(二)國(guó)產(chǎn)AI視頻生成模型「可靈」開放測(cè)試,展現(xiàn)高真實(shí)度和物理規(guī)律模擬能力
近日,快手推出了名為「可靈」的國(guó)產(chǎn)AI視頻生成大模型,該模型基于Sora技術(shù)路線并結(jié)合自研創(chuàng)新,能夠生成長(zhǎng)達(dá)2分鐘、1080p分辨率的超長(zhǎng)視頻??伸`不僅在運(yùn)動(dòng)模擬上表現(xiàn)出色,還能準(zhǔn)確刻畫復(fù)雜運(yùn)動(dòng)并符合物理規(guī)律,如重力和光學(xué)反射。此外,它還支持自由寬高比,與快手的短視頻生態(tài)高度匹配。目前,可靈已在快影APP中開放測(cè)試,標(biāo)志著快手在短視頻領(lǐng)域的AI應(yīng)用邁出了重要一步。
(三)Meta AI模型NLLB200在Nature發(fā)表,翻譯質(zhì)量提升44%
6月6日,Meta公司在《自然》雜志上發(fā)表了關(guān)于其最新AI模型No Language Left Behind (NLLB)的研究文章,該模型能夠支持200種語(yǔ)言之間的高質(zhì)量翻譯,特別強(qiáng)調(diào)了對(duì)低資源語(yǔ)言的翻譯能力。NLLB-200模型通過(guò)采用稀疏門控專家混合架構(gòu),實(shí)現(xiàn)了高效的參數(shù)利用和計(jì)算資源分配,顯著提升了翻譯質(zhì)量,平均翻譯質(zhì)量提升了44%。此外,NLLB項(xiàng)目還包括了數(shù)據(jù)挖掘與預(yù)處理的創(chuàng)新方法,多語(yǔ)言訓(xùn)練策略,以及綜合評(píng)估工具的開發(fā),確保翻譯結(jié)果的安全性和可靠性。
(四)Stable Diffusion 3 Medium模型將于6月12日開源,優(yōu)化多方面性能
6月3日晚,Stability AI的聯(lián)合首席執(zhí)行官Christian Laforte在AMD產(chǎn)品發(fā)布會(huì)上宣布,備受期待的文本到圖像生成模型Stable Diffusion 3的Medium版本,具有20億參數(shù),將在6月12日通過(guò)Hugging Face平臺(tái)開源。該模型在照片真實(shí)感、樣式、圖片質(zhì)量以及資源消耗等方面進(jìn)行了顯著優(yōu)化,提供了與閉源產(chǎn)品Midjourney、DALL·E 3相媲美的性能。盡管之前Stability AI經(jīng)歷了管理層變動(dòng)和財(cái)務(wù)危機(jī),但公司不僅穩(wěn)定了局面,還可能獲得了AMD的贊助。Stable Diffusion 3采用了Diffusion Transformer架構(gòu),有效提升了文本語(yǔ)義理解、文字嵌入和圖像樣式的表現(xiàn),目前該模型限于學(xué)術(shù)研究使用,商業(yè)化使用需聯(lián)系Stability AI。
(五)昆侖萬(wàn)維開源2000億參數(shù)稀疏大模型Skywork-MoE,支持單GPU推理
6月3日,昆侖萬(wàn)維公司宣布開源其2000億參數(shù)的稀疏大模型Skywork-MoE,該模型在保持高性能的同時(shí)大幅降低了推理成本。Skywork-MoE是基于之前開源的Skywork-13B模型擴(kuò)展而來(lái),是首個(gè)完整應(yīng)用MoE Upcycling技術(shù)并落地的千億級(jí)MoE大模型,也是首個(gè)支持使用單個(gè)4090 GPU進(jìn)行推理的開源模型。模型權(quán)重、技術(shù)報(bào)告完全開源,免費(fèi)商用,無(wú)需申請(qǐng)。Skywork-MoE在8x4090服務(wù)器上通過(guò)FP8量化和非均勻Tensor Parallel并行推理方式,能夠達(dá)到2200 tokens/s的吞吐量。該模型還引入了Gating Logits歸一化操作和自適應(yīng)的Aux Loss訓(xùn)練優(yōu)化算法,提升了模型性能和泛化水平。此外,Skywork-MoE展示了在不同訓(xùn)練階段如何通過(guò)調(diào)整auxiliary loss系數(shù)來(lái)控制Drop Token Rate,以及如何通過(guò)Expert Data Parallel和非均勻切分流水并行技術(shù)提高大規(guī)模分布式訓(xùn)練的效率。
(六)智譜AI發(fā)布開源GLM-4系列大模型,引領(lǐng)MaaS平臺(tái)升級(jí)與行業(yè)生態(tài)發(fā)展
6月5日,智譜AI在其開放日上宣布了GLM-4系列大模型的最新開源版本,包括性能超越Llama 3 8B的GLM-4-9B和多模態(tài)能力比肩GPT-4V的GLM-4V-9B,同時(shí)大幅降低了大模型服務(wù)的成本,以6分錢/100萬(wàn)Token的價(jià)格提供服務(wù)。智譜AI的MaaS(Model as a Service)平臺(tái)升級(jí)至2.0版本,提供更高效的模型微調(diào)平臺(tái)和簡(jiǎn)化的私有模型部署流程。公司CEO張鵬強(qiáng)調(diào)了通過(guò)技術(shù)創(chuàng)新實(shí)現(xiàn)應(yīng)用成本降低和客戶價(jià)值提升的商業(yè)策略,并展示了智譜AI在大模型技術(shù)、生態(tài)建設(shè)和AI安全標(biāo)準(zhǔn)制定方面的領(lǐng)導(dǎo)地位。此外,智譜AI的開源模型累計(jì)下載量達(dá)到1600萬(wàn)次,顯示了其在AI技術(shù)領(lǐng)域的廣泛影響力。
(一)英偉達(dá)Jim Fan認(rèn)為具身智能的關(guān)鍵在于開發(fā)「Foundation Agent」
近日,英偉達(dá)高級(jí)研究科學(xué)家Jim Fan在GenAI峰會(huì)上探討了具身智能的挑戰(zhàn)與發(fā)展,認(rèn)為難點(diǎn)不在于硬件,而在于開發(fā)「Foundation Agent」——一種能夠?qū)崿F(xiàn)具身性、現(xiàn)實(shí)交互和技能掌握的通用算法。他分享了英偉達(dá)在Minecraft AI研究、Metamorph多形態(tài)機(jī)器人控制、Eureka自動(dòng)獎(jiǎng)勵(lì)函數(shù)設(shè)計(jì)等方面的最新進(jìn)展,并強(qiáng)調(diào)了域隨機(jī)化技術(shù)在將模擬環(huán)境訓(xùn)練的模型泛化到現(xiàn)實(shí)世界中的應(yīng)用。Jim Fan預(yù)測(cè),隨著技術(shù)進(jìn)步,仿人機(jī)器人的成本將大幅下降,而人工智能的發(fā)展將是推動(dòng)具身智能發(fā)展的關(guān)鍵因素。
(二)報(bào)告:生成式AI應(yīng)用激增,亞太成增長(zhǎng)最快區(qū)域
近日,全球咨詢公司麥肯錫發(fā)布的最新調(diào)查報(bào)告指出,生成式AI技術(shù)如ChatGPT和Copilot等的應(yīng)用在2024年顯著增長(zhǎng),65%的受訪管理者已經(jīng)在業(yè)務(wù)中使用該技術(shù),相比2023年的33%幾乎增長(zhǎng)了兩倍。報(bào)告特別強(qiáng)調(diào),亞太地區(qū)是應(yīng)用生成式AI增長(zhǎng)最快的區(qū)域,這主要得益于技術(shù)環(huán)境和原生數(shù)字人口的優(yōu)勢(shì)。應(yīng)用場(chǎng)景主要集中在營(yíng)銷銷售、產(chǎn)品服務(wù)開發(fā)以及IT領(lǐng)域。企業(yè)采用生成式AI的方式多樣,包括使用現(xiàn)成產(chǎn)品、合作微調(diào)模型和自主開發(fā)。麥肯錫認(rèn)為,2024年是生成式AI實(shí)現(xiàn)場(chǎng)景化落地并產(chǎn)生商業(yè)價(jià)值的一年。
來(lái)源:每經(jīng)科技提供
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP