每日經(jīng)濟(jì)新聞 2024-04-16 10:28:34
每經(jīng)記者 可楊 每經(jīng)編輯 文多
4月16日,百度創(chuàng)始人、董事長(zhǎng)兼首席執(zhí)行官李彥宏在Create 2024百度AI開發(fā)者大會(huì)上,正式宣布發(fā)布文心大模型4.0的工具版。
李彥宏表示,相比一年前,文心大模型的算法訓(xùn)練效率提升到了原來(lái)的5.1倍,周均訓(xùn)練有效率達(dá)到98.8%,推理性能提升了105倍,推理的成本降到了原來(lái)的1%。“也就是說(shuō),客戶原來(lái)一天調(diào)用1萬(wàn)次,同樣成本之下,現(xiàn)在一天可以調(diào)用100萬(wàn)次。”
此外,李彥宏在演講中分享了百度過(guò)去一年實(shí)踐出來(lái)的、開發(fā)AI原生應(yīng)用的具體思路和工具。“這是我們百度根據(jù)過(guò)去一年的實(shí)踐,踩了無(wú)數(shù)的坑,交了高昂的學(xué)費(fèi)換來(lái)的。”他強(qiáng)調(diào),大語(yǔ)言模型本身并不直接創(chuàng)造價(jià)值,基于大模型開發(fā)出來(lái)的AI應(yīng)用才能滿足真實(shí)的市場(chǎng)需求。
圖片來(lái)源:企業(yè)提供
李彥宏首先表示,未來(lái),大型的AI原生應(yīng)用基本都是MoE。他介紹:“這里所說(shuō)的MoE不是一般的學(xué)術(shù)概念,而是大小模型的混用,不依賴一個(gè)模型來(lái)解決所有問(wèn)題。”
其次,李彥宏表示,小模型推理成本低,響應(yīng)速度快,在一些特定場(chǎng)景中,經(jīng)過(guò)精調(diào)后的小模型使用效果可以媲美大模型。這也是百度發(fā)布ERNIE Speed、ERNIE Lite和ERNIE Tiny三個(gè)輕量模型的原因。“我們通過(guò)大模型,壓縮‘蒸餾’出來(lái)一個(gè)基礎(chǔ)模型,然后再用數(shù)據(jù)去訓(xùn)練,這比從頭開始訓(xùn)小模型,效果要好很多,比基于開源模型訓(xùn)出來(lái)的模型,效果更好,速度更快,成本更低。”他表示。
第三是智能體。李彥宏表示,“智能體”是當(dāng)前非常熱的一個(gè)話題,隨著智能體能力的提升,會(huì)不斷催生出大量的AI原生應(yīng)用。智能體機(jī)制包括理解、規(guī)劃、反思和進(jìn)化,它讓機(jī)器像人一樣思考和行動(dòng),可以自主完成復(fù)雜任務(wù),在環(huán)境中持續(xù)學(xué)習(xí)、實(shí)現(xiàn)自我迭代和自我進(jìn)化。“在一些復(fù)雜系統(tǒng)中,我們還可以讓不同的智能體互動(dòng),相互協(xié)作,更高質(zhì)量地完成任務(wù)。這些智能體能力,我們已經(jīng)開發(fā)出來(lái)了,并且向開發(fā)者全面開放。”李彥宏介紹。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP