每日經濟新聞 2024-05-21 16:59:08
◎劉偉光認為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點原因。
每經記者 葉曉丹 每經編輯 梁梟
今日(5月21日),阿里云方面宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。
而近期火山引擎官網(wǎng)更新了豆包大模型的定價詳情,全面展示豆包通用模型不同版本、不同規(guī)格的價格信息?;鹕揭娣矫姹硎?,豆包大模型為客戶提供了靈活、經濟的付費模式,“后付費”即可滿足絕大多數(shù)企業(yè)客戶的業(yè)務需求,助力企業(yè)以極低成本使用大模型、加速大模型的應用落地。
2024年是大模型應用落地各行業(yè)的關鍵之年。業(yè)界普遍認為,隨著大模型性能逐漸提升,AI應用創(chuàng)新正進入密集探索期,但推理成本過高依然是制約大模型規(guī)模化應用的關鍵因素。降低大模型推理價格成了大廠們的競爭焦點,低成本應用大模型的價格戰(zhàn)在大廠之間悄然升溫。
2024年2月底,英偉達發(fā)布了2024財年第四季度財報,業(yè)績再次超出預期。據(jù)英偉達電話會議披露,公司全年數(shù)據(jù)中心里已經有40%的收入來自推理業(yè)務,超出大部分人的預期。
訓練AI模型的芯片需求一舉推升英偉達成為“芯片新王”,而AI推理芯片則成為下一個芯片企業(yè)競爭的核心領域。業(yè)界普遍認為,隨著大模型性能逐漸提升,AI應用創(chuàng)新正進入密集探索期,但推理成本過高依然是制約大模型規(guī)?;瘧玫年P鍵因素。
據(jù)新浪科技報道,5月21日,創(chuàng)新工場董事長兼首席執(zhí)行官李開復表示,在一定程度上,整個行業(yè)每年大幅降低推理成本,這是可以期待的,而且是必然也應該發(fā)生的。
近一個月,國內云廠商掀起了新一輪大模型降價潮。
5月11日,智譜AI大模型開放平臺上線了新的價格體系,新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,并且個人版GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元/百萬tokens。
5月15日,火山引擎宣布,豆包Pro 32k模型定價是0.0008元/千tokens,這個價格比行業(yè)降低了99.3%。此外,豆包Pro 128k模型定價是0.005元/千tokens。
5月21日,阿里云宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。
5月21日,阿里云智能集團資深副總裁、公共云事業(yè)部總裁劉偉光表示:“作為中國第一大云計算公司,阿里云這次大幅降低大模型推理價格,就是希望加速AI應用的爆發(fā)。我們預計未來大模型API的調用量會有成千上萬倍的增長。”
劉偉光認為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點原因:一是公共云的技術紅利和規(guī)模效應,帶來成本和性能優(yōu)勢;二是云上更方便進行多模型調用,并提供企業(yè)級的數(shù)據(jù)安全保障;三是云廠商天然的開放性,能為開發(fā)者提供最豐富的模型和工具鏈。
如需轉載請與《每日經濟新聞》報社聯(lián)系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP