每日經濟新聞 2024-02-03 13:13:03
每經記者 溫雅蘭 每經編輯 張凌霄
麥肯錫數據顯示,如果將分析的63種生成式AI應用于各行各業(yè),將為全球經濟每年帶來2.6萬億至4.4萬億美元的增長。
在“瞰見未來”2024復旦管院新年論壇上,中國科學院院士、華科智谷人工智能研究院院長何積豐以《人工智能重塑人類未來》為主題發(fā)表演講,圍繞AI重塑社會分工、AI產生的行業(yè)變革、如何破解AI安全問題等分享了最新研究與行業(yè)洞見。
“在人工智能技術快速發(fā)展的階段,深度學習算法不斷迭代。以人工智能技術為代表的革命,實際上是知識生產力的變革,是知識革命。”何積豐在接受《每日經濟新聞》記者采訪時如是說。
中國科學院院士、華科智谷人工智能研究院院長何積豐 圖片來源:主辦方供圖
挑戰(zhàn):成本消耗與安全隱患
人工智能學習知識的速度是人類平均速度的一倍以上,但是所需的時間只要人類的40%左右。
“人類從小學到大學畢業(yè)大概需要十六年時間,而預計2026年前后,大模型就可以消化人類歷史上所有有價值的文字數據。”何積豐說,“據不完全統(tǒng)計,人工智能的行業(yè)采用率達到60%左右,與各行業(yè)的關系非常密切。”
但是我們不得不意識到強大的生產力背后所隱藏的安全隱患。活動現場,何積豐向大家介紹了人工智能的安全隱患客觀上會產生的兩大威脅。
第一,大模型開啟了真正意義上的通用人工智能,但是我們是否有能力駕馭這一比人類學習能力更強、更聰明的“物種”?何積豐表示,這個問題目前并沒有明確的答案,我們仍在探索之中。
第二,大模型的通用能力讓其能夠應用到人類生產生活的各個場景中,可謂“無孔不入”。“一旦AI出現安全問題,其影響將難以預估。”何積豐說。
談及安全問題,數據隱私安全往往是社會公眾最為關注的。
何積豐解釋說,大模型時代的隱私安全問題涉及到三個緯度。首先,訓練過程會涉及大量用戶個人信息和數據;其次,使用過程會涉及很多用戶私密信息,這些信息沒有受到應有的保護;最后,生成能力讓“隱私泄露”的方式變得多樣化,也讓隱私保護更加困難。
“在提供大模型訓練數據的過程中,雖然可以通過脫敏處理使數據更加抽象和類型化,但因為大模型可以進行跨領域的交叉推理,所以依然能夠還原原始數據里的信息。”何積豐解釋道,“除了在訓練過程、使用過程中可能發(fā)生數據隱私泄露,生成式大模型依靠語料庫,還會按照‘意志’對數據進行修改,而為搜索引擎建立的數據保護策略對大模型也無法奏效。”
此外,何積豐在采訪中也表示,能源的大量消耗也是人工智能技術發(fā)展必須面對的一大挑戰(zhàn)。在大模型訓練過程中,大約有65%的成本都是能源消耗,雖然大模型具有強大的學習能力,能夠成為人類的助手,但是其開發(fā)的代價也是極大的。
何積豐表示,在未來一段時間內,我國人工智能技術的主攻方向將聚焦于解決軟件和硬件的融合問題、跨行業(yè)的多模態(tài)融合和提升使用便捷度三個方向。
“大模型受歡迎的原因就在于可以使用自然語言。在人機界面使用自然語言是極大的突破,當界面越容易使用,使用者就越多,市場面也就更廣。”何積豐對記者說。
賦能:充分發(fā)揮人類的主觀能動性
大模型擁有超強的學習能力和問題分析能力,學會運用技術,是我們不會被“替代”的關鍵之一。
何積豐介紹,目前AI取代人類工作的時間被大幅提前了10年,在2030年至2060年間,50%的職業(yè)將逐步被AI取代。“AI也會對個人工作產生重要影響。例如,AI可以使60%-70%的工作實現自動化,對高學歷、高收入的知識工作者影響更大。”
那么,我們如何做才能與技術“和平共處”?
事實上,任何技術的發(fā)展都會在淘汰落后技術相關崗位的同時,生成新技術相關崗位。
何積豐表示,我們必須意識到,人類進行技術研發(fā)是為了有智能助手來幫助我們提升效率,而并不希望出現“教會徒弟,餓死師傅”的情況。所以人要專精自己的優(yōu)勢和專業(yè)領域,不斷提高自己的專業(yè)水平,思考如何把AI應用到自己的專業(yè)中,提高自己的產出效率。同時,不斷接收新信息、擁抱新變化,拓展自己的事業(yè),接觸更多的人和行業(yè)。
此外,何積豐在采訪中也從教育的角度出發(fā),向教育工作者提出幾點建議。他認為,我們要不斷培養(yǎng)學生的好奇心和他們探索知識的能力。“當前的大模型技術仍不具備自主學習的能力,所以我們要想辦法走在AI之前,發(fā)揮人的主觀能動性。”
如需轉載請與《每日經濟新聞》報社聯(lián)系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP