每日經(jīng)濟新聞 2024-06-05 10:44:33
每經(jīng)編輯 杜宇
4日,7名OpenAI前員工、4名現(xiàn)任匿名員工和谷歌DeepMind前任與現(xiàn)任員工發(fā)布公開信,警告商業(yè)公司競相開發(fā)人工智能產(chǎn)品存在風(fēng)險,該行業(yè)缺乏足夠的監(jiān)管,并可能對吹哨人打擊報復(fù)。
公開信刊載在righttowarn.ai網(wǎng)站上,網(wǎng)站域名和信件標題都在捍衛(wèi)這些頂尖AI公司員工《對先進人工智能發(fā)出警告的權(quán)利》,呼吁對AI行業(yè)進行全面改革,包括提高透明度和保護吹哨人。
信件稱,人工智能技術(shù)有潛力為人類帶來前所未有的利益,但也存在嚴重風(fēng)險,包括進一步加劇現(xiàn)有的不平等、操縱和誤導(dǎo)信息,以及失去對自主人工智能系統(tǒng)的控制,可能導(dǎo)致人類滅絕。
圖片來源:righttowarn.ai網(wǎng)站
信件隨即列出OpenAI、谷歌人工智能實驗室Google DeepMind、谷歌和亞馬遜支持的AI初創(chuàng)公司Anthropic等官網(wǎng),以及英美等國政府網(wǎng)站和一些人工智能專家都“已承認存在這些風(fēng)險”。
公開信稱,原本希望在科學(xué)界、政策制定者和公眾的充分指導(dǎo)下,上述先進AI系統(tǒng)帶來的風(fēng)險能夠得到充分緩解,但人工智能公司有強烈的經(jīng)濟動機來逃避有效監(jiān)督:
“人工智能公司掌握著大量非公開信息,包括其系統(tǒng)的能力和局限性、保護措施的充分性,以及不同類型傷害的風(fēng)險水平。但它們目前只有很弱的義務(wù)向政府分享部分信息,對公民社會則沒有任何分享義務(wù)。我們認為,不能指望它們(注:商業(yè)公司)自愿分享這些信息。”
信件還稱,AI公司們與員工簽署了廣泛的保密協(xié)議,與離職員工簽署了不能借由披露AI風(fēng)險而“對公司進行貶低批評”的嚴苛條款,整個行業(yè)發(fā)生過對吹哨人各種形式的報復(fù)案件。
因此,公開信要求OpenAI及所有人工智能公司都不得簽訂或執(zhí)行避免批評AI風(fēng)險的保密協(xié)議,不能通過妨礙揭露AI風(fēng)險吹哨人的既得經(jīng)濟利益來打擊報復(fù),而且要為現(xiàn)任和前任員工提供“可驗證的匿名流程”,以便向公司董事會、監(jiān)管機構(gòu)和具有相關(guān)專業(yè)知識的獨立組織提出與AI風(fēng)險相關(guān)的擔(dān)憂,前提是吹哨人需要對公司的商業(yè)機密和其他知識產(chǎn)權(quán)利益進行適當(dāng)保護。
公開信的簽署者之一、今年4月從OpenAI人工智能治理崗位離職的Daniel Kokotajlo指出,辭職是因為“對OpenAI能否負責(zé)任地行事失去了信心”。他稱OpenAI的人工智能系統(tǒng)已經(jīng)接近人類智能水平,通用人工智能AGI有50%的可能性在2027年就會問世,而不是此前預(yù)測的2050年:
“世界還沒有準備好(迎接如此高級的AI智能),我們也沒有準備好,我擔(dān)心(這些商業(yè)公司)將不管不顧地一意孤行,并為自己的行為尋找借口。先進的人工智能毀滅人類或?qū)θ祟愒斐蔀?zāi)難性傷害的可能性高達70%。”
圖片來源:視覺中國
另據(jù)參考消息,沙特阿拉伯《阿拉伯新聞》日報網(wǎng)站5月26日刊登題為《全球人工智能討論必須在關(guān)注機遇的同時關(guān)注風(fēng)險》的文章,英國倫敦政治經(jīng)濟學(xué)院國際事務(wù)、外交和重大戰(zhàn)略研究中心研究員安德魯·哈蒙德表示,目前,人工智能帶來的巨大經(jīng)濟機遇令市場興奮不已。許多投資者認為,這項新興技術(shù)將在未來幾年大幅提高生產(chǎn)率并重塑全球經(jīng)濟。
然而,人工智能的風(fēng)險也必須成為全球討論的一個關(guān)鍵點。著名計算機科學(xué)家杰弗里·欣頓斷言,這項技術(shù)對人類構(gòu)成的威脅可能比氣候變化“更為緊迫”。
埃隆·馬斯克等關(guān)鍵商業(yè)領(lǐng)袖也發(fā)出警告,呼吁立即暫停某些系統(tǒng)的開發(fā)。這位特斯拉創(chuàng)始人經(jīng)常警告在他看來人工智能系統(tǒng)存在的危險,甚至簽署了一封公開信,警告“失控”的發(fā)展可能“對社會和人類構(gòu)成巨大風(fēng)險”。
這一話題是全球人工智能安全峰會的一個關(guān)鍵主題,該峰會由韓國總統(tǒng)尹錫悅主持,而去年英國主持召開了一場類似會議。這兩場會議都匯集了世界各國領(lǐng)導(dǎo)人、科技企業(yè)負責(zé)人和學(xué)者,討論如何以最佳方式監(jiān)管這種快速發(fā)展的技術(shù),以及通過采用這種技術(shù)促進更大程度的數(shù)字包容和可持續(xù)增長。
雖然韓國、英國和法國(法國將在今年或明年舉辦第三次全球人工智能安全峰會)正尋求在這一議程上引領(lǐng)國際社會,但它們并不孤單。中美官員最近在日內(nèi)瓦同樣就人工智能安全問題舉行了會議。
在日內(nèi)瓦會議上,中美兩國高級官員討論了如何最大限度降低人工智能的風(fēng)險,以及抓住這項技術(shù)帶來的機遇。會談更多關(guān)注如何在兩國各自努力推動這一議程的背景下最大限度地管理風(fēng)險。
據(jù)新華社此前消息,美國總統(tǒng)拜登2023年10月30日簽署一項行政命令,為人工智能安全制定了新標準。美國媒體稱,這是拜登政府對人工智能技術(shù)采取的第一項具有約束力的重大行動。
白宮在一份聲明中說,這項行政令“具有里程碑意義”,將保護美國公民隱私,促進公平和公民權(quán)利,維護消費者和工作者權(quán)益,促進創(chuàng)新和競爭等。
這一行政令要求,美國最強人工智能系統(tǒng)的研發(fā)人員需與政府分享其安全測試結(jié)果及其他關(guān)鍵信息;完善相關(guān)標準和測試工具,確保人工智能系統(tǒng)安全、可靠;制定嚴密的合成生物檢查新標準,防范使用人工智能設(shè)計危險生物材料的風(fēng)險;建立檢測人工智能生成內(nèi)容和驗證官方內(nèi)容的標準和最佳實踐,以幫助民眾防范人工智能驅(qū)動的欺詐;建立先進的網(wǎng)絡(luò)安全計劃,開發(fā)人工智能工具查找和修補關(guān)鍵軟件漏洞;研發(fā)制定“國家安全備忘錄”,指導(dǎo)人工智能和安全方面的進一步行動。
據(jù)介紹,美國國家標準與技術(shù)研究所將制定嚴格的人工智能“紅隊”標準。美國國土安全部將把這些標準應(yīng)用于核心基礎(chǔ)設(shè)施項目,并成立人工智能安全委員會。美國能源部和國土安全部將具體應(yīng)對人工智能系統(tǒng)對關(guān)鍵基礎(chǔ)設(shè)施的威脅,及其帶來的化學(xué)、生物、放射性材料、核及網(wǎng)絡(luò)安全風(fēng)險。
人工智能“紅隊”測試是網(wǎng)絡(luò)安全中的一項關(guān)鍵實踐,由專家團隊模擬真實世界的對手及其策略,以測試和增強系統(tǒng)的安全性。
每日經(jīng)濟新聞綜合新華社、參考消息、公開資料
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP