国产成人精品免费视,91天堂嫩模在线播放,国产免费小视频在线观看,久久免费公开视频,国产成人精品免费视频网页大全,日韩不卡在线视频,视频一区二区精品的福利

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

OpenAI、谷歌DeepMind現(xiàn)任和前任員工警告人工智能風險:可能導致人類滅絕!呼吁保護吹哨人

每日經(jīng)濟新聞 2024-06-05 10:44:33

每經(jīng)編輯 杜宇

4日,7名OpenAI前員工、4名現(xiàn)任匿名員工和谷歌DeepMind前任與現(xiàn)任員工發(fā)布公開信,警告商業(yè)公司競相開發(fā)人工智能產品存在風險,該行業(yè)缺乏足夠的監(jiān)管,并可能對吹哨人打擊報復。

公開信刊載在righttowarn.ai網(wǎng)站上,網(wǎng)站域名和信件標題都在捍衛(wèi)這些頂尖AI公司員工《對先進人工智能發(fā)出警告的權利》,呼吁對AI行業(yè)進行全面改革,包括提高透明度和保護吹哨人。

信件稱,人工智能技術有潛力為人類帶來前所未有的利益,但也存在嚴重風險,包括進一步加劇現(xiàn)有的不平等、操縱和誤導信息,以及失去對自主人工智能系統(tǒng)的控制,可能導致人類滅絕。

圖片來源:righttowarn.ai網(wǎng)站

信件隨即列出OpenAI、谷歌人工智能實驗室Google DeepMind、谷歌和亞馬遜支持的AI初創(chuàng)公司Anthropic等官網(wǎng),以及英美等國政府網(wǎng)站和一些人工智能專家都“已承認存在這些風險”。

公開信稱,原本希望在科學界、政策制定者和公眾的充分指導下,上述先進AI系統(tǒng)帶來的風險能夠得到充分緩解,但人工智能公司有強烈的經(jīng)濟動機來逃避有效監(jiān)督:

“人工智能公司掌握著大量非公開信息,包括其系統(tǒng)的能力和局限性、保護措施的充分性,以及不同類型傷害的風險水平。但它們目前只有很弱的義務向政府分享部分信息,對公民社會則沒有任何分享義務。我們認為,不能指望它們(注:商業(yè)公司)自愿分享這些信息。”

信件還稱,AI公司們與員工簽署了廣泛的保密協(xié)議,與離職員工簽署了不能借由披露AI風險而“對公司進行貶低批評”的嚴苛條款,整個行業(yè)發(fā)生過對吹哨人各種形式的報復案件。

因此,公開信要求OpenAI及所有人工智能公司都不得簽訂或執(zhí)行避免批評AI風險的保密協(xié)議,不能通過妨礙揭露AI風險吹哨人的既得經(jīng)濟利益來打擊報復,而且要為現(xiàn)任和前任員工提供“可驗證的匿名流程”,以便向公司董事會、監(jiān)管機構和具有相關專業(yè)知識的獨立組織提出與AI風險相關的擔憂,前提是吹哨人需要對公司的商業(yè)機密和其他知識產權利益進行適當保護。

公開信的簽署者之一、今年4月從OpenAI人工智能治理崗位離職的Daniel Kokotajlo指出,辭職是因為“對OpenAI能否負責任地行事失去了信心”。他稱OpenAI的人工智能系統(tǒng)已經(jīng)接近人類智能水平,通用人工智能AGI有50%的可能性在2027年就會問世,而不是此前預測的2050年:

“世界還沒有準備好(迎接如此高級的AI智能),我們也沒有準備好,我擔心(這些商業(yè)公司)將不管不顧地一意孤行,并為自己的行為尋找借口。先進的人工智能毀滅人類或對人類造成災難性傷害的可能性高達70%。”

圖片來源:視覺中國

另據(jù)參考消息,沙特阿拉伯《阿拉伯新聞》日報網(wǎng)站5月26日刊登題為《全球人工智能討論必須在關注機遇的同時關注風險》的文章,英國倫敦政治經(jīng)濟學院國際事務、外交和重大戰(zhàn)略研究中心研究員安德魯·哈蒙德表示,目前,人工智能帶來的巨大經(jīng)濟機遇令市場興奮不已。許多投資者認為,這項新興技術將在未來幾年大幅提高生產率并重塑全球經(jīng)濟。

然而,人工智能的風險也必須成為全球討論的一個關鍵點。著名計算機科學家杰弗里·欣頓斷言,這項技術對人類構成的威脅可能比氣候變化“更為緊迫”。

埃隆·馬斯克等關鍵商業(yè)領袖也發(fā)出警告,呼吁立即暫停某些系統(tǒng)的開發(fā)。這位特斯拉創(chuàng)始人經(jīng)常警告在他看來人工智能系統(tǒng)存在的危險,甚至簽署了一封公開信,警告“失控”的發(fā)展可能“對社會和人類構成巨大風險”。

這一話題是全球人工智能安全峰會的一個關鍵主題,該峰會由韓國總統(tǒng)尹錫悅主持,而去年英國主持召開了一場類似會議。這兩場會議都匯集了世界各國領導人、科技企業(yè)負責人和學者,討論如何以最佳方式監(jiān)管這種快速發(fā)展的技術,以及通過采用這種技術促進更大程度的數(shù)字包容和可持續(xù)增長。

雖然韓國、英國和法國(法國將在今年或明年舉辦第三次全球人工智能安全峰會)正尋求在這一議程上引領國際社會,但它們并不孤單。中美官員最近在日內瓦同樣就人工智能安全問題舉行了會議。

在日內瓦會議上,中美兩國高級官員討論了如何最大限度降低人工智能的風險,以及抓住這項技術帶來的機遇。會談更多關注如何在兩國各自努力推動這一議程的背景下最大限度地管理風險。

據(jù)新華社此前消息,美國總統(tǒng)拜登2023年10月30日簽署一項行政命令,為人工智能安全制定了新標準。美國媒體稱,這是拜登政府對人工智能技術采取的第一項具有約束力的重大行動。

白宮在一份聲明中說,這項行政令“具有里程碑意義”,將保護美國公民隱私,促進公平和公民權利,維護消費者和工作者權益,促進創(chuàng)新和競爭等。

這一行政令要求,美國最強人工智能系統(tǒng)的研發(fā)人員需與政府分享其安全測試結果及其他關鍵信息;完善相關標準和測試工具,確保人工智能系統(tǒng)安全、可靠;制定嚴密的合成生物檢查新標準,防范使用人工智能設計危險生物材料的風險;建立檢測人工智能生成內容和驗證官方內容的標準和最佳實踐,以幫助民眾防范人工智能驅動的欺詐;建立先進的網(wǎng)絡安全計劃,開發(fā)人工智能工具查找和修補關鍵軟件漏洞;研發(fā)制定“國家安全備忘錄”,指導人工智能和安全方面的進一步行動。

據(jù)介紹,美國國家標準與技術研究所將制定嚴格的人工智能“紅隊”標準。美國國土安全部將把這些標準應用于核心基礎設施項目,并成立人工智能安全委員會。美國能源部和國土安全部將具體應對人工智能系統(tǒng)對關鍵基礎設施的威脅,及其帶來的化學、生物、放射性材料、核及網(wǎng)絡安全風險。

人工智能“紅隊”測試是網(wǎng)絡安全中的一項關鍵實踐,由專家團隊模擬真實世界的對手及其策略,以測試和增強系統(tǒng)的安全性。

每日經(jīng)濟新聞綜合新華社、參考消息、公開資料

如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

人工智能 谷歌

歡迎關注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0