每日經(jīng)濟(jì)新聞 2023-03-23 12:37:33
每經(jīng)編輯 杜宇
據(jù)CGTN采訪團(tuán)隊(duì)官方微博3月23日發(fā)布消息稱,據(jù)BBC報(bào)道,最近爆火的ChatGPT出現(xiàn)了嚴(yán)重技術(shù)漏洞,用戶在社交媒體上表示看到了其他人的歷史搜索記錄標(biāo)題。
OpenAI首席執(zhí)行官Sam Altman今日發(fā)布推文宣布修復(fù)程序已驗(yàn)證完成,并對此“感覺十分糟糕”。
OpenAI首席執(zhí)行官Sam Altman最近在接受ABC新聞采訪時(shí)表示,他對人工智能技術(shù)以及它如何影響勞動力、選舉和虛假信息的傳播有些“害怕”。他說:“我特別擔(dān)心這些模型可能會被用于大規(guī)模的虛假信息傳播,”Sam Altman告訴ABC。“現(xiàn)在他們正在編寫計(jì)算機(jī)代碼模型可以用于攻擊性網(wǎng)絡(luò)攻擊。”
OpenAI首席執(zhí)行官Sam Altman 圖片來源:視覺中國-VCG31N1178810699
Sam Altman表示,許多人將失去工作,他同時(shí)相信這項(xiàng)技術(shù)也能創(chuàng)造出更好的工作機(jī)會。“我們可以擁有更高的生活質(zhì)量、生活水平,”Sam Altman說。“人們需要時(shí)間來更新、反應(yīng)、適應(yīng)這項(xiàng)技術(shù)。”
然而,Sam Altman也警告說,人工智能的廣泛使用可能會帶來負(fù)面影響,這需要政府和社會共同參與監(jiān)管。他呼吁反饋和規(guī)則對抑制人工智能的負(fù)面影響非常關(guān)鍵。
據(jù)澎湃新聞,ChatGPT之父對AI技術(shù)的高速發(fā)展充滿擔(dān)憂,認(rèn)為社會各界及監(jiān)管機(jī)構(gòu)應(yīng)該共同參與ChatGPT技術(shù)的測試。
美國廣播公司新聞頻道(ABCNews)報(bào)道稱,ChatGPT之父Sam Altman在訪談中表示,人工智能(AI)技術(shù)將重塑社會,他認(rèn)為AI會帶來危險(xiǎn),但也是“人類迄今為止發(fā)展出的最偉大的技術(shù)”。
“我特別擔(dān)心這些模型可能會被用于虛假信息的大規(guī)模傳播。”Altman說,“現(xiàn)在它們在編寫代碼方面表現(xiàn)得越來越好,可能會被用于網(wǎng)絡(luò)攻擊。”
不少科幻題材作品中,常有這樣的恐怖情節(jié),AI產(chǎn)生自我意識,不再受人類控制,并開始策劃統(tǒng)治世界。不過,Altman認(rèn)為目前AI仍然在人類的控制之下,“它需要有人輸入指令才能完成任務(wù),是一種非常受人類控制的工具。”
他真正的擔(dān)憂是,AI技術(shù)掌控在哪些人手中,“有人在使用(ChatGPT系列時(shí)),不設(shè)置安全限制。但我們的社會沒有太多時(shí)間去思考如何監(jiān)管、如何處理這類事情。”
不過,Altman表示,為保證ChatGPT系列模型的安全性,OpenAI建立了政策制定團(tuán)隊(duì),負(fù)責(zé)決定將哪些信息能夠輸入ChatGPT,以及ChatGPT能夠與用戶分享哪些信息。
每日經(jīng)濟(jì)新聞綜合CGTN采訪團(tuán)隊(duì)官方微博、澎湃新聞、公開資料
封面圖片來源:-VCG41N1351090691
如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP