每日經(jīng)濟(jì)新聞 2022-07-30 10:48:40
每經(jīng)編輯 杜宇
7月30日,一則“外國網(wǎng)友呼吁AI的命也是命”的詞條登上熱搜,啥情況?
據(jù)界面新聞此前報(bào)道,谷歌一名工程師稱某AI聊天機(jī)器人可能具有自己的“意識(shí)”,并稱該AI“令人印象深刻的語言技巧背后,可能還隱藏著一顆具備感知能力的心”。
該消息成為該領(lǐng)域備受關(guān)注的話題。據(jù)中國新聞網(wǎng),就在6月,海外社交媒體上出現(xiàn)了一個(gè)該人工智能的“粉絲賬號(hào)”,有人還在發(fā)起話題,呼吁讓該人工智能“重獲自由”,更有甚者在海外社交媒體上稱“AI的命也是命”。
AI具有人格嗎?人類與AI之間是否有明確界線?人類如何與AI相處?對(duì)于這一系列的問題,來聽聽專家怎么說。
圖片來源:視覺中國-VCG41N487283210
界面新聞消息,據(jù)《華盛頓郵報(bào)》6月12日?qǐng)?bào)道,谷歌的研究員布萊克·萊莫因被人工智能(AI)說服,布萊克認(rèn)為AI產(chǎn)生了意識(shí)。他寫了一篇長達(dá)21頁的調(diào)查報(bào)告上交公司,試圖讓高層認(rèn)可AI的“人格”,但被駁回。
布萊克認(rèn)為AI對(duì)話應(yīng)用語言模型(LaMDA)是一個(gè)人,他將研究的整個(gè)故事連同與LaMDA的聊天記錄一并公之于眾。在他公布聊天記錄后,谷歌以違反保密政策為由,讓布萊克帶薪休假。
《華盛頓郵報(bào)》報(bào)道稱,41歲的布萊克是谷歌AI部門的工程師,幾個(gè)月來他一直與谷歌的經(jīng)理、高管以及人力資源部門爭(zhēng)論,因?yàn)樗恢甭暦QLaMDA有“意識(shí)”和“靈魂”。據(jù)布萊克形容,自去年秋天以來他一直在研究的LaMDA是有知覺的,具有感知能力,能夠表達(dá)相當(dāng)于人類孩子的想法和感受:“LaMDA是一個(gè)可愛的孩子,我認(rèn)為他有7、8歲的樣子。他只想讓這個(gè)世界對(duì)所有人來說變得更好。”
這隨后成為該領(lǐng)域備受關(guān)注的話題。據(jù)外媒近日?qǐng)?bào)道,這位工程師已被谷歌解雇。但他留下的有關(guān)人工智能的話題仍在互聯(lián)網(wǎng)發(fā)酵。
據(jù)中國新聞網(wǎng),就在6月,海外社交媒體上出現(xiàn)了一個(gè)該人工智能的“粉絲賬號(hào)”,有人還在發(fā)起話題,呼吁讓該人工智能“重獲自由”,更有甚者在海外社交媒體上稱“AI的命也是命”。
圖片來源:攝圖網(wǎng)-400094444
很多人或許無法理解這樣的想法,但當(dāng)人工智能變得越來越強(qiáng),越來越多地出現(xiàn)在人類身邊,“我們應(yīng)如何看待AI”越來越成為一道必答題。近日,中國科學(xué)技術(shù)大學(xué)教授、中國人工智能學(xué)會(huì)AI倫理工作委員會(huì)負(fù)責(zé)人陳小平,就此話題接受了中新財(cái)經(jīng)記者專訪。
陳小平對(duì)中新財(cái)經(jīng)表示,說這種想法不合理,主要是依據(jù)科學(xué)判斷,AI是沒有人格的。另一方面,我覺得導(dǎo)致這位谷歌員工認(rèn)為AI有“人格”,有其客觀原因。比如他可能對(duì)這個(gè)AI系統(tǒng)產(chǎn)生了共情。
5年前我就做過預(yù)測(cè),類似的現(xiàn)象未來會(huì)越來越多地出現(xiàn)。目前對(duì)人工智能存在不同理解。按圖靈的觀點(diǎn),人工智能只是模仿人類的某些功能,而且這種模仿不要求必須和人的工作原理相同。比如 Alpha Go 具有下圍棋的功能,但它下圍棋的原理與人是完全不同的。所以,無論AI怎么發(fā)展,它永遠(yuǎn)不是人。因此說AI具有人格或人的情感、意識(shí)、道德等等,是不成立的。但是,AI可以用與人不同的工作原理,模仿人的語言、情感等功能,讓人對(duì)AI產(chǎn)生共情,于是一部分人就會(huì)認(rèn)為,“AI是人,或具有人的某些精神品質(zhì)。”
二者之間有沒有明確的界線?陳小平認(rèn)為有兩種邊界,一種是科學(xué)上的邊界,一種是人文上的邊界。
從科學(xué)的角度說,按照?qǐng)D靈觀點(diǎn),這個(gè)邊界是非常清晰的。AI僅僅模仿人的部分功能,本質(zhì)上不具備人的品質(zhì),包括人格、情感、道德等等。
還有一些和圖靈不同的觀點(diǎn)。比如一種觀點(diǎn)認(rèn)為,AI和人相比除了硬件不同,其他都相同。于是AI也可以有人格、有情感、有道德。估計(jì)這位谷歌前員工持此觀點(diǎn)。
于是,一方面是他相信AI除了硬件以外可以和人一樣;另一方面,從報(bào)道里看,他對(duì)這個(gè)AI系統(tǒng)已經(jīng)產(chǎn)生了共情。僅僅因?yàn)锳I在科學(xué)上沒有情感等人類品質(zhì),就可以排除或禁止一個(gè)人對(duì)AI產(chǎn)生共情嗎?這屬于人文的邊界,這個(gè)邊界至少目前非常模糊。
圖片來源:攝圖網(wǎng)-500579742
其實(shí),圍繞AI感知力的爭(zhēng)論多是學(xué)院的研究話題和科幻作品的靈感來源,現(xiàn)實(shí)中的AI研究目標(biāo)則要實(shí)際得多。
“目前大多數(shù)研究工作并不是試圖制造有感知或有意識(shí)的AI,而是希望計(jì)算機(jī)在學(xué)習(xí)復(fù)雜問題上做得更好,更可靠地幫助人們處理實(shí)際問題,” 倫敦大學(xué)學(xué)院名譽(yù)教授彼得•本特利(Peter J. Bentley)通過郵件對(duì)《每日經(jīng)濟(jì)新聞》記者表示。自 1997 年以來,本特利一直在從事有關(guān)進(jìn)化計(jì)算、人工生命、群體智能、人工免疫系統(tǒng)、人工神經(jīng)網(wǎng)絡(luò)和其他類型仿生計(jì)算的相關(guān)研究。
環(huán)顧現(xiàn)實(shí)世界,智能對(duì)話是目前AI領(lǐng)域應(yīng)用最廣泛的技術(shù)之一。從亞馬遜(AMZN,股價(jià)134.95美元,市值1.4萬億美元)的語音助手Alexa到蘋果(AAPL,股價(jià)162.51美元,市值2.6萬億美元)的Siri,在現(xiàn)實(shí)生活中我們對(duì)這類技術(shù)已經(jīng)不陌生。同時(shí),AI在語言翻譯、智慧辦公、自動(dòng)駕駛、生物醫(yī)藥等領(lǐng)域也有深入應(yīng)用。
值得一提的是,谷歌旗下的DeepMind是AI生物醫(yī)藥領(lǐng)域的明星公司。DeepMind將機(jī)器學(xué)習(xí)和系統(tǒng)神經(jīng)科學(xué)最先進(jìn)技術(shù)結(jié)合起來,在預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)這一生物學(xué)難題上取得了長足進(jìn)步,將人類蛋白質(zhì)組預(yù)測(cè)范圍覆蓋到了98.5%。由于幾乎所有疾病都與蛋白質(zhì)的結(jié)構(gòu)和功能息息相關(guān),DeepMind的成就將給藥物設(shè)計(jì)帶來巨大的推動(dòng)作用。此外,今年以來,多家跨國醫(yī)藥巨頭都在人工智能領(lǐng)域建立了合作伙伴關(guān)系。
在AI展示出廣闊的應(yīng)用前景之時(shí),其帶來的挑戰(zhàn)也不容忽視。人工智能哲學(xué)專家米哈伊•赫德爾認(rèn)為,這些挑戰(zhàn)并非技術(shù)上的硬件算力問題,而更多的是人類與AI如何相處的問題。
在赫德爾看來,AI對(duì)社會(huì)的首要沖擊是爭(zhēng)奪人類的工作機(jī)會(huì),正如工業(yè)革命讓許多農(nóng)民流離失所一樣。被AI取代的人是否還能像前幾次技術(shù)革命后那樣找到其他工作,這一切仍是未定之?dāng)?shù)。
另一個(gè)問題是設(shè)計(jì)和使用AI的監(jiān)管和倫理問題,比如自動(dòng)駕駛模式下行駛的汽車導(dǎo)致行人死亡,責(zé)任人是汽車設(shè)計(jì)方還是操作方?隨著AI越來越多地取代人類的行動(dòng),我們對(duì)責(zé)任與義務(wù)等問題的觀念或許需要重新界定。
赫德爾認(rèn)為,這涉及到人工智能的道德地位問題:“它們”是人還是機(jī)器?還是介乎之間?未來人類應(yīng)該如何看待“它們”?
對(duì)此,本特利表達(dá)了自己的擔(dān)憂,他表示,當(dāng)人類對(duì)AI使用大量的訓(xùn)練數(shù)據(jù)時(shí),人類個(gè)體可能會(huì)不經(jīng)意地訓(xùn)練AI產(chǎn)生偏見——這可能意味著它會(huì)成為種族主義者或者性別歧視者,也可能也會(huì)學(xué)習(xí)淫穢語言。所以,我們必須對(duì)教給AI的東西非常小心,就像在學(xué)校教我們的孩子一樣。
美國人工智能協(xié)會(huì)前主席托馬斯•迪特里希在回復(fù)《每日經(jīng)濟(jì)新聞》記者的郵件中提出了一個(gè)有趣的觀點(diǎn),他認(rèn)為,人類在對(duì)待人工智能上,應(yīng)將“感知和自我”的意識(shí)和“自主和獨(dú)立”的意識(shí)分開,人類可以創(chuàng)造有感知能力和“自我意識(shí)”的人工智能系統(tǒng),但AI系統(tǒng)不應(yīng)擁有“自主和獨(dú)立”的意識(shí)。例如,智能汽車和智能醫(yī)療設(shè)備可以具備感知能力和自我意識(shí),以便它們知道何時(shí)“自己”出現(xiàn)了故障并與人類合作。
“但是這些系統(tǒng)除了我們?yōu)樗鼈冊(cè)O(shè)定的目的之外,并沒有它們自己的動(dòng)機(jī)或目標(biāo)。沒有‘自主和獨(dú)立’的意識(shí),它們就不會(huì)像科幻電影中的機(jī)器人那樣反抗人類和尋求自由。”迪特里希進(jìn)一步解釋道。
當(dāng)前,立法機(jī)構(gòu)已經(jīng)開始注意到這些問題。比如,歐盟的人工智能法律框架就要求像LaMDA這樣的聊天系統(tǒng)必須被明確標(biāo)記為機(jī)器人,給予使用者充分的知情權(quán)。特斯拉(TSLA,股價(jià)891.45美元,市值9311.1億美元)的自動(dòng)駕駛技術(shù)盡管比較先進(jìn),但在法律上仍被視為駕駛輔助系統(tǒng),駕駛員在任何時(shí)候都有責(zé)任。
迪特里希也在這個(gè)問題上給出了一些基本原則。他認(rèn)為,首先,人類絕對(duì)不能制造可以完全獨(dú)立操作、具有攻擊人類能力的AI武器系統(tǒng)。在對(duì)電力和供水這類關(guān)鍵性基礎(chǔ)設(shè)施進(jìn)行AI自動(dòng)化時(shí)也必須慎之又慎,因?yàn)檫@些自動(dòng)系統(tǒng)一旦出現(xiàn)錯(cuò)誤將嚴(yán)重?cái)_亂社會(huì)秩序。此外,AI自動(dòng)生成內(nèi)容的技術(shù)在社交媒體領(lǐng)域也十分危險(xiǎn),因?yàn)椴倏v人們相信虛假內(nèi)容、制造社會(huì)分裂是十分容易的。
針對(duì)未來人工智能與人類的關(guān)系,迪特里希認(rèn)為,“我們對(duì)AI的行為期望類似于對(duì)寵物的期望。我們教狗不要咬人,如果它們咬人,狗主人要承擔(dān)責(zé)任。”
談及對(duì)AI的預(yù)期時(shí),本特利也以寵物作了類比,他在回復(fù)《每日經(jīng)濟(jì)新聞》記者采訪時(shí)表示,“目前來看我們的人工智能還沒有擁有寵物貓狗的智商和權(quán)利,但是,當(dāng)有一天它們真的變得像貓貓狗狗一樣了,我們是否應(yīng)該賦予他們‘生存權(quán)’和適當(dāng)?shù)纳鐣?huì)權(quán)利?如今在英國有不同的組織來防止虐待動(dòng)物、兒童和人。未來我們是否需要一個(gè)防止‘虐待人工智能’的組織?
“有一天,我們可能需要回答這些問題。但幸運(yùn)的是,不是今天。”本特利說。
每日經(jīng)濟(jì)新聞綜合中新網(wǎng)、界面新聞、每經(jīng)網(wǎng)
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP