国产成人精品免费视,91天堂嫩模在线播放,国产免费小视频在线观看,久久免费公开视频,国产成人精品免费视频网页大全,日韩不卡在线视频,视频一区二区精品的福利

每日經(jīng)濟新聞
今日報紙

每經(jīng)網(wǎng)首頁 > 今日報紙 > 正文

“AI教父”欣頓獲諾貝爾物理學(xué)獎,曾在谷歌工作10年

每日經(jīng)濟新聞 2024-10-09 21:42:44

每經(jīng)記者 鄭雨航    每經(jīng)實習(xí)記者 岳楚鵬    每經(jīng)編輯 蘭素英    

2024年諾貝爾物理學(xué)獎頒給了計算機科學(xué)家約翰·霍普菲爾德(John J. Hopfield)和杰弗里·欣頓(Geoffrey E. Hinton),理由是他們?yōu)闄C器學(xué)習(xí)奠定了基礎(chǔ),為今天包括ChatGPT在內(nèi)的人工智能(AI)鋪平了道路。

毫無疑問,這一結(jié)果讓很多人感到意外,因為機器學(xué)習(xí)并非傳統(tǒng)物理學(xué)的分支領(lǐng)域。有網(wǎng)友調(diào)侃稱,這是把圖靈獎該干的事情給干了;也有科學(xué)家表達了不解——“人工神經(jīng)網(wǎng)絡(luò)對物理學(xué)研究產(chǎn)生了深遠的影響,但可以說它們本身就是物理學(xué)研究的成果嗎?”

面對外界的疑問,諾貝爾獎官方不得不在X平臺上回應(yīng):“您是否知道機器學(xué)習(xí)模式是基于物理方程?”同時,諾貝爾獎委員會也表示,利用人工神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)能夠快速理解大量數(shù)據(jù),已經(jīng)在科學(xué)研究中發(fā)揮了重要作用,包括在物理學(xué)領(lǐng)域,它被用于創(chuàng)造“具有特定屬性的新材料”。諾貝爾物理學(xué)委員會成員Anders Irbäck教授盛贊道:“他們都是真正的先驅(qū)者,尋找到了解決問題的新方法。”

其實,不單是“吃瓜群眾”,作為獲獎?wù)咧坏男李D本人也是一臉驚訝,“完全沒想到會發(fā)生這種事”。

在獲獎之余,欣頓還就AI安全發(fā)出了警告。他認為,擁有比人類更聰明的技術(shù)“在很多方面都是好事”,但“這一切的后果可能是,比我們更聰明的系統(tǒng)最終會掌控一切”。

當(dāng)?shù)貢r間2023年6月28日,加拿大安大略省多倫多,被稱為“人工智能教父”的認知心理學(xué)家和計算機科學(xué)家杰弗里·欣頓在碰撞技術(shù)會議上發(fā)表講話。 視覺中國圖

出人意料的獲獎名單

北京時間10月8日下午5點45分,美國和加拿大科學(xué)家約翰·霍普菲爾德和被外界稱為“AI教父”的杰弗里·欣頓被授予諾貝爾物理學(xué)獎,以表彰他們通過人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí)的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明,幫助計算機以更接近人腦的方式學(xué)習(xí),為AI的發(fā)展奠定了基礎(chǔ)。

該獎項是對AI在人們生活和工作方式中日益重要的地位的認可。諾貝爾物理學(xué)委員會主席艾倫·穆恩斯(Ellen Moons)表示:“獲獎?wù)叩墓ぷ饕呀?jīng)帶來了巨大的好處。在物理學(xué)中,我們在廣泛的領(lǐng)域使用人工神經(jīng)網(wǎng)絡(luò),例如開發(fā)具有特定性能的新材料。”

諾貝爾獎委員會在X平臺上的帖子中表示,霍普菲爾德博士和欣頓博士的突破“立足于物理科學(xué)的基礎(chǔ)之上”,“他們?yōu)槲覀冋故玖艘环N全新的方式,讓我們能夠利用計算機來幫助和指導(dǎo)我們應(yīng)對社會面臨的許多挑戰(zhàn)”。

不過,這一結(jié)果還是讓無數(shù)網(wǎng)友大吃一驚,之前誰也沒料到諾貝爾物理學(xué)獎居然會頒給計算機科學(xué)相關(guān)的研究。有網(wǎng)友驚呼,“這是個玩笑嗎?這應(yīng)該是圖靈獎該干的事情。”

不單是網(wǎng)友,也有科學(xué)家表示不解。南安普頓大學(xué)計算機科學(xué)家、聯(lián)合國AI顧問溫迪·霍爾教授表示,她對這一獎項的頒發(fā)感到驚訝。“諾貝爾獎沒有設(shè)立計算機科學(xué)獎,以這種方式來頒發(fā)獎項是一種有趣的方式,但似乎有點牽強,”她說,“顯然,人工神經(jīng)網(wǎng)絡(luò)對物理學(xué)研究產(chǎn)生了深遠的影響,但可以說它們本身就是物理學(xué)研究的成果嗎?”

面對外界的疑問,諾貝爾獎官方不得不在X平臺上解釋說:“您是否知道機器學(xué)習(xí)模式是基于物理方程?”

其實,不單是外界,獲獎?wù)咝李D本人都沒想到自己能夠“跨界”獲得諾貝爾物理學(xué)獎。他在接到諾貝爾獎委員會的電話時說道:“我完全沒想到會發(fā)生這種事。”當(dāng)時他正在加利福尼亞州一家“廉價酒店”,他表示,這消息簡直是“出乎意料”。

他們有何貢獻?

欣頓出生于倫敦郊外,自20世紀70年代末以來,他大部分時間都生活和工作在美國和加拿大。

20世紀70年代初,欣頓在愛丁堡大學(xué)讀研究生時開始研究人工神經(jīng)網(wǎng)絡(luò),當(dāng)時很少有研究人員認為這個想法會成功。直到2012年,他終于與其學(xué)生一起取得了突破。2013年,欣頓加入了谷歌。2023年5月,他從谷歌離職。自那以后,他持續(xù)公開呼吁謹慎對待AI技術(shù),成為旨在引導(dǎo)AI系統(tǒng),使其行為符合設(shè)計者利益和預(yù)期目標(biāo)的“AI對齊派”代表。

2019年,欣頓與蒙特利爾大學(xué)計算機科學(xué)教授約書亞·本吉奧(Yoshua Bengio)和Meta首席AI科學(xué)家楊立昆(Yann LeCun)因在人工神經(jīng)網(wǎng)絡(luò)方面的工作共同獲得了圖靈獎,該獎通常被譽為“計算機界的諾貝爾獎”。

相較于欣頓,霍普菲爾德則是一個正統(tǒng)的物理學(xué)家,因在計算機科學(xué)、生物學(xué)和物理學(xué)領(lǐng)域的開創(chuàng)性研究而聞名。他如今在普林斯頓大學(xué)擔(dān)任名譽教授。

霍普菲爾德于1933年生于美國伊利諾伊州芝加哥,1958年在貝爾實驗室開始了他的職業(yè)生涯,主要研究固體物質(zhì)的特性。1961年,他以助理教授的身份前往加利福尼亞大學(xué)伯克利分校,并于1964年加入普林斯頓大學(xué)物理系。16年后,他前往加州理工學(xué)院擔(dān)任化學(xué)和生物學(xué)教授,并于1997年回到普林斯頓大學(xué),在分子生物學(xué)系任職。

1982年,霍普菲爾德開發(fā)了一種神經(jīng)網(wǎng)絡(luò)模型來描述大腦是如何進行聯(lián)想、回憶的,即霍普菲爾德網(wǎng)絡(luò),這使得機器能夠使用人工神經(jīng)網(wǎng)絡(luò)“存儲”記憶,構(gòu)成了現(xiàn)在所有人工神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)。

根據(jù)瑞典皇家科學(xué)院的公告,欣頓以霍普菲爾德網(wǎng)絡(luò)為基礎(chǔ),發(fā)明了一個采用不同方法的新網(wǎng)絡(luò)—— 玻 爾 茲 曼 機 (the Boltzmann machine),通過輸入機器運行時很可能出現(xiàn)的示例來訓(xùn)練機器。玻爾茲曼機可用于對圖像進行分類,或創(chuàng)建訓(xùn)練模式類型的新示例。欣頓在此基礎(chǔ)上繼續(xù)發(fā)展,幫助開啟了機器學(xué)習(xí)的爆炸式發(fā)展。他在人工神經(jīng)網(wǎng)絡(luò)方面的開創(chuàng)性研究為ChatGPT等AI系統(tǒng)鋪平了道路。

更值得一提的是,OpenAI聯(lián)合創(chuàng)始人、前首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)也是欣頓的學(xué)生。他們兩人和另一名計算機科學(xué)家亞歷克斯·克里澤夫斯基(Alex Krizhevsky)還一起發(fā)明了卷積神經(jīng)網(wǎng)絡(luò)AlexNet。

欣頓發(fā)出AI安全警告

雖然欣頓因為其在機器學(xué)習(xí)領(lǐng)域的研究獲得了諸多殊榮,但現(xiàn)在的他更多的精力集中在推動AI安全發(fā)展上。在諾貝爾獎委員會向其宣布獲獎喜訊時,他也不忘就AI技術(shù)的危險性向外界發(fā)出警告。

欣頓擔(dān)憂地表示:“我認為它(AI)將產(chǎn)生巨大的影響。它將與工業(yè)革命相媲美,它不會在體力上超越人類,而是會在智力上超越人類。”

欣頓表示,擁有比人類更聰明的技術(shù)“在很多方面都是好事”,這將帶來醫(yī)療保健的大幅改善、更好的數(shù)字助理以及生產(chǎn)力的大幅提升。“但我們也必須擔(dān)心一些可能的不良后果,尤其是這些事情失控的威脅。”他補充道,“我擔(dān)心,這一切的后果可能是,比我們更聰明的系統(tǒng)最終會掌控一切。”

今年5月,欣頓接受記者采訪的時候甚至直白地稱:“很難想象如何阻止壞人利用它(AI)做壞事。”他表示:“未來5~20年,AI有一半概率比人類聰明。當(dāng)它們比我們更聰明時,我不知道我們被接管的可能性有多大,但在我看來,這很有可能。”

伴隨AI的飛速發(fā)展,人們對其安全性的憂慮在不斷上升。

今年6月,13位來自O(shè)penAI和谷歌的現(xiàn)任及前任員工聯(lián)合發(fā)布了一封公開信,表達了對AI技術(shù)潛在風(fēng)險的嚴重擔(dān)憂,并呼吁相關(guān)公司采取更加透明和負責(zé)任的措施來應(yīng)對這些風(fēng)險。

這封信也得到了欣頓的背書,信中指出,盡管AI技術(shù)可能會給人類帶來巨大益處,但其帶來的風(fēng)險同樣不容忽視。這些風(fēng)險包括加劇社會不平等、操縱和虛假傳播信息,以及自主AI系統(tǒng)失控可能導(dǎo)致的人類滅絕。

封面圖片來源:視覺中國

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai 物理 谷歌

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0