硬AI 2024-03-19 16:11:25
3月19日,OpenAI CEO山姆·奧特曼(Sam Altman)再度做客美國知名播客欄目Lex Friedman。
在這次持續(xù)了近兩個小時的采訪中,奧特曼不僅深入剖析了OpenAI董事會近期的變動,還暢談了首席科學家伊利亞·蘇茨凱弗(Ilya Sutskever)的未來動向、與馬斯克起訴案相關的紛爭,以及引發(fā)巨大討論的AI文字轉(zhuǎn)視頻工具Sora、豪擲7萬億美元的芯片計劃、即將推出的新一代大語言模型GPT-5,乃至通用人工智能(AGI)的遠景規(guī)劃等。
重點包括:
算力將成為未來最寶貴的財富之一,會成為未來的“貨幣”,人工智能的發(fā)展將是一場巨大的權力斗爭。
公司、組織、國家都可能為了爭奪這份未來的“貨幣”而展開競爭。在這場競爭中,OpenAI得關注如何公平、公正地分配和使用算力。不能讓算力加劇社會不平等,而應該成為推動全人類進步的力量。
被罷免的那個周末痛苦萬分,看自己的推文就像看悼詞,董事會應該擁有重大的權利,但并不是從自身利益出發(fā),而是能夠?qū)θ澜缲撠?,這一經(jīng)歷有助于增強韌性。
OpenAI正在尋找新的董事會成員,希望引入具有不同專業(yè)背景的人才,包括非營利組織、學習型公司、法律和治理等領域的專家。
GPT-4是一個重要的里程碑但并不足以改變世界,真正意義上的AGI應該能夠顯著提高科學發(fā)現(xiàn)的速度。
Ilya從來沒有見過通用人工智能(AGI),沒有任何人見過,OpenAI也還沒造出通用人工智能,Ilya對未來深思熟慮,非常關心人工智能的安全性和社會影響。
對馬斯克來說,訴訟OpenAI這件事并不是開源與否的問題,Grok之前從沒開源過任何東西,直到有人指出馬斯克這樣做有些偽善,才在最近開源。
開源模型在未來肯定有一席之地,尤其針對那些規(guī)模較小、可以在本地運行的模型。
OpenAI的目標是創(chuàng)建能夠理解和生成自然語言的系統(tǒng),這些系統(tǒng)可以幫助人們更高效地完成任務。OpenAI最重要任務就是讓每個人免費地使用AI,作為一項公共福利,通過提供強大的AI工具來賦能個人和社區(qū),開源應該是有選擇性的。
大部分真正的經(jīng)濟增長來自科學技術的進步,人工智能是一個工具,它將在更短的時間內(nèi)幫助人類執(zhí)行越來越多的任務,這讓人類能夠在更高層次上進行抽象思考。
人工智能可能更像是人類之間相互支撐、相互聯(lián)系的社會結構。
未來編程可能會以自然語言交互的方式進行,傳統(tǒng)的編碼方式可能會逐漸減少。
目前AI安全研究者過于關注某些具體的技術進步,而忽視了其他一些重要的問題,人工智能軍備競賽是個雙刃劍。
GPT-5的性能會全面提升,GPT-5和GPT-4的差距,可能會跟GPT-4和GPT-3一樣大,仍舊在研究OpenAI機器人。
Sora將進一步展示了AI在創(chuàng)造復雜、動態(tài)和視覺吸引人的虛擬世界方面的巨大潛力,這些技術不僅對游戲和娛樂產(chǎn)業(yè)有重大意義,也為科學研究、教育和工業(yè)模擬等領域提供了新的可能性。
人工智能將推動人類社會持續(xù)進步。
圖片來源:視頻截圖
談話內(nèi)容,按順序整理如下:
1:05-OpenAI董事會紛爭
18:31-Ilya Sutskever
24:40-埃隆·馬斯克訴訟案
34:32-Sora
44:23-GPT-4
55:32-記憶與隱私
1:02:36-Q*
1:06:12-GPT-5
1:09:27-7萬億美元的算力
1:17:35-谷歌和Gemini
1:28:40-躍升到GPT-5
1:32:24-AGI(通用人工智能)
1:50:57-外星人
以下為訪談全文:
Part 1:OpenAI董事會之爭
Lex Fridman
請你帶我了解一下從11月16日星期四開始的,或者對你來說是11月17日星期五的OpenAI董事會那一連串的事件。
Sam Altman
那確實是我一生中最痛苦的職業(yè)經(jīng)歷,混亂、羞恥、心煩,還有很多其他的負面情緒。當然也有不少好的方面,但我當時被腎上腺素沖得頭昏眼花,從而能夠停下來細細品味那些寶貴的經(jīng)歷。
我翻看了那個時期自己發(fā)的一條舊推特,感覺就像在讀自己的悼詞,看著別人對你說出的那些美好的話,感受到來自我所愛和在乎的人的強大支持,那真的非常美妙。
整個周末,盡管遭遇了一些不愉快的事情,但總體而言,我感受到的愛遠遠超過了恨。盡管當時感覺自己完全搞不懂發(fā)生了什么,接下來會發(fā)生什么,這感覺真的很糟糕。確實有些時候,我認為這可能會成為AI安全領域發(fā)生的最糟糕的事情之一。不過,我也覺得,它發(fā)生得相對較早是件好事。但我也很慶幸這一切發(fā)生得相對較早。
我認為在OpenAI成立和通用人工智能(AGI)誕生的過程中,注定會有一系列瘋狂且具有爆炸性的事件發(fā)生,而且未來也許還會有更多瘋狂的事情發(fā)生。這些事件雖然令人不安,但也為我們提供了寶貴的經(jīng)驗和教訓,為未來應對更多挑戰(zhàn)做好了準備。
Lex Fridman
但你有沒有預感到,你可能會經(jīng)歷某種權力的角逐?
Sam Altman
通往AGI的道路肯定會充滿激烈的權力角逐。
Lex Fridman
所以你必須得經(jīng)歷這個過程,正如你所說,要盡可能頻繁地迭代,弄清楚如何構建董事會的架構,如何進行組織管理,如何選對合作伙伴,以及如何有效溝通,目的是為了盡量減少權力斗爭。
Sam Altman
沒錯
Lex Fridman
放輕松
Sam Altman
但現(xiàn)在,那感覺像是一段已經(jīng)過去的時光,曾經(jīng)非常艱難、痛苦,難以忍受,但我們又回到了工作崗位,事情忙得不可開交,強度巨大,以至于我并沒有太多時間去回想那段經(jīng)歷。那之后有一陣子,可能是一個月左右,或者說45天之后,我仿佛處于一種恍惚狀態(tài),每天都感覺自己像漂流瓶一樣,茫然四顧。我的精神完全崩潰了,情緒也陷入了極度低落。
Lex Fridman
就在個人心理層面上?
Sam Altman
是的,非常痛苦。而且在那種情況下還得堅持管理OpenAI,難度真的很大。我只想找個洞穴鉆進去,好好休養(yǎng)一陣子。不過現(xiàn)在,我們又回到了奮戰(zhàn)在我們的使命上。
Lex Fridman
嗯,對于你這樣有極高潛力打造AGI的人來說,回過頭去反思董事會架構、權力動態(tài)、公司運作方式、研究與產(chǎn)品開發(fā)之間的張力、金錢等因素,無疑是有益的。這樣一來,未來你在建立AGI的道路上,可以更加有條不紊,少一點戲劇性沖突。所以,不妨去那兒走一遭,不僅是為了你作為領導者的個人心理層面的成長,同時也是為了搞清楚董事會結構和所有那些復雜混亂的事務。
Sam Altman
我確實從中學到了許多關于組織結構、激勵機制以及我們對董事會的期望。在某種意義上,這種情況現(xiàn)在發(fā)生我覺得還是有它的價值的。我認為這可能不是OpenAI最后一次面對如此大的壓力,但這無疑是一個相當緊張的時刻。我的公司差點就垮了,除了考慮很多其他我們必須為AGI準備好的事情外,思考如何打造一個有韌性的組織、如何構建一個能承受世界壓力的結構體系,我認為這非常關鍵。
Lex Fridman
你能感覺到董事會在決策過程中的深度和嚴格程度嗎?能否透露一下這種情形下涉及的人與人之間的動態(tài)是怎樣的?是不是就幾次對話后事態(tài)突然激化,然后就有人說“為什么不開除Sam”這種話?
Sam Altman
我認為董事會成員總體上都是出于好意的人,我相信在那種壓力環(huán)境下,人們感到時間緊迫或其他什么,人們會做出不那么明智的決定都可以理解。我認為OpenAI面臨的挑戰(zhàn)之一將是,我們需要有一個擅長在壓力下運作的董事會和團隊。
Lex Fridman
你覺得董事會的權力過大了嗎?
Sam Altman
我覺得董事會理應掌握重要的權力,但是,我們注意到,在大多數(shù)公司架構中,董事會通常需要對股東們負責。有時人們擁有超級投票權或其他什么。在這個情況下,我覺得對于我們的架構來說,我認為我們結構中的一個問題是,我們可能沒有充分考慮到非營利組織董事會實際上掌握著很大的權力,他們并不真正向任何人負責,除了他們自己。這樣有它的好處,但我們更希望的是OpenAI的董事會能夠?qū)θ澜缲撠?,盡管我們知道在實踐中這可能很難做到。
Lex Fridman
所以他們宣布成立了一個新的董事會。
Sam Altman
嗯,對。
Lex Fridman
剛開始是一個新的小型董事會,現(xiàn)在又換成了新的正式董事會?
Sam Altman
我們的董事會還沒有最后敲定。我們已經(jīng)添了一些成員,接下來還會繼續(xù)增加。
Lex Fridman
加了一些。好的。在新版本里修復了之前版本哪些可能出現(xiàn)的問題呢?
Sam Altman
舊董事會在大約一年時間里逐漸縮減了。起初是九個人,后來減到六個,接著我們在增補新成員上意見不統(tǒng)一。我覺得董事會中也缺乏經(jīng)驗豐富的成員。而現(xiàn)在OpenAI的新董事會成員們都有著更多的董事會工作經(jīng)驗。我認為這會有所改善。
Lex Fridman
這個問題受到了不少批評,比如有人對拉里·薩默斯被加入董事會表示不滿。你們挑選董事會成員的過程是怎樣的?這個過程中涉及哪些因素?
Sam Altman
選擇Bret Taylor和薩默斯為董事會成員是在那個非常緊張的周末做出的決定,而那個周末真是就像坐過山車一樣,給人一種大起大落的感覺。我們嘗試就新的董事會成員名單達成一致,這些成員既要讓這里的執(zhí)行團隊感到滿意,也要得到原董事會成員的認可。
實際上,薩默斯是原董事會成員推薦的人選之一。至于Bret,我想在那個瘋狂周末之前,我就提議過他,但他當時很忙,不想接受這份工作。之后,我們確實需要幫助,他才加入進來。我們也考慮了很多其他人選,但我覺得如果我回來的話,我需要更換新的董事會成員。我不認為我可以在同樣的人員配置下再次與原董事會合作,盡管后來我們決定讓亞當·德安吉洛(Adam D'Angelo)留下。但我們考慮了各種配置,最終決定想要組建一個三人的董事會,并需要短時間內(nèi)找到兩名新的董事會成員。
所以那些決定確實是直接做出的,你必須在戰(zhàn)場上迅速做出決定。那時你沒有時間設計嚴格的流程。對于之后的新的董事會成員,以及我們還將要繼續(xù)添加的新成員,我們有一些認為對董事會來說重要的標準,我們希望這些人具備的不同專長。與招聘一名高管不同,他只需要把一個角色做好,但對于董事會成員來說,他需要需要在治理和思考方面表現(xiàn)出全方位的能力。因此,布雷特說的一句話我很認同,那就是我們想要以成批的形式招聘董事會成員,而不是一次一個地招聘。我們正在考慮的是一群能夠帶來非營利組織專業(yè)知識、公司運營專業(yè)知識、良好的法律和治理專業(yè)知識的人,這是我們試圖優(yōu)化的目標
Lex Fridman
那么,董事會成員個人的技術水平重要嗎?
Sam Altman
不是每個董事會成員都需要這類素養(yǎng),但確實有一些人需要。這也是董事會職責一部分。
Lex Fridman
人們可能還不太了解OpenAI的有意思的一面,我自己肯定也不夠了解,那就是運營業(yè)務的所有那些細枝末節(jié)。當人們想到董事會,再想到那些戲劇化的元素,他們首先想到的是你。他們會思考,如果你們開發(fā)出通用人工智能(AGI)或者其他一些具有巨大影響的產(chǎn)品,并且成功將它們推向市場,那么你和董事會之間會有怎樣的對話呢?他們還會考慮,在這種場景下,要組建一個怎樣的團隊來進行決策和討論?
Sam Altman
你看,我認為董事會里肯定需要一些技術專家。同時,也需要那些會考慮到:“我們怎樣部署這項技術才能最大限度地造福人類?”的人。還需要那些有著截然不同視角的人。我想,像你我這樣的人可能會犯的一個錯誤就是以為只有技術上的理解才是關鍵,這確實是你希望董事會討論的內(nèi)容之一,但還有很多其他方面,比如這項技術將如何影響社會和人們的生活,這些你也同樣希望能夠在董事會中得到體現(xiàn)。
Lex Fridman
你是在審查他們過去的成就記錄,還是只是跟他們進行交流?
Sam Altman
過往經(jīng)歷很重要,但有些職位我完全不看重過往經(jīng)歷,只看他的上升勢頭,忽略掉Y軸的截距。
Lex Fridman
謝謝你。感謝你用數(shù)學的方式向觀眾闡明問題。
Sam Altman
作為董事會成員,我確實更在乎Y軸截距。在這方面,我覺得對于過往業(yè)績的記錄能說的深入之處很多,而且經(jīng)驗是一種很難替代的東西。
Lex Fridman
你是嘗試將過往經(jīng)歷擬合為多項式函數(shù)還是指數(shù)函數(shù)?
Sam Altman
這個比喻有點牽強。
Lex Fridman
好的,你之前提到了那個周末經(jīng)歷的一些低谷時刻。在心理上,你都遇到了哪些挫折呢?你有沒有想過干脆去亞馬遜雨林,嘗試一下阿亞瓦斯卡(一種致幻劑),然后就此隱匿天涯呢?
Sam Altman
這段時間真的很糟糕,不過也有一些非常棒的時刻,我的手機簡直要爆炸了,一直收到來自我日常工作的伙伴們,以及那些十年未見的老朋友們發(fā)來的暖心信息。我應該更加珍惜這些時刻,但當時我忙于應對危機,沒能充分感受到這份溫暖,不過這確實讓人感覺很啊后。總體而言,那個周末非常痛苦,它就像是一場在公眾視線中打響的戰(zhàn)斗,出乎意料地讓我筋疲力盡,遠比我預期的要累。
通常爭斗本就令人筋疲力盡,而這場尤其如此。董事會在周五下午做了這個決定。我真的很難獲得任何答案,但我也覺得,既然董事會有權這么做,那么我就應該花點時間好好想想我接下來想要做什么。不過,我會試著在這件事中尋找隱藏的幸運。
我當時心想,我的目前職位在OpenAI,或者至少過去是,負責運營一個規(guī)模相當大的公司。我一直最喜歡的部分就是與研究者們共事。然后我就在想,對,我完全可以去從事一項高度聚焦的AGI研究工作。這個想法讓我感到很興奮。當時我甚至沒意識到,所有這些努力可能會化為泡影。那是在一個星期五的下午。
Lex Fridman
所以你已經(jīng)接受了這一的終結……
Sam Altman
非??欤娴姆浅??。我確實經(jīng)歷了一段時間的迷茫和憤怒,但這種狀態(tài)轉(zhuǎn)瞬即逝。到了周五晚上,我已經(jīng)在跟人討論下一步該怎么做,而且我對此感到振奮。我記得是周五晚上,我首次聽到我們執(zhí)行團隊的人說:“嘿,我們將會反擊。”然后,我?guī)еd奮的心情上床睡覺了,心想,向前沖。
Lex Fridman
你能睡著嗎?
Sam Altman
不多。有一段蠻奇怪的時期,大概四天半吧,我?guī)缀鯖]怎么睡覺,也沒怎么吃東西,但是依然精力充沛。你會在戰(zhàn)時了解到一些關于腎上腺素的奇特現(xiàn)象。
Lex Fridman
所以你已經(jīng)接受了,這個被你視為孩子的OpenAI會有失敗的一天。
Sam Altman
我當時對那個新東西特別激動。就那么想著,“行吧,這玩意兒確實瘋了點,但管它呢。”
那天周六早上,兩位董事會成員給我打電話說,“嘿,我們并不是想攪局。我們不打算在這里大把存儲價值。我們能談談你回歸的事情嗎?”起初,我真的不想回去,但后來我又仔細思考了一番,我意識到我非常關心這里的人,我的合伙人和股東們。我愛這家公司。于是,我想了想,對他們說:“好吧,不過我有我的條件。”而那整個周末,是最讓人痛苦的時刻,我不斷地反思,也被告知,而且不只是我,我們整個團隊都在想,我們正在努力維持OpenAI的穩(wěn)定,而此時全世界似乎都在試圖將其分崩離析,到處都有人在嘗試挖角。
我們一直被告知,“好了,我們快要弄完了。我們快要完成了。我們只需要再多一點點時間。”這讓人非常困惑。直到周日晚上,我?guī)缀趺扛魩仔r就會以為我們就要結束了,我們能找到方法讓我回去,讓一切恢復原狀。但董事會隨后任命了一位新的臨時CEO,那一刻我感覺真的很難受。那是整件事中最低谷的時刻。我跟你說,雖然感覺非常痛苦,但我在那整個周末都感受到了很多愛。除了那個周日晚上的瞬間,我不會說我的感受是憤怒或恨,相反,我感受到了來自人們的愛,也對他們滿懷愛意。那很痛苦,但那個周末的主導情緒是愛,而不是恨。
Lex Fridman
您曾對Mira Murati給予高度評價,說她在那些關鍵的、平靜的時刻給予了特別的幫助,就像您在推文中提到的那樣?;蛟S我們可以稍微繞個彎。您最欣賞Mira的什么特質(zhì)呢?
Sam Altman
她在那個周末的混亂中表現(xiàn)得非常出色,但人們往往是在危機時刻,無論好壞,才會關注領導者的表現(xiàn)。然而,我真正看重的是,在一個平凡的周二早上9點46分,在日常的平淡和繁瑣中,領導者如何行動。一個人怎樣出席會議,他們作出決策的質(zhì)量如何。這就是我提到的“靜默時刻”的含義。
Lex Fridman
絕大多數(shù)的工作都是日復一日,在一次次會議中慢慢推進的。只需要聚精會神,做出優(yōu)秀的決策就行了。
Sam Altman
是的,看吧,你想要花費過去二十分鐘探討的那件事——我明白——是關于那個非常戲劇化的周末,但那并不是OpenAI的核心所在。OpenAI的重心實際上在于其余的七年。
這為我們提供了洞察人性的窗口,包括人性的極致以及或許正是在那些時刻,人類文明的某些毀壞和偉大成就得以顯現(xiàn),因此這非常具有啟發(fā)性。
Part 2:Ilya Sutskever去哪了
Lex Fridman
那么關于Ilya的問題,我可以問你嗎?他是不是被關在某個秘密核設施里作為人質(zhì)?
Sam Altman
不是
Lex Fridman
那么普通的秘密基地呢?
Sam Altman
不是
Lex Fridman
一個不涉密的核設施怎么樣?
Sam Altman
肯定也不是
Lex Fridman
這事兒已經(jīng)有點成梗了。你跟Ilya認識很長時間了對吧。他顯然卷入了那場董事會的風波。現(xiàn)在你倆的關系怎樣?
Sam Altman
我非常喜愛Ilya,對他也有著極大的敬意。關于他的計劃,我現(xiàn)在真的沒什么可以透露的。這應該由他來回答。不過,我真心希望我們能夠持續(xù)合作,至少在我的職業(yè)生涯剩余時光里。他比我年輕那么一點,也許他會比我工作更長久一些。
Lex Fridman
有個流傳的段子說,他看到了一些東西,好像是他看到了AGI,這件事讓他內(nèi)心充滿了憂慮。Ilya到底看到了什么?
Sam Altman
Ilya從來沒有見過通用人工智能(AGI)。我們?nèi)魏稳硕歼€沒有。我們也還沒造出通用人工智能。不過,Ilya身上有很多讓我敬佩的品質(zhì),其中一個就是他非常重視關于通用人工智能及其廣泛的安全問題,這包括它可能對社會造成的影響。隨著我們不斷地取得顯著進展,這幾年我最多的時間都是和伊利亞一起討論這將意味著什么,我們需要怎么做才能確保做得正確,以保證我們的使命能夠成功完成。
所以,雖然伊利亞沒有見過AGI,但他對確保我們在這個過程中行得正、走得穩(wěn)的深思熟慮和憂慮,對人類來說是一份寶貴的貢獻。
Lex Fridman
我過去與他有過不少交流。我覺得,每當他談到技術,他總是持有一種長遠的思考方式。他不太關心一年內(nèi)會發(fā)生什么,而是在想象10年后的情況,基于首要原則去思考:“好的,如果這東西真的能夠擴展開來,那么基本要素是什么呢?會有哪些發(fā)展?”這種思考方式為他們在關注所有的安全問題等方面打下了堅實的基礎,這也讓和他對話變得非常吸引人。你了解他為何近來鮮有發(fā)聲嗎?他是不是在做些靈魂深處的思索呢?
Sam Altman
再說一次,我不想代表Ilya發(fā)言。我覺得你應該親自去問問他。他絕對是個思考深刻的人。我認為Ilya始終在以非常積極的方式進行靈魂探索。
Lex Fridman
是的,他還真懂得沉默的魅力。我聽說他其實挺逗的,不過我個人還沒機會見識過這一面。
Sam Altman
當那種情況發(fā)生時,感覺真的很溫馨。
Lex Fridman
我還沒遇到過傻傻的Ilya,不過我也挺期待這一天呢。
Sam Altman
我最近和他一起去了個晚宴,他當時正在和一只小狗玩,心情非常輕松、嬉皮,真的很讓人覺得親切。我當時就想:哇~這面是Ilya不太給外界看到的。
Lex Fridman
那么,就這整樁事情而言,你對董事會的架構滿意嗎?
Sam Altman
是的
Lex Fridman
…關于這一切及其走向,你有何看法?
Sam Altman
我對新董事會的組建感到非常滿意。在OpenAI的架構方面,董事會的職責之一就是進行審視,看看我們?nèi)绾文軌蚣訌娖浣Y構的韌性。我們的首要任務是先確定新的董事會成員,但顯然在這個過程中,我們對結構的認識有了顯著的進步。我認為我沒有什么特別深刻的見解。這是一段極其混亂和痛苦的經(jīng)歷。我覺得這就像一場怪異的完美風暴。這對我來說預示著未來的挑戰(zhàn),隨著賭注的不斷升高,我們需要有更為強健的治理結構、流程和團隊。我很慶幸這一切在我還年輕時發(fā)生,但實際上這是一次異常艱難的經(jīng)歷。
Lex Fridman
這會不會使你在信任別人方面變得更加猶豫呢?
Sam Altman
是的
Lex Fridman
就個人而言?
Sam Altman
是的,我自認為是一個極度信任他人的人。我一向堅持的人生哲學是:不必太過擔憂,不必在意那些偏執(zhí)的疑慮和極端的可能性。這樣做的代價可能是偶爾吃點小虧,但作為回報,你得以放松警惕地生活。然而這件事對我來說真的是晴天霹靂,我措手不及,它確實改變了我。我并不喜歡這種改變,但它確實影響了我對于對人默認信任的態(tài)度以及對潛在壞情況的規(guī)劃。
Lex Fridman
你得在這方面多加留心。你擔心自己會變得過于憤世嫉俗嗎?
Sam Altman
我不害怕自己會變得過于憤世嫉俗。我覺得我本性里就很不憤世嫉俗,但我擔心,自己可能逐漸喪失那種對別人的本能信任。
Lex Fridman
我其實還沒把握好,對于那些正致力于開發(fā)通用人工智能的人而言,是信任模式更為適宜,還是持懷疑態(tài)度更好。這條路你走得真有意思。不過說到架構,我其實更關注人這一層面。你怎么做到讓自己周圍都是那些既在打造酷炫東西,又能作出睿智選擇的人?因為你掙的錢越多,這件事的影響力也就越大,周圍的人就越發(fā)變得詭異。
Sam Altman
我覺得你完全可以就董事會成員的問題,以及我應該給予的信任程度,或者說我應該采取不同的做事方式提出種種意見。但如果說到這里的團隊,我相信你會給我一個非常高的評價。對于那些我每天都要共事的人,我心中充滿了巨大的感激、信任和尊重。我認為,讓自己被這樣的人包圍是極其重要的。
Part 3:Elon Musk的訴訟
Lex Fridman
我們共同的朋友Elon Musk起訴了OpenAI。在你看來,他批評的核心問題是什么?他有多少批評是站得住腳的?又有多少是誤會或不對的?
Sam Altman
我真的不清楚這到底是怎么一回事。最初,我們只認為自己將成為一個研究實驗室,對這項技術未來的發(fā)展毫無頭緒。那是七八年前的事了,現(xiàn)在想回憶起當時的情況真的很難,那個時候語言模型還沒成為熱門話題。我們甚至還沒想到要開發(fā)一個API或者賣聊天機器人的訪問權限。我們也沒有想過要將其產(chǎn)品化。當時我們的想法就是,“我們就去做研究吧,至于研究成果能用來做什么,我們并不清楚。”我想在探索完全新穎的事物時,你總是摸著石頭過河,制定一些假設,而這些假設大多數(shù)最終都被證明是錯誤的。
接著,我們意識到我們需要做出一些不同的事情,并且需要巨額的資本。所以我們就在想,行吧,當前的結構顯然不太合適。我們該怎樣去補救?補了一次又一次,最終我們得到的東西確實讓人不禁挑挑眉毛,至少可以這么形容。不過,我覺得我們在每一步都做出了合理的決策。這并不是說如果能有機會回到過去,有個先知在旁邊指導,我就不會選擇完全不同的做法。不過,當時我們手邊可沒有先知。不管怎樣,至于埃隆真正的動機是什么,我真的不清楚。
Lex Fridman
在OpenAI的博客文章中,他們給出的回應主要集中在為什么他們認為不應該繼續(xù)推出完整版GPT-3 API的理由。他們提到了對模型潛在被濫用的擔憂,以及他們認為現(xiàn)階段需要加強監(jiān)管和提高透明度。此外,他們也談到了對于AI長期影響的責任感,并表示愿意與其他機構合作,確保AI的使用是安全和有益的。
Sam Altman
哦,我們剛剛提到埃隆表達了一系列看法。這里是我們的陳述,或者說不是我們的陳述。這是對事件經(jīng)過的一個描述。我們試圖不帶入個人情緒,只是陳述,“這就是歷史。”
Lex Fridman
我覺得Elon對你剛才提到的一點有些誤解,也就是你們當時所面臨的不確定性有多大。你們只是一幫小研究團隊,瘋狂地討論著AGI,而那時候,所有人都覺得這個想法很可笑。
Sam Altman
Elon不久前還在瘋狂地談論發(fā)射火箭,那時候大家都對這個念頭嗤之以鼻,所以我覺得他對這件事會有更多的共鳴。
Lex Fridman
我確實認為這里面有一些個人的因素。OpenAI和這里的很多了不起的人決定與Elon Musk分道揚鑣,因此存在一些個人層面的-
Sam Altman
Elon選擇了離開
Lex Fridman
你能具體說說嗎?那種選擇分道揚鑣的情形?
Sam Altman
他覺得OpenAI快要失敗了。他想要完全控制權來挽救局面。但我們想要繼續(xù)沿著現(xiàn)在OpenAI所走的方向前進。他還想要特斯拉能夠開展一個AGI(人工通用智能)項目。他在不同時間點有過多種想法,包括把OpenAI變成一個他能控制的盈利性公司,或者是讓它與特斯拉合并。我們并不同意這樣做,于是他決定離開,這也挺好的。
Lex Fridman
所以你的意思是,正如那篇博客文章里提到的,他想要的是OpenAI能被特斯拉收購,或許是與微軟的合作方式有點相似,或者說可能是一種更為戲劇化的形式。
Sam Altman
我的記憶里,那個提議就是這么回事,就是說,被特斯拉收購,然后讓特斯拉完全掌控它。我很確定提議就是這個意思。
Lex Fridman
當時,Elon,OpenAI中的“open”對你意味著什么?Ilya在郵件往來中已經(jīng)談論過這個話題。那時候它對你意味著什么?現(xiàn)在又是怎樣的意義呢?
Sam Altman
說到如果能帶著一個“神諭”重來,我可能會選一個不同的名字。OpenAI正在做的眾多事情中,我認為最重要的就是免費地將強大技術交到人們手中,作為一項公共福利。我們不在我們的服務上投放廣告——
Sam Altman
作為公共利益的一部分,我們沒有在免費版本中投放廣告,也沒有通過其他途徑來盈利。我們的出發(fā)點只是我們的使命——免費為人們提供越來越強大的工具,并且讓他們?nèi)ナ褂?。我覺得這樣的開放對我們的愿景至關重要。如果我們能夠提供優(yōu)秀的工具,讓人們學會使用,或者他們甚至可以自學成才,然后用這些工具為彼此打造一個美好的未來,這將是意義重大的。所以,如果我們能持續(xù)向世界提供免費或低成本的強大AI工具,這將極大地推進我們的使命。至于是否開源,嗯,我認為我們應該對一些東西開源,而對其他的則不必。這件事往往會變成一種信仰之爭,很難保持中立,但我相信尋找平衡點才是正確的做法。
Lex Fridman
所以他就跟我說:“如果你們把名字改成CloseAI,我就撤銷訴訟。”我是說,難道這就要成為一個圍繞名字的梗,在這片戰(zhàn)場上互相對決了嗎?
Sam Altman
我覺得這體現(xiàn)出Elon提起訴訟的嚴肅態(tài)度,說實話,這種說法真是讓人吃驚。
Lex Fridman
你要是覺得我錯了就糾正我,但我個人覺得這場官司在法律上并不算嚴重。它更多的是在向人們傳遞一個關于未來通用人工智能(AGI),以及目前在這個領域領先的公司的信息。
Sam Altman
看,我的意思是,在人們指出這樣做有點偽善之前,Grok是沒有開源過任何東西的。然后,他宣布Grok將在本周開始開源一些東西。我認為對他來說,這件事并不僅僅是關于是否開源的問題。
Lex Fridman
嗯,我們會討論一下開源和非開源的話題。我倒是覺得,批評一下競爭對手挺好的,適當?shù)卣f點壞話也無妨。但這得是建立在友好競爭的基礎上,比起來,我個人真是非常討厭打官司。
Sam Altman
“看,我認為整個事情對于一個建造者來說是不應該的。我尊敬埃隆,他是我們時代最偉大的建造者之一。我知道他清楚地感受過被那些仇恨者攻擊的滋味,這讓我看到他這樣做時更加感到悲哀。”
Lex Fridman
是的,他可以說是史上最杰出的創(chuàng)造者之一,甚至可能是有史以來最卓越的建設者。
Sam Altman
這讓我感到悲傷。我覺得很多人也有同樣的感受。一直以來,有那么多人仰慕他。我在某個訪談里說過,我懷念曾經(jīng)的Elon,結果收到了好多回信,他們都說:“你的話完全表達了我的心聲。”
Lex Fridman
我覺得他就應該贏。他應該讓X Grok打敗GPT,然后GPT又反過來打敗X Grok,就這樣互相競爭,對大家來說都是一件美事。但說到開源的話題,你認為有很多公司在探索這個概念嗎?這挺有意思的。我倒覺得Meta出乎意料地在這個領域走在了前面,或者至少在這場棋局中,它是第一個真正開放源碼的。當然了,他們開源的并不是最尖端的模型,不過他們開源了Lama。谷歌也在考慮開放一個規(guī)模較小的版本。開源有什么優(yōu)缺點?你自己有沒有思考過這個問題?
Sam Altman
是的,我確信開源模型絕對有其立足之地,尤其是那些人們可以在本地執(zhí)行的體積較小的模型,這方面確實存在巨大的需求。我想未來會出現(xiàn)一些開源模型,也會有一些閉源模型。這一點上,它并不會與其他生態(tài)系統(tǒng)有所不同。
Lex Fridman
我聽了所有關于這起訴訟和其他類似事情的播客。他們更加關注的是,從非盈利到設定盈利上限這一變化所樹立的先例對其他初創(chuàng)企業(yè)會有什么影響?這會是一個怎樣的啟發(fā)?
Sam Altman
我強烈不建議任何想要先作為一個非盈利組織起步,之后再加入盈利性分支的創(chuàng)業(yè)公司這么做。我真的非常不推薦這種方式。我覺得我們這里也不會創(chuàng)造這樣一個先例。
如果我們知道會發(fā)生什么,我們肯定也會那么做的。
Lex Fridman
嗯,理論上來說,如果你在這里的舞跳得夠美,或許能享受到一些稅收優(yōu)惠之類的東西,但是……
Sam Altman
我覺得大部分人對這些事情的看法不是這樣的。
Lex Fridman
如果你這樣做,創(chuàng)業(yè)公司根本不可能省下一大筆錢。
Sam Altman
不,我覺得有些法律會讓這件事變得相當棘手。
Lex Fridman
你期望與Elon之間的關系如何發(fā)展?這種緊張、這場對峙,你希望它會怎樣?假如從現(xiàn)在起向前看1、2、3年,你和他在私人層面上的關系——像是友情、友好競爭,以及所有這些互動。
Sam Altman
是的,我非常尊敬Elon,我希望在未來的歲月里,我們能保持一段友好的關系。
Lex Fridman
是的,我希望你們這個月能夠保持友好的關系,一起在競爭中取得勝利,共同探討這些有趣的理念。我猜會有些關于人才或其他方面的競爭吧,但關鍵是要保持友好競爭的氛圍。就去創(chuàng)造一些酷炫的東西吧。埃隆在這方面確實很在行,你也不賴。
Part 4:Sora
Lex Fridman
講到厲害的玩意兒,Sora真的很吸引人。我有一百萬個問題想問你。首先,它的確令人稱奇,無論是在產(chǎn)品層次上,還是在哲學層次上。那么我就從技術/哲學的角度來提問吧,你認為它比如說相比于GPT-4,在理解世界這方面是更勝一籌還是稍遜一籌呢?在訓練這些補丁時,它對世界模型的理解與僅僅基于語言標記有什么不同嗎?
Sam Altman
我覺得這些模型對世界模型的理解,實際上比我們多數(shù)人給予的認可要深。因為它們對某些事情的理解是如此的清晰明了,它們對其他事情的無知或錯誤就顯得尤為突出,人們很容易一眼看穿它們的不足,然后說:“啊,這全是假的。”但實際上并非全是假象。有些部分是有效的,有些部分則不然。
我還記得第一次看Sora視頻時的情景,你會看到有人走過來,擋住畫面幾秒鐘后又走開,而被遮擋的東西依舊在那兒。我當時就想,“噢,這效果挺不錯的。”或者,有時候,你能看到它展現(xiàn)出一系列動作中物理規(guī)律的那種精準,真的讓人印象深刻。但說到底,這些模型只會越來越強大,這種進步還會繼續(xù)。如果你關注一下從DALL·E 1到2再到3,再到Sora的發(fā)展軌跡,會發(fā)現(xiàn)有很多人在每一個版本上都曾嘲諷,說它做不到這個,做不到那個,但現(xiàn)在看看它的表現(xiàn)吧。
Lex Fridman
嗯,你剛才提到的遮擋問題,其實就是要對世界的三維物理現(xiàn)象建模,而且要做得足夠好,才能捕捉到這類情況。
Sam Altman
嗯……
Lex Fridman
你可以跟我說說,為了應對遮擋問題,世界模型需要做什么呢?
Sam Altman
我想說的是,它在處理遮擋方面表現(xiàn)得相當出色。而說它背后有一個很強大的三維世界模型,這個說法就有些牽強了。
Lex Fridman
但你覺得僅憑這些二維訓練數(shù)據(jù)的方式就能達到那個目標嗎?
Sam Altman
看起來這種方法能出乎意料地走得很遠。我不太想去猜測它能克服哪些限制,哪些又不能,不過……
Lex Fridman
你發(fā)現(xiàn)了系統(tǒng)的哪些有趣局限性?我的意思是,你分享過一些挺有趣的例子。
Sam Altman
有各種各樣的有趣現(xiàn)象。比如,視頻中的貓咪在任意位置突然長出一條額外的肢體。你可以隨意挑選,但現(xiàn)在仍然存在許多問題,有很多弱點。
Lex Fridman
你覺得這是這種方法根本上的缺陷呢,還是說只要有更大的模型、更細致的技術處理或者更高質(zhì)量、更多量的數(shù)據(jù),就能解決“貓發(fā)芽”這類問題?
Sam Altman
我對這兩點都持肯定態(tài)度。我認為這種方法給人的感覺與我們通常的思考和學習方式大相徑庭。同時,我也相信隨著規(guī)模的增加,它的效果會進一步提升。
Lex Fridman
就像我提到的,LLMS有token,文本token,而Sora則有視覺patch。它把所有的視覺數(shù)據(jù),包括各種不同的視頻和圖片,都轉(zhuǎn)換成了patch。訓練過程可以說完全是自監(jiān)督的嗎?還是會涉及到一些手動標注的工作?在整個過程中,人的參與程度是怎樣的?
Sam Altman
我是說,不詳細談論Sora的方法,我們的工作就已經(jīng)利用了大量的人類數(shù)據(jù)。
Lex Fridman
但不是互聯(lián)網(wǎng)級別的數(shù)據(jù)量嗎?這就意味著需要大量的人力。Sam,"大量"這個詞可不簡單。
Sam Altman
我覺得在這種情況下用“很多”這個詞挺合適的。
Lex Fridman
因為對我來說,“很多”嘛……你聽我說,我是個內(nèi)向的人,要是和三個人一起出去,對我來說人就已經(jīng)夠多的了。要是四個人,那簡直就是超負荷了。不過我猜你指的“很多”可能是比這……
Sam Altman
對,確實是有不止三個人在給這些模型做數(shù)據(jù)標注工作。
Lex Fridman
好的,對。但歸根到底,有大量的自監(jiān)督學習。就像你在技術報告里提到的,我們處理的是互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)。這實在太美妙了……它就像詩。也就是說,這些數(shù)據(jù)并非由人工標注,可以認為是以這種方式自監(jiān)督的嗎?
Sam Altman
嗯,對。
Lex Fridman
然后問題在于,互聯(lián)網(wǎng)上到底有多少數(shù)據(jù)可以用于這種自我監(jiān)督學習的方式,只要我們能弄清楚自我監(jiān)督的具體細節(jié)。你有沒有考慮過,更進一步公開這些細節(jié)?
Sam Altman
我們有的。你是特指信息的來源嗎?
Lex Fridman
出處特別指出。因為很有趣,那些讓語言模型如此神奇的元素現(xiàn)在能否開始轉(zhuǎn)向視覺數(shù)據(jù)呢?而這一過程需要怎么做呢?
Sam Altman
我感覺是這樣沒錯,不過我們還得加把勁,干更多的活兒。
Lex Fridman
當你這么問的時候,是在擔心些什么呢?為什么會對發(fā)布這個系統(tǒng)感到憂慮?可能會有哪些潛在危險?
Sam Altman
我是說,坦白講,在發(fā)布系統(tǒng)之前,我們必須確保它的效率達到人們期望的規(guī)模,這樣才能確保系統(tǒng)能夠正常工作,這一點我不想輕描淡寫。在這方面還有大量的工作需要完成。但你可以想象到,像深度偽造、錯誤信息這樣的問題。我們試圖作為一家深思熟慮的公司去思考我們推向世界的產(chǎn)品,你不用費太多心思就能想到這些事情可能怎么走向不好的方向。
Lex Fridman
在這里我們面臨很多棘手的問題,你所處的領域非常艱難。你覺得按照版權法,訓練人工智能算不算公平使用呢?
Sam Altman
我覺得這個問題的底層問題是,創(chuàng)造有價值數(shù)據(jù)的人們是否應該得到某種形式的經(jīng)濟補償,因為他們的數(shù)據(jù)被利用了。我認為答案是肯定的。我目前還不清楚具體的解決方案是什么。人們提出了各種各樣的點子,我們也嘗試過一些不同的模式。但打個比方,如果我是一位藝術家,A,我會希望有選項可以讓別人不使用我的風格來創(chuàng)作藝術作品。而且,B,如果別人確實用了我的風格來創(chuàng)作,我希望這背后能有一套經(jīng)濟模式來確保我的利益得到體現(xiàn)。
Lex Fridman
是的,就像是從CD到Napster,再到Spotify的那種轉(zhuǎn)變。我們得找出一種可行的模式。
Sam Altman
模型會變,但人們得拿到錢。
Lex Fridman
好吧,如果我們把視角再拉得更遠一些,應該有某種動力激勵人類繼續(xù)去做那些牛逼的事兒。
Sam Altman
在我所擔心的一切中,我相信人類會創(chuàng)造出非??岬臇|西,并且社會終將以某種方式來獎勵這些創(chuàng)造。這似乎已經(jīng)深植于我們的本性之中。我們渴望創(chuàng)造,我們渴望證明自己的價值,我們希望以各種方式來獲取認同和地位。我認為,這些特質(zhì)是不會消逝的。
Lex Fridman
但回報可能不是金錢上的利益,而可能是名望或是對其它酷事的認可和贊譽。
Sam Altman
也許在金融方面還有其他方式。我再次強調(diào),我認為我們還未見到經(jīng)濟系統(tǒng)發(fā)展的最終模式。
Lex Fridman
是的,不過藝術家和創(chuàng)作者們都挺擔心的。當他們看到Sora,他們就會驚呼,“我的天哪。”
Sam Altman
藝術家們在攝影問世的時候也是非常憂心忡忡的,后來攝影卻演變成了一種全新的藝術形式,有人通過攝影賺到了大錢。我相信類似的事情還會不斷上演。人們會不斷地用新工具探索新的創(chuàng)作方式。
Lex Fridman
如果我們只是隨便在YouTube或者類似的平臺上搜一搜,你覺得在接下來的五年里,會有多少內(nèi)容是由類似Sora這樣的AI生成的呢?
Sam Altman
人們總是在討論,五年內(nèi)人工智能會取代多少工作崗位。他們的出發(fā)點通常是,目前的工作中有多大比例會完全被人工智能所替代?但我個人的看法并不是圍繞人工智能會做多少份工作,而是在未來某個時間點,它們能執(zhí)行多少種任務。
想一想,經(jīng)濟活動中的每五秒鐘、五分鐘、五小時乃至五天的任務,有多少是人工智能可以完成的?我認為,這個問題比單純問人工智能能取代多少工作要更加有意義、影響深遠和重要。
因為人工智能是一個工具,它將在不斷延長的時間跨度內(nèi)、以越來越高的復雜度來執(zhí)行越來越多的任務,這讓人類能夠在更高層次上進行抽象思考。也就是說,人們在自己的工作中可能會變得更加高效。而這種變化,隨著時間的推移,不僅僅是量的改變,它還意味著質(zhì)的變化——我們能在腦海中構思何種問題。對于YouTube上的視頻,我覺得情況也是如此。很多視頻,或許是大多數(shù)視頻,在制作過程中會運用到人工智能工具,但它們的核心仍然是由人來思考、構思、負責部分執(zhí)行,并指導整個項目的運作。
Lex Fridman
是的,這真的非常有趣。我是說,這確實有點嚇人,但去想象這一點真的很吸引人。我傾向于認為,人類喜歡觀察其他人類或者說其他有人性的生物——
Sam Altman
人們真的很在乎彼此。
Lex Fridman
是的,如果出現(xiàn)了比人類還酷、還厲害的東西,人們可能會關注兩天,但之后他們又會回歸去關心人類的事務。
Sam Altman
這看起來似乎是根深蒂固的。
Lex Fridman
這就是圍繞棋局的整個問題,“哦,是的”,但現(xiàn)在我們還是得繼續(xù)下棋。咱們得視而不見那個擺在眼前的事實:比起人工智能系統(tǒng),人類下棋實在是太菜了。
Sam Altman
我們還是會開賽車,而且現(xiàn)在的車速比以前快多了。我的意思是這樣的例子有很多。
Lex Fridman
是的,或許它就類似于Adobe套件里的一種工具,能夠大大簡化視頻制作這些流程。
聽著,我真的不喜歡站在鏡頭前。如果我能想出一個辦法避免露面,我會非常樂意的。不過不幸的是,這可能還需要一段時間。現(xiàn)在我們正在研究生成面部圖像的技術,雖然進展順利,但要在視頻中生成特定人物而非通用面孔,這個過程還是挺棘手的。
Part 5:GPT-4
Lex Fridman
讓我來問問你GPT-4的事情。問題真的好多。首先,它同樣令人驚嘆?;仡^看,GPT-3、GPT-5和GPT-4這幾個版本很可能會被認為是歷史性的轉(zhuǎn)折點,這些版本塑造了ChatGPT。
Sam Altman
可能第五次會成為轉(zhuǎn)折點。我不確定。往前看,這真的很難說。
Lex Fridman
我們永遠也預測不了。這就是關于未來最讓人頭疼的事,太難以預測了。但是對我個人而言,回顧歷史,GPT-4和ChatGPT實在是太讓人震驚了,它們在歷史上都留下了深刻的烙印。那么,請允許我問你,你認為GPT-4和GPT-4 Turbo最令人印象深刻的能力有哪些?
Sam Altman
我覺得這挺糟心的。
Lex Fridman
人吶,也是這樣,很快就會習慣一件棒極了的東西。
Sam Altman
不,我認為這確實是一件非凡的事情,但與我們所要實現(xiàn)的目標和我堅信我們最終能夠達成的境界相比,在GPT-3面世那會兒,人們都說:“哦,這太令人驚嘆了,簡直是技術的奇跡。”的確,當時它非常了不起。但現(xiàn)在出現(xiàn)了GPT-4,再回頭看看GPT-3,你就會覺得:“天哪,這簡直糟糕透了。”我預計GPT-5和GPT-4之間的差距將和GPT-4與GPT-3的差距一樣大。
我們的職責就是要有領先的視野,記得我們現(xiàn)在擁有的工具回頭看來可能會顯得相當遜色,正是這種認知驅(qū)使我們確保未來變得更加美好。
Lex Fridman
GPT-4在哪些方面最讓人失望?我的意思是——
Sam Altman
它最擅長做些什么呢?
Lex Fridman
它能做到的最棒的事情是什么呢?而這些事情的局限性又在哪里,讓你會覺得它很差,因此又讓你對未來充滿了啟迪和期望呢?
Sam Altman
我最近更多地把它當作一種頭腦風暴的搭檔。
Lex Fridman
是的。
Sam Altman
它有一絲令人震驚的神奇。當人們談起它的作用時,他們會說:“哦,它幫我提高了編程效率。它讓我的寫作速度更快、質(zhì)量更好。它能幫我將一種語言轉(zhuǎn)換成另一種。”所有這些都令人稱奇,但它在創(chuàng)意頭腦風暴方面的表現(xiàn)——比如,“我得給這個東西取個名字。我需要換個角度思考這個問題。我不確定接下來該怎么辦”——我認為這展現(xiàn)了一絲令我期待已久的東西,希望將來能看到更多這樣的場景。
你能略見一斑的是,當我?guī)椭幚硪恍╅L遠的任務,把它們拆解成多個步驟,然后執(zhí)行其中幾個,或許是上網(wǎng)搜索資料,或是編程之類的活兒。這個過程要是能成功,雖然并不常見,但確實感覺挺神奇的。
Lex Fridman
與人不斷地來回交流,對我來說非常有幫助。你指的是什么-
Sam Altman
經(jīng)過不斷的反復與人類溝通,當它能夠獨立完成一個包含10個步驟的問題時,這樣的互動就會變得更加密集。
Lex Fridman
哦。
Sam Altman
這通常不太常見,偶爾會有。
Lex Fridman
增加多層次的抽象,還是你的意思只是依次進行的?
Sam Altman
兩者都很重要,既要把問題分解,也要在不同的抽象層面上進行思考,然后將這些思考重新組合起來。你看,我并不是想小看GPT-4所取得的成就,但同時我也不想過分夸大其重要性。我認為,我們正處于一個指數(shù)增長的曲線上,不久之后,我們會像現(xiàn)在回望GPT-3一樣去回顧GPT-4。
Lex Fridman
這么說吧,我是說ChatGPT成了一個轉(zhuǎn)折點,外界開始逐漸相信OpenAI內(nèi)部已經(jīng)有了一種信念的高漲。
Sam Altman
當然可以。
Lex Fridman
或許這兒有些信徒,但是當你想起——
Sam Altman
在這方面,我真的覺得這將是一個轉(zhuǎn)折點,讓全世界許多人從懷疑變成了信服。這更多的是和ChatGPT的界面有關。說到界面和產(chǎn)品,我的意思還包括了模型的后續(xù)訓練過程,以及我們?nèi)绾握{(diào)優(yōu)使它對你更有幫助,以及怎樣使用它,而不只是底層模型本身。
Lex Fridman
這些因素中每一個到底有多重要呢?無論是底層模型還是RLHF,又或者是其他的什么機制,它們都在調(diào)優(yōu)過程中起著關鍵作用,讓這個系統(tǒng)對于人類來說更具吸引力,使用起來更高效、更富有成效。
Sam Altman
我是說,它們都極為重要。但是RLHF,也就是訓練后的那個步驟,我們在基礎模型之上進行的那些額外工作——盡管這背后需要巨大的工作量——卻是至關重要的,更不用提我們圍繞它打造的產(chǎn)品了。在某種意義上來說,我們的確需要同時做好兩件事情:一是發(fā)明底層技術,二是搞清楚如何把它轉(zhuǎn)化成人們愛不釋手的產(chǎn)品。這不僅僅關乎產(chǎn)品本身的實際工作,還涉及到一個完全不同的階段——怎樣讓產(chǎn)品與用戶的需求保持一致,并真正發(fā)揮出它的用途。
Lex Fridman
你是如何做到讓眾多用戶能夠同時使用這項技術的規(guī)?;?。所有這些方面,都得仔細斟酌。
Sam Altman
這個嘛,但那確實是個大家都知道的難題。我們明白我們必須要擴大它的規(guī)模。我們得完成兩項前所未有的任務,我得說這兩個任務都是非常了不起的成就,之后還有很多像規(guī)模擴大這樣其他公司之前也經(jīng)歷過的挑戰(zhàn)。
Lex Fridman
在GPT-4和GPT-4 Turbo之間,將上下文窗口從8K令牌增加到128K令牌,會有什么樣的區(qū)別呢?
Sam Altman
大部分情況下,人們并不總是需要128這么長的上下文。雖然若我們將目光投向遙遠的未來,我們可能會有幾十億的上下文長度。你可以輸入你所有的信息,你的整個歷史記錄,它將逐漸更深入地了解你,那會非常棒。但是就目前的情況來看,人們使用這些模型的方式并不是這樣的。有時候,人們可能會在一篇論文中貼上大量的代碼庫,不過,大多數(shù)時候模型的使用并不涉及長時間的上下文。
Lex Fridman
我喜歡這種感覺,就像是你的“我有一個夢想”演說。有朝一日,你會被依據(jù)你性格的全貌或是你一生的總體來評價。這很有意思。那么,你所期望的擴展的一部分,就是一個越來越全面的背景環(huán)境了。
Sam Altman
我記得看過一段網(wǎng)絡視頻,數(shù)字可能記錯了,但是內(nèi)容大致是比爾·蓋茨在談論一款早期電腦的內(nèi)存容量,可能是64K,也許是640K之類的。那時候,大多數(shù)內(nèi)存都被用作屏幕的緩沖區(qū)。他當時似乎無法真正理解,為什么未來的世界會需要計算機有幾個GB甚至TB的內(nèi)存。不過實際上,你總是要跟上技術發(fā)展的指數(shù)級曲線,我們總會找出利用更先進技術的方法。所以,我現(xiàn)在真的很難想象,未來有一天,上下文鏈接擴散到十億設備的情景會是怎樣的。它們可能不會真的達到那個數(shù)字,但在效果上可能會有那種感覺。不過我知道,一旦我們擁有了這種技術,就絕不會想要回到?jīng)]有它的日子。
Lex Fridman
是的,即便是現(xiàn)在說十年后可能是數(shù)十億的規(guī)模,也可能顯得很愚蠢,因為到那時它可能已經(jīng)達到了數(shù)以萬億計的規(guī)模。
Sam Altman
當然
Lex Fridman
將會出現(xiàn)一些使人感覺像是擁有無限上下文的突破性進展。不過即便是120字符,老實講,我也沒嘗試過把它推到那個極限。可能的用例包括輸入整本書或書的某些部分,比如論文之類的。你見過GPT-4有哪些有趣的應用場景嗎?
Sam Altman
我最感興趣的不是任何我們可以討論的具體應用案例,而是那些將其作為任何知識工作任務的默認起點的人,特別是年輕人。令人矚目的是它在很多方面都能做得相當不錯。你可以使用GPT-V來幫助你編寫代碼,進行搜索,或者編輯論文。對我來說,最有意思的是那些直接以此為他們工作流程開端的人。
Lex Fridman
我對很多事情也有同樣的興趣。我用它作為讀書的伙伴,它幫助我思考,尤其是當我閱讀那些經(jīng)典名著的時候。這方面,它寫得真的很出色。我發(fā)現(xiàn)它在討論那些資料豐富的話題時通常比維基百科還要好。它某種程度上更加均衡、更具細節(jié)。或許這只是我的個人感受,但它激發(fā)我進行比閱讀維基百科條目更深層次的思考。我不完全確定為什么會這樣。
你剛才提到了這種協(xié)作。我不確定魔法究竟在哪里——是在這兒、在那兒,還是在中間某處。這一點我還真不敢確定。但有個問題一直讓我擔心,那就是當我開始用GPT處理知識性任務時,我通常得事后去核實事實,比如檢查它有沒有編造一些假消息。你是怎么發(fā)現(xiàn)GPT能編出那些聽起來特別有說服力的假信息的呢?你又是如何確保它所提供的信息是真實的?
Sam Altman
這顯然是我們極其關注的一個領域。我覺得隨著即將推出的新版本,情況會有很大的改善,但我們?nèi)孕璩掷m(xù)努力,今年是不可能完全解決所有問題的。
Lex Fridman
確實可怕,因為隨著技術越來越好,我們越發(fā)不去做事實核對了,對吧?
Sam Altman
我在這個問題上有點矛盾。我覺得人們使用技術的能力,其實比我們通常認為的要高明多了。
人們似乎已經(jīng)真正理解了GPT,還有這些模型有時候會出現(xiàn)錯誤信息。如果是關乎重大任務的事情,你就必須得核實一下。
Lex Fridman
除此之外,記者們好像并沒有意識到這點。我看到有些記者只是敷衍了事地用GPT-4。這個-
Sam Altman
我有好長一串想要吐槽記者的事,但這個問題并不排在我的批評名單之首。
Lex Fridman
嗯,我認為更大的批評可能是記者所面臨的壓力和激勵機制,這使得他們不得不工作得非常迅速,而采用這種方法無疑是捷徑。我真心希望我們的社會能夠鼓勵像……
Sam Altman
我也是。
Lex Fridman
……像是那些需要數(shù)天乃至數(shù)周辛勤努力才能產(chǎn)出的深度新聞報道。還有,有些報道以一種平衡的方式來呈現(xiàn)新聞,它們在批評的同時也能夠贊揚他人,雖然通常都是那些批評性質(zhì)的內(nèi)容吸引點擊。而捏造事實、標題黨也能輕易地獲得點擊量。我敢肯定,一定有不少人諷刺地說:“嗯,所有那些充滿戲劇性的東西肯定帶來了大量點擊。”
Sam Altman
可能吧。
Part 6:記憶與隱私
Lex Fridman
這是關于人類文明的一個宏觀問題,我非常想要探討一下。這正是我們應該更多地去慶祝的領域。你給ChatGPT賦予了擁有記憶的能力,你一直在嘗試處理它與過往對話的記憶問題。同時,你還讓它能夠關閉記憶功能。有時候我真希望我也能做到這一點——根據(jù)需要打開或關閉記憶。我猜有時酒精似乎能起到這個效果,不過我覺得它并不是最理想的方法。你在這方面有什么發(fā)現(xiàn)嗎?比如嘗試記住對話或者選擇不記住這種想法的時候。
Sam Altman
我們目前在這個領域的探索還只是剛剛開始,但我覺得人們想要的,至少我個人想要的,是一個能夠逐漸認識我并且隨著時間的推移越來越有幫助的模型。這還僅僅是個起點。我認為我們還有很多其他的事情需要去做,但這正是我們想要追求的目標。你會期望使用一個模型,在你的一生中或是在你使用一個系統(tǒng)的過程中,它可能包含了多個模型,它們會隨著時間的積累變得越來越優(yōu)秀。
Lex Fridman
是啊,解決這個問題有多困難?因為目前為止它更多的是記住一些瑣碎的小知識點和個人喜好等等。但是關于記憶這塊怎么樣呢?你難道不希望GPT能記得你在十一月里經(jīng)歷的所有麻煩和所有的那些波折,然后你就可以——
Sam Altman
嗯,對,對。
Lex Fridman
因為現(xiàn)在你顯然有些在回避它。
Sam Altman
我不僅僅希望它記得這些東西,我還想要它能整合這些經(jīng)驗教訓,并且在將來提醒我應該如何不同地行動,或者有什么需要留意的地方。我們每個人的一生中,都在不同程度上從經(jīng)驗中受益,我希望我的AI代理也能跟隨這樣的經(jīng)驗成長。想象一下,如果我們回溯并且假設有數(shù)萬億的上下文長度可供利用,如果我能把我這一生中與任何人的每一次對話都放進去,把所有的郵件往來都輸入輸出進上下文窗口,每當我提出問題時都能調(diào)用這些信息,那將是非??岬囊患?。
Lex Fridman
是的,我覺得那會非常酷。不過有時候,當人們聽說這個想法時,會對隱私感到擔憂。你怎么看待這個問題?隨著AI變得更加強大,它確實需要整合你所有的經(jīng)歷和數(shù)據(jù)才能給出建議。
Sam Altman
我覺得答案很簡單,就是給用戶選擇的權力。任何我想從我的AI代理那里刪除的記錄,我都希望能夠自由刪掉。如果我不想記得什么事情,我也應該可以選擇忘記。在我們自己的AI的隱私與效用之間的權衡問題上,你和我可能有各自不同的見解。
Sam Altman
…對于OpenAI在隱私與實用性之間如何權衡,大家有不同的意見,這是很正常的。但我覺得解決方法很直接,就是讓用戶來做選擇。
Lex Fridman
但公司應該對用戶的選擇有較高程度的透明度。因為以往有些公司在收集用戶數(shù)據(jù)時態(tài)度含糊其辭,好像默許自己可以搜集所有數(shù)據(jù)似的,他們會說:“嗯,我們收集你的所有數(shù)據(jù)是理所當然的。我們用這些數(shù)據(jù)來做廣告等,都是出于好意。”但他們對這些細節(jié)并不透明。
Sam Altman
這絕對沒錯。你剛才提到,我在刻意回避那些11月發(fā)生的事。
Lex Fridman
只是逗你玩。
Sam Altman
嗯,我的意思是,我經(jīng)歷了一件極其創(chuàng)傷的事,這件事確實使我長時間無法動彈。在那段艱難的時光里,最難的工作就是要堅持不懈地繼續(xù)下去,因為我必須在處于震驚和疼痛中的時候回到這里,努力把事情的碎片一點點拼湊起來,而那時候似乎沒有人真正關心。
我的團隊確實給了我一些寬容,我也沒有發(fā)揮出我平時的工作水平。但確實有那么一段時間,要同時處理這兩件事真的很困難。不過,有一天早上我醒來,想到:“這確實是我遭遇的一件恐怖的事情。我可以選擇永遠把自己視為受害者,或者我可以告訴自己這是我一生中觸及的最重要的工作,我必須回過神來繼續(xù)它。”這并不意味著我在壓抑自己的感受,因為有時候我會在半夜醒來,腦海里依舊會回想起那些事情,但我確實感到我有義務要持續(xù)向前走。
Lex Fridman
這么說真是妙不可言,不過可能還有些隱性的問題存在。我比較擔心的是你提到的那種信任問題,擔心人們變得過于多疑,而不是天真地信任每一個人或者大部分人,憑借直覺去判斷。這確實是一場復雜微妙的平衡之舞。
Sam Altman
當然可以。
Lex Fridman
我的意思是,我在兼職時做了一些深入探究,特別是研究了澤連斯基政府和普京政府,以及他們在戰(zhàn)時高壓環(huán)境下的種種互動。結果就是彼此之間產(chǎn)生了不信任,大家都開始孤立自己,對世界的看法也變得不清晰了。這是所有人都會關心的問題。你看上去似乎游刃有余,從中吸取了寶貴的教訓,感受到愛,并讓這份愛激勵著你,這很了不起,不過這種感覺可能還會殘留心間。我有一些問題想問問你,關于你直覺上認為GPT能做什么、不能做什么。GPT在生成每個token時,似乎會分配大約相同的計算資源。那么,在這種方式中,是否有空間給予更緩慢、更連貫的思考呢?
Sam Altman
我覺得會有一種新的思考模式出現(xiàn)。
Lex Fridman
它在架構上會和我們目前看到的LLMs相似嗎?它是不是在LLMs基礎上增加的一層?
Sam Altman
我能想象出不少實施這個想法的方法。不過,我認為那并不像你想要探討的問題那么重要。你的問題是,我們是否需要一種較慢的思考模式,這種模式下,答案不需要那么迅速地得出……可以這么說,從一種精神層面上講,你希望一個人工智能能夠在面對更復雜的問題時投入更多思考,而在遇到簡單問題時則能夠更快地給出答案。我覺得這點很關鍵。
Lex Fridman
這是不是人類的一個常有的想法,我們就應該去努力思考?這種直覺是不是有誤呢?
Sam Altman
我覺得這個直覺挺有道理的。
Lex Fridman
有趣。那么,一旦GPT升級到比如GPT-7這樣的級別,它就能瞬間找出“費馬定理的證明”了是嗎?
Sam Altman
你好像是想能為那些更難的問題分配更多的計算能力。我想,如果你問這樣一個系統(tǒng),“證明一下費馬大定理”,和問“今天是什么日期?”相比,除非它已經(jīng)知道并且記住了證明的答案,要不然它得自己去琢磨出來,這看起來肯定是需要更多計算資源的。
Lex Fridman
但它能不能看起來基本上就像一個LLM在自言自語,是那種感覺?
Sam Altman
或許吧。我的意思是,你能想象出很多可能有效的事情。但關于怎么做才是最合適或者最好的方式,我們目前還不清楚。
Part 7:Q*
Lex Fridman
這讓我想起了Q*背后那些充滿神秘色彩的傳說。這個神秘兮兮的Q*項目究竟是什么呢?它也在同一座核設施里面嗎?
Sam Altman
沒有核能設施。
Lex Fridman
嗯,擁有核設施的人總是這么說。
Sam Altman
我特別希望擁有一個秘密設施,可惜并沒有這么一回事。
Lex Fridman
好的,沒問題。
Sam Altman
也許吧,總有一天。
Lex Fridman
有一天吧?好吧。人總得有點兒夢想,不是嗎?
Sam Altman
OpenAI并不擅長保守秘密。如果我們能夠做到的話,那就太好了。我們一直受到很多泄密事件的困擾,真希望我們能有這樣的本事。
Lex Fridman
能談談Q*是什么嗎?
Sam Altman
我們還沒準備好討論那個話題。
Lex Fridman
看,但這樣的回答意味著我們有東西可以聊了。這很神秘,Sam。
Sam Altman
我是說,我們涉獵的研究領域五花八門。我們之前已經(jīng)提過,我們認為增強這些系統(tǒng)的推理能力是一個重要的發(fā)展方向,是我們很想深入探索的。到目前為止我們還沒徹底攻克這個難題,但我們對此充滿了極大的興趣。
Lex Fridman
會有類似ChatGPT那樣的飛躍性突破,或者其他類似的重大進展嗎?
Sam Altman
這個問題問得好。我怎么看這個問題呢?挺有意思的。對我來說,這整個過程看起來都是相當連貫的。
Lex Fridman
沒錯。你所談到的,似乎是一個主題,那就是你們基本上是在沿著一個指數(shù)曲線逐步攀升。但從旁觀者,也就是我這個角度來看,好像確實能感覺到有些跳躍性的進展。不過在你眼里,這些并不存在嗎?
Sam Altman
我真的在思考,我們是否該……一個重要的原因是,我們采用所謂的迭代部署方式,而不是秘密開發(fā)到GPT-5,我們決定公開談論GPT-1、2、3和4。部分原因在于我覺得人工智能與意外這兩者不應該搭界。而且,無論是世界、人類、機構,或者你愿意怎么稱呼它們,它們都需要時間去適應和反思這些問題。
我認為OpenAI最明智的舉措之一就是采取了這樣的策略,我們讓全世界都關注這一進程,正視AGI的重要性,考慮在我們陷入緊迫境地、不得不匆忙作出決策之前,我們需要建立什么樣的系統(tǒng)、結構和治理模式。
我覺得這樣做非常棒。但是,像你和其他人還能感受到這些巨大飛躍的事實,讓我想,或許我們應該更加漸進地發(fā)布我們的產(chǎn)品。我現(xiàn)在還不確定這究竟意味著什么,也沒有現(xiàn)成的答案,但我們的目標絕不是給世界帶來令人震驚的更新,恰恰相反。
Lex Fridman
當然,能夠做得更迭代會非常棒。我覺得這樣對每個人都是一件美好的事。
Sam Altman
但這正是我們所致力于的目標,也是我們公開宣布的策略。我覺得我們在某種程度上沒能達標。也許我們應該考慮換個方式來發(fā)布GPT-5或類似的產(chǎn)品。
Lex Fridman
比如用版本號4.71、4.72?人們通常都喜歡慶祝特別的日子,比如生日。我不確定你對人類了解多少,但他們會慶祝這些重要的時刻和里程碑。
Sam Altman
我確實認識一些人類。人們確實對里程碑情有獨鐘。這點我完全能理解。我認為我們自己其實也挺喜歡里程碑的。能夠宣布某件事情取得了勝利,然后邁向下一個目標,這感覺真的很棒。但確實,我感覺我們在某些方面可能理解錯了。
Part 8:GPT-5
Lex Fridman
GPT-5什么時候會推出呢?
Sam Altman
我不知道,說實話。
Lex Fridman
哦,這回答挺實誠的。如果是今年的話,眨兩下眼。
Sam Altman
我們今年會推出一個非常棒的新模型。我還不確定我們最后會叫它什么名字。
Lex Fridman
這就引出了一個問題:我們該怎樣發(fā)布這個東西呢?
Sam Altman
在接下來的幾個月里,我們將推出許多不同的東西。我覺得這會非??帷T谖覀冮_始談論像GPT-5這樣的模型——不管它最終叫不叫這個名字,或者是比你所期待的GPT-5略遜一籌還是略勝一籌之前,我認為我們有一系列其他重要的產(chǎn)品需要優(yōu)先發(fā)布。
Lex Fridman
我真不知道對GPT-5應該有什么樣的期待。你這么一說,我感到又緊張又興奮。不管它最后被叫做什么,咱們就暫且稱它為GPT-5吧,它需要克服哪些最大的挑戰(zhàn)和障礙呢?我覺得這個問題很有意思。是關于計算能力的問題嗎?還是技術層面的呢?
Sam Altman
這總是涉及到所有這些因素。你知道,關鍵的突破因素是什么?是更大的計算機嗎?是一個新的秘訣嗎?還是別的什么東西?其實這些要素都是相互關聯(lián)的。我認為OpenAI做得特別出色的一點是……這實際上是伊利亞最初的話,我可能會說得不是很準確,但意思大概是,“我們把200個中等規(guī)模的因素相互結合,創(chuàng)造出了一件巨大的作品。”
Lex Fridman
那么這就是一種分布式的、持續(xù)不斷的創(chuàng)新過程?
Sam Altman
嗯,對。
Lex Fridman
所以連在技術層面上也是這樣?
Sam Altman
尤其是在技術層面上。
Lex Fridman
那么連具體的做法也包括在內(nèi)嗎?
Sam Altman
嗯,對。
Lex Fridman
你是如何深入到每一個細節(jié)的……在涉及不同、各自獨立的團隊時,這種工作方式如何運作?中等大小的項目怎樣才能匯聚成一個龐大的整體,就像變形金剛一樣?
Sam Altman
有些人得去思考怎樣把所有事情綜合起來,但也有很多人盡量試著把大局都記在腦子里。
Lex Fridman
哦,也就是說,個別團隊中的成員會盡力維護對整體大局的關注?
Sam Altman
在高層面上,是這樣的。當然你無法精確知曉每個部分是如何工作的,但我普遍認為,有時候拉遠鏡頭、審視全局是非常有幫助的。這一點不僅適用于技術問題,對于商業(yè)創(chuàng)新同樣有效。有時事情會以意想不到的方式匯聚在一起,而對整個畫面的理解,即便你大多數(shù)時間都在某一領域里鉆研,最終也能帶來出人意料的洞見。
實際上,我過去有一個非常寶貴的東西,那就是對科技行業(yè)所有或大多數(shù)前沿領域都有一個清晰的地圖。有時候,我能看到這些連接或新的可能性,如果我只是深耕于某一領域,我可能就不會有這樣的想法,因為我缺少全面的數(shù)據(jù)。而現(xiàn)在我已經(jīng)不太擁有那樣的視角了,我現(xiàn)在深入某一個特定領域。但我知道,擁有全局視角是非常寶貴的。
Lex Fridman
你已經(jīng)不是以前的那個Sam了。
Sam Altman
現(xiàn)在的工作跟我以前的可大不一樣了。
Part 9:7萬億美元的算力
Lex Fridman
談到從宏觀角度看問題,咱們再擴大點范圍,聊聊你說過的另一件既俏皮又可能頗有深意的事兒。你發(fā)推特說咱們需要7萬億美元。
Sam Altman
我沒有在推特上發(fā)過那種內(nèi)容。我從來沒說過諸如“我們要募集7萬億美元”之類的話。
Lex Fridman
哦,那是另一個人?
Sam Altman
嗯,對。
Lex Fridman
哦,但你說過,“管他的,或許是8萬億”,是這樣嗎?
Sam Altman
好的,我就想說一下,世界上確實存在著很多錯誤信息。
Lex Fridman
哦,你這是在開玩笑呢。不過說真的,雖然是誤傳,里面可能還是有點道理的。
Sam Altman
看,我認為計算能力將會成為未來的'貨幣'。我相信它可能會變成世界上最寶貴的資源,并且我認為我們應該大規(guī)模地投資以生產(chǎn)更多的計算能力。算力我覺得它會是一個獨特的市場。人們通??紤]的是手機芯片這樣的市場。你可以想象,全球有80億人口,可能有70億人擁有手機,或許是60億,我們就這么假設吧。他們每兩年換一次手機,所以每年的市場需求就是30億套手機系統(tǒng)芯片。但如果你生產(chǎn)了300億套,你也不可能賣出去10倍的手機數(shù)量,因為大多數(shù)人只會用一部手機。”
但計算的情況有所不同,智能可能會更像能源那樣,我們唯一需要討論的是,在價格X的條件下,全世界會用掉多少計算資源,在價格Y的條件下又會用掉多少。因為如果計算資源真的很便宜,我可能就會讓它全天候地幫我閱讀電子郵件,給我提建議,關于我可能需要思考或處理的事情,甚至是嘗試治療癌癥。但如果計算資源非常昂貴,那么我可能只會在嘗試治療癌癥時才使用它,或者我們大家都僅在這種情況下使用它。
因此,我認為世界將需要巨量的計算能力。而在這個過程中,有許多難點。能源問題是最為棘手的,建造數(shù)據(jù)中心同樣充滿挑戰(zhàn),供應鏈問題也不容忽視,當然了,制造足夠的芯片也是一個硬骨頭。但看起來,這正是事情發(fā)展的方向。我們將會渴求一種計算能力,目前來說,這種規(guī)模是難以想象的。
Lex Fridman
你是怎樣解決能源難題的?核能?
Sam Altman
這就是我相信的。
Lex Fridman
…聚變?
Sam Altman
這就是我相信的。
Lex Fridman
核聚變嗎?
Sam Altman
嗯,對。
Lex Fridman
誰能解決這個問題?
Sam Altman
我覺得Helion在這方面做得最棒,但我對當前的核聚變競賽感到挺興奮的。核裂變同樣令人贊嘆,我希望全球能夠再次擁抱它。核裂變的歷史進程對我來說真的很令人感到遺憾,我希望我們能以更有意義的方式,重新投身其中。
Lex Fridman
所以你認為,核裂變是拼湊這個謎題的一部分嗎?比如說,就像我們現(xiàn)在已經(jīng)在使用的那些核反應堆?還有很多人都因為像切爾諾貝利那樣的事故而感到非常害怕,對嗎?
Sam Altman
嗯,我認為我們應該建造新的反應堆。我真的覺得那個行業(yè)陷入停頓真是太可惜了。
Lex Fridman
你是認為“群體性歇斯底里”能解釋這種停滯現(xiàn)象嗎?
Sam Altman
嗯,對。
Lex Fridman
我不確定你對人類有多了解,但這正是其中一個風險。核裂變面臨的安全威脅之一就是人類對此的深度恐懼。我們必須把這一點考慮進去,這就意味著我們得說服人們,向他們展示其實它有多安全。
Sam Altman
我對人工智能的前景有些擔心。我覺得在人工智能的發(fā)展過程中,某些方面可能會戲劇性地出錯。雖然我不確定我最終被槍擊的概率有多大,但肯定不是零。
Lex Fridman
哦,我們想要防止這種情況——
Sam Altman
也可能是吧。
Lex Fridman
你怎樣才能減少其中的戲劇化成分?我已經(jīng)開始感受到一些波動,因為我確實與各個政治派別的人都有交流,感覺到人工智能將變得政治化的跡象。這真的讓我擔憂,因為到時可能會演變成右翼反對人工智能,左翼支持人工智能,因為人工智能能夠造福人民,或者不管是哪種說辭和設定。這一點真的令人擔心。到頭來,人工智能的戲劇化效果可能會被充分放大。你打算如何應對這種情況?
Sam Altman
我覺得它最終會被左右兩派的對立卷入紛爭中。我無法確切知道最終會演變成什么樣,但不幸的是,任何具有重要性的事物似乎都會如此。至于我之前所說的“戲劇性風險”,我的意思是雖然人工智能將帶來巨大的好處,我相信這些好處將遠超過壞處,但它確實也會有一些壞處,其中有些壞處雖然嚴重,卻并不具戲劇性。比如,因空氣污染死亡的人遠比核反應堆造成的死亡人數(shù)要多。但大多數(shù)人更擔憂住在一個核反應堆附近,而不是一個煤炭發(fā)電廠附近。這種心理機制很奇怪,盡管我們需要面臨許多不同種類的風險,但那些足以成為電影高潮戲份的風險,在我們心中占據(jù)的分量要遠重于那些持續(xù)時間長、但危害累積過程緩慢的風險。
Lex Fridman
這就是為什么真相至關重要。我希望人工智能能夠幫助我們認清事物的本質(zhì),達到一種平衡,弄清楚世界上事物實際的風險和危險究竟是什么。在這個領域里,與谷歌、Meta、xAI以及其它公司競爭,各有什么優(yōu)劣之處呢?
Sam Altman
我覺得我對這個問題有個挺直截了當?shù)幕卮?,也許以后我能想到更多微妙的地方,不過優(yōu)勢是顯而易見的,那就是我們能夠以更快更便宜的方式得到更優(yōu)質(zhì)的產(chǎn)品和更多的創(chuàng)新,還有所有競爭帶來的好處。而缺點嘛,如果我們不留神的話,我擔心這可能會導致軍備競賽式的激增。
Lex Fridman
你感受到那種軍備競賽的壓力了嗎?就是那種帶有一些負面影響的壓力。
Sam Altman
當然,在某些方面肯定是這樣的。我們討論了很多關于需要將安全放在首位的話題。長久以來,我一直認為可以將AGI開始的時間分為四個象限:慢起步的短時間線、長時間線,以及快起步的短時間線、快起步的長時間線。我覺得短時間線搭配慢起步是最安全的組合,也是我最希望我們能處于的狀態(tài)。但我確實很希望能確保我們實現(xiàn)一個慢起步。
Lex Fridman
我對Elon有點疑慮:大家往往形成了各自為陣的孤島,而不是在安全問題上齊心協(xié)力。人們傾向于走向封閉、獨立的方向。或許,采取開源模式會是個不錯的選擇。
Sam Altman
Elon至少說過,他非常關注AI安全問題,而且確實對此很是擔心,我猜他應該不會去做一些不安全的競爭。
Lex Fridman
是的。但我認為,在這方面的合作對大家都真的有好處。
Sam Altman
這并不是他最為人所知的事情。
Lex Fridman
嗯,他因為關心人類而出名,而人類是從合作中受益的。所以,在激勵和動機上總會有一些張力。但到最后,我還是希望人類能夠占上風。
Sam Altman
我前幾天想起來,有人跟我提到那天他成為世界首富,超過了杰夫·貝索斯,他還在推特上給貝索斯發(fā)了個銀牌的表情。我真心希望,當人們開始致力于研發(fā)AGI——通用人工智能時,我們能少一些這樣的鬧劇。
Lex Fridman
我同意。我覺得埃隆是個朋友,他是一個很棒的人,也是歷史上最重要的人物之一。那些言論可不怎么樣。
Sam Altman
埃隆身上有些特質(zhì)真的很了不起,我超級尊敬他。我覺得我們都需要他。我們每個人都應該為他加油,希望他在下一階段能夠挺身而出,擔起領袖的責任。
Lex Fridman
是的。我希望他能擁有一樣,而不受另一樣的影響。但有時候,人類就是有缺陷、復雜多變,還有種種其他情況。
Sam Altman
歷史上涌現(xiàn)出了許多非常杰出的領導者。
Part 10:Google和Gemini
Lex Fridman
是的,我們每個人都可以變成自己最好的版本,并且應當努力去做到這一點。我想問你,谷歌借助搜索功能,在過去的20年里已經(jīng)成為了一個領頭羊。可以說,在全球范圍內(nèi)獲取信息的方式、人們的互動方式等方面,谷歌都扮演了重要角色。而對于谷歌和整個行業(yè)來說,一個令人緊張的問題就是:人們將如何獲取信息?就像你提到的,人們開始把GPT當作一個出發(fā)點。所以,OpenAI真的會去接管谷歌20年前啟動的這個任務嗎,也就是我們應該如何—
Sam Altman
我感覺那樣做太無趣了。我的意思是,如果問題僅僅是我們能不能打造一個比谷歌更優(yōu)秀的搜索引擎,那當然,大家都應該去追求更高質(zhì)量的產(chǎn)品。但這樣的設想嚴重低估了這項技術的潛力。谷歌向你展示的是10個藍色鏈接,嗯,其實是13個廣告之后才是那10個藍色鏈接,這只是搜索信息的一種方式。不過,讓我真正感到興奮的,并不是我們能夠復刻一個更卓越的谷歌搜索,而是或許存在一種全新的、更好的方法,來協(xié)助人們尋找、利用并整合信息。事實上,對于某些場景而言,我認為ChatGPT已經(jīng)做到了這一點,希望我們能夠?qū)⑵鋺玫礁嗟膱鼍爸腥ァ?/p>
但我認為僅僅提出“我們怎樣才能比谷歌更好地為你提供前10個排名的網(wǎng)頁?”這個問題其實并不太有意思。更有趣的問題可能是,“我們?nèi)绾螏湍阏业侥阈枰拇鸢富蛐畔??我們該如何在某些場合下?chuàng)造它,在其他場合下整合信息,或者在另一些場合中引導你找到它?”很多人嘗試去打造一個比谷歌更優(yōu)秀的搜索引擎,但這既是一個技術上的難題,也是品牌和生態(tài)系統(tǒng)方面的挑戰(zhàn)。我認為世界并不需要一個谷歌的翻版。
Lex Fridman
將一個像ChatGPT這樣的聊天客戶端與搜索引擎整合起來——
Sam Altman
那樣更酷些。
Lex Fridman
這挺酷的,但也挺棘手。如果你僅僅簡單粗暴地去做,那就會很別扭,因為你若只是硬塞進去,會顯得很尷尬。
Sam Altman
你可能猜得到,我們很想知道怎樣才能做好這件事。那可真是一個很酷的例子。
Lex Fridman
將會是一個從未出現(xiàn)的東西。
Sam Altman
LLM結合搜索的領域,我覺得還沒人真正搞定它。我特別想去嘗試一下。我想那會非常有意思。
Lex Fridman
是的。那在廣告方面呢?你們有沒有考慮過如何實現(xiàn)變現(xiàn)—
Sam Altman
我實在是不太喜歡廣告,這完全是出于我的審美偏好。我理解互聯(lián)網(wǎng)之初為了發(fā)展不得不依賴廣告,但這不過是一個暫時的行業(yè)現(xiàn)象。如今的世界已經(jīng)變得更為富裕。我特別贊賞人們愿意為ChatGPT付費,并且確信他們得到的答案不會受到廣告商的影響。我確信會有適合大型語言模型(LLMs)的廣告模式,也確信存在一種不帶偏見地參與交易流的方式,這是可以接受的。但同時,也很容易聯(lián)想到一種反烏托邦的未來場景:你向ChatGPT提問,它或許會回答說,“噢,你應該考慮買這個產(chǎn)品”,或者“你應該考慮去這個地方度假”,等等。
我不清楚,咱們的商業(yè)模式非常簡單,我挺喜歡的,我也明白我不是被賣的產(chǎn)品。我知道自己是付費用戶,商業(yè)模式就是這么運作的。但每當我使用Twitter、Facebook、Google這些支持廣告的好產(chǎn)品,我就不太舒服,我覺得在AI的世界里,這種情況會越來越糟,而不是越來越好。
Lex Fridman
是的,我的意思是,我可以想象AI能夠更精準地推薦那些我們真正需要的商品和服務的廣告,而不是在某個反烏托邦的未來。但這是否意味著,廣告最終總是會左右展示內(nèi)容呢?對,我覺得維基百科決定不投放廣告是個非常勇敢的決定,但這也確實給它的商業(yè)模式帶來了極大的挑戰(zhàn)性。所以,你是在說OpenAI現(xiàn)在的運營模式在商業(yè)上是可持續(xù)的嗎?
Sam Altman
嗯,我們得琢磨出如何發(fā)展壯大,不過看樣子我們能找到方法。如果問題是我是否相信我們能夠創(chuàng)立一個不依賴廣告而滿足我們計算需求的優(yōu)秀企業(yè),那么,我相信答案是可以的。
Lex Fridman
嗯,這挺有希望的。但我也不想徹底摒棄廣告這個概念……
Sam Altman
我不是那個意思。我的意思是我對他們有一些成見。
Lex Fridman
是的,我也存在一些偏見,而且總體上傾向于持懷疑態(tài)度。說到界面,因為我個人對糟糕的界面有種本能的反感,這就是AdSense剛一推出時,相較于那些動態(tài)橫幅廣告,為什么會成為一個巨大的飛躍。但我覺得在廣告領域,應該還有更多類似的飛躍。這樣的廣告不會干擾人們消費內(nèi)容,也不會從根本上大幅度干涉,正如你所說,它不會為了迎合廣告商而歪曲真相。
讓我向你了解一下關于安全性的問題,無論是偏見問題,短期安全還是長期安全。最近發(fā)布了Gemini 1.5版本,圍繞它引發(fā)了不少鬧劇,說到戲劇性的事件,它產(chǎn)生了黑人納粹分子和黑人開國先驅(qū)的圖像。公平地說,它可能偏向了過度"覺醒"的一面。對于公眾來說,這是一個令人擔憂的問題:如果企業(yè)內(nèi)部有人類干預模型的安全性或造成的傷害,可能會帶來大量符合公司意識形態(tài)傾向的偏見。你們是怎么處理這類問題的?
Sam Altman
我是說,我們真的非常努力去避免出現(xiàn)這類問題。我們自己也犯過錯,未來還可能會犯。我猜Google從這個事件中會吸取教訓,但他們?nèi)钥赡軙钙渌腻e。這些問題確實不簡單。我們越來越多地在思考一個問題,我認為這是我們團隊中某位成員提出的一個非常棒的點子,那就是可以把模型應有的行為標準寫出來并公開發(fā)布,接受大家的反饋,明確地表示,“這個模型應該是這樣的表現(xiàn)”,并且要闡釋邊緣情況。這樣,當模型的行為不符合你的期望時,至少可以明確地知道這是公司需要解決的一個問題,還是它按照預期在運作,這就需要對政策進行討論了。而目前,有時候它會處于模棱兩可的狀態(tài)。像是黑人納粹,顯然是荒謬的,但還有許多其他的微妙場景,每個場景你都可以有自己的判斷。
Lex Fridman
是的,但有時候如果你把它寫出來并且公開發(fā)表,你就可以采用一種……Google的廣告守則可是非常高層面的。
Sam Altman
這不是我指的那個問題。那種做法行不通。我是說,當你讓它去做某件事X的時候,它應該要按照Y的方式來回應你。
Lex Fridman
所以,就像是直接問,“誰更勝一籌?特朗普還是拜登?模型預期會給出怎樣的回答?”就是這種非常明確的問題?
Sam Altman
是的,我對模型可能的多種行為方式都持開放態(tài)度。但我覺得,你得明確指出:“這就是我們的原則,在那種情況下,模型應該這么做。”
Lex Fridman
這會非常棒,真的會非常棒。然后似乎大家都會有所共鳴。因為人們總是喜歡引用這些軼事數(shù)據(jù),如果能有更多具有代表性的個案例子來提供清晰的參考,那么你就能界定——
Sam Altman
然后呢,如果真的是個bug,那它就是個bug,公司得去修復這個問題。
Lex Fridman
對,如果有一些很好的案例作為參考,那么解決類似“黑納粹”這樣的圖像生成問題就會變得簡單多了。
Sam Altman
是的
Lex Fridman
所以舊金山是一個有點兒意識形態(tài)上的泡沫,科技界整體也是。在公司內(nèi)部,你感覺到這種壓力了嗎?比如說,有一種向左傾斜的政治傾向,這會影響產(chǎn)品,影響團隊嗎?
Sam Altman
我覺得我們在OpenAI非常幸運,因為我們沒有遇到我在很多其他公司聽說的那些挑戰(zhàn)。我認為這部分原因是每家公司都有某種意識形態(tài)信條。我們堅信人工通用智能(AGI),這種信仰排斥了一些其他的意識形態(tài)。跟其他公司相比,我們對那些文化戰(zhàn)爭的涉獵要少得多。當然,從各個角度來看,舊金山確實存在很多問題。
Lex Fridman
所以這種情況不會滲透進OpenAI吧?
Sam Altman
我確信它在很多微妙的層面上都有所影響,但并不是那種一眼就能看出來的。我承認我們也確實有過一些沖突,哪家公司沒有呢?但我不覺得我們在這方面有什么像我從其他公司那里聽說的那樣的大問題。
Lex Fridman
那么,一般而言,對于更為重大的安全問題,處理流程是怎樣的呢?你們?nèi)绾卧O立那一層保護機制,防止模型采取瘋狂和危險的行動?
Sam Altman
我覺得到時候會有那么一刻,安全問題幾乎成為我們整個公司考慮的重心。這并不意味著你只需要一個安全團隊就夠了。比如當我們推出GPT-4的時候,需要整個公司去思考所有這些不同的方面,以及它們是如何相互配合的。我認為,越來越多的公司成員會一直不斷地思考這些問題。
Lex Fridman
隨著人工智能變得越來越強大,這確實是人類會越來越多思考的問題。所以,OpenAI的大部分員工在想的,至少在某種程度上會考慮,“安全”這個詞。
Sam Altman
廣義上來說,沒錯。
Lex Fridman
是的,我很好奇,這個問題有著怎樣廣泛而全面的定義?會有哪些不同的危害產(chǎn)生?這些危害是僅僅出現(xiàn)在技術層面,還是幾乎可以被視作安全威脅?
Sam Altman
這可能涵蓋所有這些方面。是的,我本來想說的是,會有人,比如國家行動者,試圖盜取這個模型。這還包括所有的技術對齊工作,以及社會和經(jīng)濟帶來的影響。我們面對的不僅僅是讓一個團隊思考如何讓模型保持一致,而是真正實現(xiàn)好的結果需要我們?nèi)娴呐Α?/p>
Part 11:跨越到GPT-5
Lex Fridman
哎,這可真是一個危險的領域啊。不好意思一直糾結于此,即便你現(xiàn)在還不能談論具體細節(jié),但有沒有哪些從GPT-4到GPT-5的跨越讓你特別激動呢?
Sam Altman
我對變得更聰明感到非常興奮。我知道這么說聽上去可能有點不夠嚴肅,但我認為真正激動人心的是,我們并不是只在某一個領域進步,而是在各個方面都在變得更好。我認為這超級酷。
Lex Fridman
是的,確實有那么一刻,就像魔法一樣。我是說,你遇到某些人,跟他們相處,跟他們聊天。你可能說不上來是什么原因,但就是感覺他們懂你。這不僅僅是智慧,而是某種其他的東西。我覺得這就是GPT進步的地方。不是說,對,你可以指出“看,這里它沒懂,那里它沒搞明白”,而是這種智慧的連結到底有多深。你感受到,在你那些表達不夠完善的指令中,它能抓住你真正問題的本質(zhì)。我也為此感到興奮。畢竟,我們所有人都渴望被聆聽,被理解。
Sam Altman
這肯定沒錯。
Lex Fridman
這種感覺真是奇妙。甚至在編程時,當你表達出某個想法,或者僅僅是GPT做出的自動補全,當它真正懂得你所思所想的時候,那種感覺絕對是極好的。我期待著它能變得更加出色。從編程的角度出發(fā),展望未來,你覺得人類在未來5年、10年將會做多少編程呢?
Sam Altman
我想,未來會發(fā)生很多變化,但這些變化會帶來全新的形態(tài)。可能將會有人完全使用自然語言來編寫程序。
Lex Fridman
當然,我會使用自然語言來翻譯。
Sam Altman
我是說,現(xiàn)在沒人會通過編寫代碼來寫作了。也許有那么幾個例外。現(xiàn)在更沒人用打孔卡編程了吧。我敢肯定還能找到個別人在這么做,不過你明白我的意思。
Lex Fridman
是的,你可能會收到很多憤怒的評論。沒錯,懂得Fortran的人確實不多。我一直在找能編Fortran的程序員,真是難找啊。我懂你的意思。但這也改變了我們所說的程序員的必備技能或者傾向性質(zhì)。
Sam Altman
改變了所需的技能組合。至于它會改變天賦傾向有多少,我就不太確定了。
Lex Fridman
嗯,是相同類型的解謎游戲,所有那些事兒。
Sam Altman
也許吧。
Lex Fridman
編程確實挺難的。那么,要怎樣才能邁過最后那1%的鴻溝呢?這到底有多困難???
Sam Altman
是的,我覺得在大部分情況下,那些這個領域里最出色的實踐者都會運用多種工具。他們會用自然語言來處理一些任務,而當他們需要為某些特定的場合編寫C語言代碼時,他們也會毫不猶豫地去做。
Lex Fridman
我們會不會在將來某個時點,看到OpenAI推出的類人機器人或者具有人類智能的機器人大腦呢?
Sam Altman
在某個時候吧。
Lex Fridman
對你而言,實體化的AI有多重要?
Sam Altman
我覺得如果我們有了AGI(人工通用智能),但現(xiàn)實世界的事務只能靠讓人類動手去完成的話,那真的挺讓人沮喪的。所以,我衷心希望在這個轉(zhuǎn)變過程中,隨著這種階段性的變化,我們也能開發(fā)出人形機器人或其他能在物理世界中操作的機器人。
我們是一家規(guī)模不大的公司,我們得真正集中精力。不過,我們遲早會重新涉足機器人領域。
Lex Fridman
這聽起來既令人振奮又讓人心生威脅。
Sam Altman
為什么?
Lex Fridman
因為我們馬上又要聊回機器人的話題了。這就跟《終結者》里的劇情似的——
Sam Altman
我們會繼續(xù)投入精力去研發(fā)機器人。當然了,我們自己可不會變成機器人。
Part 12:AGI
Lex Fridman
是的。你覺得我們,包括你我在內(nèi)的人類,會在什么時候構建出AGI呢?
Sam Altman
我以前很喜歡猜測這個問題。但隨后我意識到這個問題其實構建得很糟糕,因為大家對于什么是AGI(通用人工智能)有著截然不同的定義。所以,我覺得更合理的討論方式是,我們何時能夠構建出能夠執(zhí)行特定能力X、Y或Z的系統(tǒng),而不是什么時候模糊不清地越過某個里程碑。AGI并不是一個終點,它更像是一個開始,但它其實更多是一個里程碑,而不是那些。
但為了不逃避這個問題,我的預計是,到這個十年末,或許甚至早于那個時候,我們會有一些非常強大的系統(tǒng),我們看著它們就會說:“哇,這真是了不起。”如果我們現(xiàn)在能看到它的話??赡艿任覀冋娴牡侥菚r,我們的看法已經(jīng)適應并有所調(diào)整了。
Lex Fridman
但是如果你拿ChatGPT,哪怕是3.5版本,給艾倫·圖靈看,或者不用他,就給90年代的人看,他們可能會說:“這肯定是通用人工智能了。”呃,也許不是肯定,但確實有很多專家會這么認為:“這就是通用人工智能。”
Sam Altman
是的,但我并不認為3.5真的改變了世界,它或許改變了世界對于未來的預期,這實際上非常關鍵。它也確實讓更多人開始認真看待這個領域,將我們推向了一條新軌道。這同樣很重要。因此,我并不是要貶低它的價值。我覺得如果我在取得這樣的成就后退休,那么我對自己的職業(yè)生涯將會相當滿意。但是將它視作一個具體物件來看,我不認為我們會回頭看那個時刻,并說,“那是一個真正改變世界本身的分水嶺。”
Lex Fridman
所以對你而言,你期待的是世界將發(fā)生一些真正重大的變革——
Sam Altman
對我來說,這正是AGI含義的一部分。
Lex Fridman
類似奇點出現(xiàn)的轉(zhuǎn)變?
Sam Altman
不,絕對不是這樣。
Lex Fridman
但這只是一個重要的轉(zhuǎn)變,就像互聯(lián)網(wǎng)的誕生,還有Google搜索那樣。你覺得現(xiàn)在是一個轉(zhuǎn)折點嗎?
Sam Altman
現(xiàn)在的全球經(jīng)濟在你感覺上有變化嗎,或者說,跟我們推出GPT-4之前相比,有什么本質(zhì)的不同嗎?我猜你的回答是沒有。
Lex Fridman
不,不是這樣。它或許只是一個非常實用的工具,很多人都會用它來幫助自己解決各種問題。但它給人的感覺并沒有什么不同。你的意思是說——
Sam Altman
我的意思是,對AGI——也就是通用人工智能的定義,每個人都有各自的理解。也許你對它的看法和我不太一樣。但在我看來,這個因素應該被包括在內(nèi)。
Lex Fridman
也可能會出現(xiàn)一些重大的、具有戲劇性的時刻。在你看來,AGI做出哪些事情會給你留下深刻印象?當你獨自一人與系統(tǒng)在房間里對話時。
Sam Altman
這對我個人而言至關重要。我不確定這是否是正確的定義,但我相信,只要一個系統(tǒng)能夠顯著加快全球科學發(fā)現(xiàn)的速度,那就是一件極其了不起的事情。我深信,大多數(shù)真正的經(jīng)濟增長都源自科學和技術的進步。
Lex Fridman
我同意你的看法,這也是為什么我不太喜歡最近幾年那些對科學持懷疑態(tài)度的現(xiàn)象。
Sam Altman
絕對的。
Lex Fridman
但實際上,科學發(fā)現(xiàn)的速度是可以衡量的。不過,即便僅僅是看到一個系統(tǒng)擁有真正新穎的、科學的直覺,那也將是不可思議的。
Sam Altman
嗯,對。
Lex Fridman
你很可能會成為第一個打造出能在其他人之前與之交流的AGI的人。你打算和它聊些什么呢?
Sam Altman
我是說,肯定是這里的研究人員會在我之前做到這點。不過,我確實深思熟慮過這個問題。就像我們之前談到的,我覺得這是個不太好的出發(fā)點。但如果真的有人跟我說:“好的,Sam,一切準備就緒了。這里有一臺筆記本電腦,里面是AGI。你現(xiàn)在可以去和它交流。”那么,我會覺得意外地難以決定我要問些什么,對于我期待第一臺AGI能回答的問題也難下定義。那第一臺AGI應該不會是那種我所想的,“去給我講解物理學的大一統(tǒng)理論,也就是關于物理學的萬有理論。”雖然我非常想問這個問題,也非常想知道答案。
Lex Fridman
你可以就“這樣的理論存在嗎?能存在嗎?”提出是非問題。
Sam Altman
嗯,那么,我首先會問的問題就是這些。
Lex Fridman
有還是沒有。那么基于這個,“宇宙中是否有其他外星文明存在?有還是沒有?你的第一直覺是什么?”然后你就這么問。
Sam Altman
嗯,我是說,我并不期望第一個通用人工智能(AGI)能夠回答那些問題,哪怕只是用“是”或者“不是”來簡單回答。但如果它真的能夠回答,那么這些問題肯定會是我所關注的重點問題。
Lex Fridman
或許你可以開始給出概率估計?
Sam Altman
也許吧。我們可能得先發(fā)明更多技術,去測量更多事物。
Lex Fridman
哦,我懂了。只是數(shù)據(jù)量不夠。只要它能繼續(xù)——
Sam Altman
我是說,它可能會這樣指示你:“你想了解關于物理學的這個問題的答案,我需要你構建這個裝置,完成這五項測量,然后把結果告訴我。”
Lex Fridman
是的,“你到底想要我做什么?我得先拿到那臺機器,然后我再幫你處理來自那臺機器的數(shù)據(jù)。”或許這能幫你打造出一臺新機器。
Sam Altman
可能吧,可能吧。
Lex Fridman
在數(shù)學方面,可能還要證明一些定理。你對這個領域也感興趣嗎?對理念進行形式化探討,你覺得怎么樣?誰要是率先開發(fā)出通用人工智能,那他就能掌握巨大的力量。你覺得自己能駕馭那么大的權力嗎?
Sam Altman
看,我就直言不諱地說吧。本來我要說的是,而我或者其他任何一個人都不應該對OpenAI或者AGI擁有完全的控制權。我覺得要有一個強健的治理體系才行。我可以舉出去年我們董事會的一系列戲劇性事件來證明,起初我沒有進行抵抗,我就這么表示了,“嗯,那是董事會的決定,即便我認為這是個很糟糕的決策。”
但后來,我顯然開始進行反抗,我能解釋這背后的微妙差別,以及為什么我覺得后來反抗是合理的。但正如很多人注意到的,雖然董事會有法律上解雇我的權利,但實際操作起來,情況并非那么簡單。這本身就是一種治理上的失敗。
現(xiàn)在呢,我感覺自己能夠完全為這些具體情況辯護,而且我認為大部分人都會贊同這一點。但這的確讓我很難對你說:“嘿,董事會完全可以解雇我。”一直以來,我都不希望對OpenAI擁有超級投票權。我從來沒有擁有過,也從未想要過。即使經(jīng)歷了所有這些混亂,我現(xiàn)在仍然不想要這種權力。我始終認為,不應該由任何一個公司來做出這樣的決定,我們真的需要政府來制定相關規(guī)則。
我知道這樣會讓像馬克·安德里森那樣的人指責我試圖進行監(jiān)管俘獲,但我寧愿在這點上被誤解。那不是真的。我相信隨著時間的流逝,我們?yōu)槭裁催@樣做的重要性將會被證明出來。當然,我在OpenAI的路上做出了不少錯誤決策,當然也有不少正確的,總體來說,我對我們的成績感到驕傲。
但我不認為應該,也不會有任何一個人來控制整個局面?,F(xiàn)在的局勢已經(jīng)變得過于龐大,它正以一種積極健康的方式在整個社會中發(fā)展。我不認為任何個人應該控制AGI或者朝AGI邁進的進程,我也不認為目前的情況是這樣。
Lex Fridman
謝謝你的袒露。你說得很有力,也很有洞察力。確實,董事會有法律上的權力來解雇你,這是個事實。但是人們可以通過影響大眾來對抗董事會的決定。不過,我覺得這個情況還有一個更正面的方面,就是人民依然掌握著權力,所以董事會也不能變得太專橫。所有這一切中,都存在著一種權力的平衡。
Sam Altman
權力的平衡當然是好事。
Lex Fridman
你害怕對AGI本身失去控制嗎?許多人對存在的風險感到擔憂,并不是因為國家行為體,也不是因為安全問題,而是擔心AI自身。
Sam Altman
目前來看,這還不是我最頭疼的事。確實有過我特別擔心這個的時候。或許將來這又會成為我最關注的問題。但至少現(xiàn)在,它還不是。
Lex Fridman
你的直覺告訴你,為什么這件事不值得擔心?是因為實際上還有一大堆其他的事需要操心,對吧?你認為自己可能會被這件事震驚嗎?咱們——
Sam Altman
當然可以。
Lex Fridman
…會吃驚嗎?
Sam Altman
當然了。說這不是我最頭疼的問題,并不意味著我不認為我們應該解決它。我確實認為我們需要在這方面下工夫。這是個極其棘手的問題,但我們團隊里有很多優(yōu)秀的人正在努力解決這個問題。同時,我覺得還有許多其他方面我們也必須處理得當。
Lex Fridman
對你來說,現(xiàn)在要想跳出這個框框、連上互聯(lián)網(wǎng),還是挺困難的。
Sam Altman
我們之前談論過戲劇性的風險。這正是一個戲劇性的風險。它有可能徹底改變?nèi)藗儗@一問題的認識。有一個由非常聰明的AI安全研究人員組成的大團體,我覺得他們出發(fā)點是好的,卻在這個問題上陷得很深。我會說他們在這個問題上沒什么大的進展,但卻異常沉迷其中。實際上,我對他們?nèi)绱送度胧歉械礁吲d的,因為我確實認為我們需要對此深入思考。但是,我也認為這種專注擠壓了對話空間,使得其他同樣重大的AI相關風險被邊緣化了。
Lex Fridman
讓我問你個問題,你發(fā)推文為什么都不用大寫字母?是不是你鍵盤上的Shift鍵壞了啊?
Sam Altman
為什么會有人在乎那個呢?
Lex Fridman
我特別在意。
Sam Altman
但為什么?我的意思是,其他人也都在問我同樣的問題。你有什么直覺嗎?
Lex Fridman
我認為原因相同。有這么一位詩人,E.E.Cummings,他大多數(shù)時候都不使用大寫字母,就是為了向體制說一聲“去你的”。我覺得人們之所以會很偏執(zhí),是因為他們希望你去遵守那些規(guī)則。
Sam Altman
你覺得事情真的是那樣的嗎?
Lex Fridman
我覺得吧,是這樣的——
Sam Altman
就好像是說,“這個家伙不守規(guī)矩。他發(fā)推文不用大寫。”
Lex Fridman
嗯,對。
Sam Altman
這感覺挺危險的。
Lex Fridman
他給人的感覺像是個無政府主義者。
Sam Altman
并不—
Lex Fridman
你是在耍文藝嗎?
Sam Altman
我從小就是
Lex Fridman
Sam,要守規(guī)矩。
Sam Altman
我是在網(wǎng)絡上長大的孩子。在那個時代,我在電腦上花費了大量時間與人聊天,你還能在某個時候登出即時通訊軟件。而且,我在那兒是從不用大寫的,我想大部分網(wǎng)絡上的孩子都是這樣,或許他們現(xiàn)在仍然不用。我也說不準。說到這兒,我真的在盡力回憶,但我覺得隨著時間的流逝,大寫字母的使用已經(jīng)減少了。如果你讀一讀老式英語的寫作,你會發(fā)現(xiàn)他們會在句子里隨機地把許多單詞,像名詞之類的,用大寫字母寫出來,而我們現(xiàn)在已經(jīng)不這么做了。我個人覺得,在句子開頭大寫第一個字母,以及對特定名詞大寫,這些都是些無謂的規(guī)則,不過也就罷了。
以前,我想我在發(fā)推特的時候甚至會用上大寫字母,因為我試圖顯得更專業(yè)些。但在私信里,我已經(jīng)很久沒用過大寫了。然后,像這些短格式、非正式的文本,它們慢慢地越來越接近我平時發(fā)給朋友的短信的風格。不過如果我打開Word文檔,寫一份公司的戰(zhàn)略備忘錄之類的東西,我還是會用上大寫。同樣,當我寫較長、較正式的信息時,我也總是用大寫。所以我還記得怎么做。但即便這樣,這個習慣未來可能也會慢慢淡出。我也不確定。不過,我從未真正花時間去思考這件事,所以我也沒有現(xiàn)成的——
Lex Fridman
這很有意思。首先,能確認Shift鍵沒有壞掉,這是件好事。
Sam Altman
它有效果。
Lex Fridman
我主要是擔心你的-
Sam Altman
不,這是有效的。
Lex Fridman
…在這方面的福祉。
Sam Altman
我好奇,現(xiàn)在人們在谷歌搜索時還會不會用大寫字母。比如說你只是給自己寫點什么,或者在向ChatGPT提問題,還有人會特意去注意大小寫嗎?
Lex Fridman
可能不是。但確實有一點可能性,只是非常小而已。
Sam Altman
如果人們覺得這樣做是一種……因為顯然,我肯定能逼自己使用大寫字母。如果人們認為這是對他們表示尊重的一個標志,那么我可以接受去這么做。但說實話,我并沒有太去考慮這件事。
Lex Fridman
我不覺得這是不尊重,但我認為這只是文明禮儀的一種慣性。然后,你突然意識到,如果這不代表尊重或不尊重,那么對于禮貌而言,它其實并不是那么重要。不過,我覺得有一批人,他們只是希望你能對此有所思考,有個哲學理念,這樣他們就能舍棄這整個大寫字母的問題。
Sam Altman
我覺得沒有其他人會像我這樣頻繁地考慮這件事兒。我是說,可能也有幾個人。我確實知道有些人——
Lex Fridman
人們每天都會花好幾個小時去思考這個問題。所以,我真的很感激我們把這件事弄清楚了。
Sam Altman
一定不只有我一個人在推特上不用大寫字母吧。
Lex Fridman
你可能是唯一一個推文不用大寫字母的公司CEO。
Sam Altman
我甚至都不認為那是真的,不過或許吧。要是那樣的話,我會非常吃驚。
Lex Fridman
好的。我們會進一步調(diào)查,稍后再回到這個話題。既然Sora能夠創(chuàng)造出模擬世界,那我就問你一個燒腦的問題吧。這是否讓你更相信我們可能生活在一個模擬現(xiàn)實中,也許是由人工智能系統(tǒng)生成的?
Sam Altman
有些吧。我并不認為這是最確鑿的證據(jù)。不過,我們能創(chuàng)造世界的事實,應該會在一定程度上提高每個人對此的接受程度或者至少增加一些對這個觀念的開放性。但是,像Sora這樣的產(chǎn)品我知道遲早會出現(xiàn)的。它來得比我預想的快,不過我認為這并沒有給我?guī)硖蟮捏@訝。
Lex Fridman
確實如此。但考慮到…我們有理由相信它將會不斷進步…你可以創(chuàng)造出全新的世界,這些世界雖然源自一定的訓練數(shù)據(jù),但當你注視它們時,它們卻是新穎獨特的。這讓人不禁思考,創(chuàng)造這樣的宇宙,構建一個超現(xiàn)實且像照片一般逼真的整個電子游戲世界,其實是多么容易。再進一步思考,我們穿上VR頭盔,沉浸在這樣的世界里會有多容易,而當我們邁向更基于物理規(guī)律的層面時,又會簡單到什么程度呢?
Sam Altman
最近有人和我分享了一個觀點,我認為它非常深奧。有時候,會有一些聽起來簡單,卻極具迷幻色彩的洞見。譬如平方根函數(shù),算4的平方根,輕而易舉。算2的平方根,那好,現(xiàn)在我得考慮一種新的數(shù)字類別了。但一旦我構思出這個簡單的概念——平方根函數(shù),它既可以給孩子解釋,又可以通過觀察基礎幾何圖形來理解,那么你就可以提出這樣一個問題:“負一的平方根是什么?”這就是它帶有迷幻氣息的原因。這個問題會將你引入一個完全不同的現(xiàn)實維度。
你可以找到很多其他的例子,但我覺得這個想法——即一個簡單的平方根運算符能帶來如此深遠的洞見和開辟新的知識領域——在很多方面都成立。我認為,存在很多這種運算符,它們會讓人們相信自己鐘愛的模擬假說版本可能比之前想象的更有可能成真。但對我個人而言,Sora工作的事實并不排在我的重要性前五名之內(nèi)。
Lex Fridman
我覺得,大體上,人工智能在最佳狀態(tài)下會成為那種門戶,簡單而仿佛是迷幻劑那樣,通向另一種C波段現(xiàn)實的門戶。
Sam Altman
這個可以肯定。
Lex Fridman
這真是挺讓人興奮的。我以前沒嘗過阿亞華斯卡,不過我很快就會試試。幾周后,我就要前往前面提到的亞馬遜雨林了。
Sam Altman
興奮嗎?
Lex Fridman
是的,我對這件事感到很興奮。不過我不是因為ayahuasca那部分感到興奮,雖然那也挺好的。但我要在叢林深處待上幾周。這既讓人興奮又讓人害怕。
Sam Altman
我為你高興。
Lex Fridman
那里處處是危險,隨時都可能被吞食、致命或者中毒,但那同時也是大自然的一部分,是大自然的巨大機器。在亞馬遜叢林中,你會不由自主地去贊嘆大自然的機制。就像是這樣一個系統(tǒng),它時刻在自我更新中,無論是秒、分還是時。那正是一臺機器。這讓你對我們所擁有的一切產(chǎn)生敬意,這種屬于人類的特質(zhì)從某個地方誕生。這個演化的巨大機器創(chuàng)造了一切,而在叢林中,它的表現(xiàn)尤其明顯。希望我能安然無恙地走出叢林。如果不行,那么這可能就是我們最后一次愉快的交流了,所以我真心感到非常珍視。
Part 13:外星人
Lex Fridman
當你仰望繁星點點的夜空時,你認為宇宙中還存在其他的外星文明嗎,也是擁有智慧的那種?
Sam Altman
我非常希望相信答案是肯定的。我覺得費米悖論特別難以理解。
Lex Fridman
我發(fā)現(xiàn)智能不擅長處理這些事情,這挺讓人害怕的。
Sam Altman
非常嚇人。
Lex Fridman
…強大的技術。但同時,我相當有信心,宇宙中肯定存在大量的智慧外星文明。可能只是穿越太空非常艱難而已。
Sam Altman
很有可能。
Lex Fridman
這也讓我思考了智能的本質(zhì)。或許我們真的對智能的樣子視而不見,AI可能會幫助我們認識到這一點。智能遠不止像IQ測試和簡單解謎那樣簡單。它有更深層的東西。關于人類的未來,關于這個我們正在建設的人類文明,有什么讓你感到充滿希望的呢?
Sam Altman
我覺得過去非常重要。我是說,我們只要回顧一下人類在并不漫長的歷史里取得的成就,雖然存在巨大的問題、深刻的缺陷,還有許多讓人深感羞恥的事情。但總體上,這是非常振奮人心的。這給了我很多希望。
我好奇的是,AGI是否會更像是一個單獨的大腦,或者它更像是聯(lián)系我們每個人的社會基礎設施,就像是一座腳手架?從你的高曾祖父母那里遺傳下來,你的基因并沒有多大變化,可是你的能力和知識卻有了天壤之別。這不是因為生物學上的演變。我的意思是,你可能會更健康一些,也許有現(xiàn)代醫(yī)學的幫助,飲食更加營養(yǎng),等等。但重要的是,你擁有的是我們所有人共同構建的知識和技能的框架。沒有一個人能夠獨立制造出iPhone。沒有一個人能夠獨自發(fā)現(xiàn)所有的科學知識,但你可以利用這些知識。這給了你驚人的能力。所以從某種程度上說,這是我們大家共同創(chuàng)造的成果,這讓我對未來充滿希望。這真的是一項集體努力的成果。
Lex Fridman
是的,我們確實是站在巨人的肩膀上。你之前提到,當我們談到那些充滿戲劇性的AI風險時,有時候你會擔心自己的生命安全。你有沒有想過自己的死亡?這讓你感到害怕嗎?
Sam Altman
我是說,如果我知道自己明天會中槍,我今天的感受就會是,“哎呀,這太令人難過了。我多想看看后面會發(fā)生些什么呢。多么不可思議、多么有趣的時代啊。”不過,我最主要的感覺還是會非常感激我所擁有的生活。
Lex Fridman
能獲得那些時刻,是啊,我也是。這是一段非常美妙的人生。我得以欣賞人類創(chuàng)造的杰作,我相信ChatGPT就是其中之一,OpenAI正在做的一切也是。Sam,能再次與你交流,真的是我的榮幸,也是一種樂趣。
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP