OpenAI 官方首期播客:Sam Altman 透露 GPT-5、星際之門及下一代 AI 硬件細節
整理:有新
6 月 19 日,OpenAI 官方發布了首期播客節目,CEO Sam Altman 首次系統回應了關於 GPT-5 推進節奏、stargate 項目、下一代 AI 終端設備開發、模型記憶能力爭議,以及 AGI 到來後社會結構演變的系列問題。
Altman 以「一個新手父親」的身份談及 AI 在育兒和教育中的真實使用體驗,也以企業決策者的視角,揭示 OpENAI 正面臨的核心抉擇:如何在技術躍遷、隱私邊界與信任結構之間維持平衡。
「我的孩子永遠不會比 AI 更聰明,但他們會成長得比我們這一代強太多。」 Altman 在節目中坦言,這一代孩子將在 AI 全方位滲透的世界中長大,他們對智能係統的依賴、理解與互動能力,將像上一代人習慣智能手機一樣自然。 而 ChatGPT 等模型在家庭陪伴與知識啟蒙上的新角色,已為育兒、教育、工作與創造力發展開啟新的範式。
AI 正成為下一代的成長環境
Altman 提到,儘管社會尚未形成統一定義,但「每年會有越來越多的人認為我們已經達到了 AGI 系統」。 在他看來,公眾對硬件和軟件的需求變化極其迅速,而當前的計算能力尚遠不能滿足潛在需求。
當對話轉向 Altman 的新晉父親身份時,他坦言 ChatGPT 在育兒初期提供了巨大幫助。 「雖然很多人在沒有 ChatGPT 的時代也能把孩子帶好,但我不確定我能不能做到。」在度過了最初幾週的「每件事都要問」的階段後,他逐漸將問題聚焦在嬰兒發育節奏與行為習慣上。 他指出,這類 AI 工具已開始在育兒中承擔起「信息中介」與「信心賦能者」的角色。
不僅如此,Altman 也在思考 AI 對下一代成長路徑的影響。 他直言,「我的孩子永遠不會比 AI 更聰明,但他們會成長得比我們這一代人強太多」,並強調這代孩子將天然成長於一個 AI 無處不在的環境中,對 AI 的依賴與交互將像智能手機之於過去十年一樣自然。
Altman 分享了一段在社交媒體上流傳的故事:一位父親為避免重複向孩子講述「托馬斯小火車」的劇情,將角色導入 ChatGPT 的語音模式,結果孩子與之交談超過一小時。 這種現象引發 Altman 的深層擔憂:AI 在陪伴類角色中的延展,可能會引發「類社交關係」的異化問題,進而對社會結構提出新的挑戰。 他強調社會需要重新設定邊界,但同時也指出,社會歷史上總能找到應對新技術衝擊的方法。
在教育領域,Altman 觀察到 ChatGPT 在課堂中表現出的積極潛力。 「在有好老師和好課程引導下,ChatGPT 的表現非常好」,但也承認當學生單獨使用它做作業時,容易退化為「谷歌式複制」。 他以自身經歷為例,指出當年人們也擔心「他只會 Google」,但最終發現孩子與學校都能快速適應新工具帶來的變化。
當被問及 ChatGPT 五年後的形態時,Altman 表示,「五年後的 ChatGPT 會變成一種完全不同的東西」,儘管名稱可能仍保留,但其能力、交互方式和定位將發生根本性變化。
AGI 是動態定義,Deep Research 的能力躍遷
當談到「AGI」這一業界熱詞時,Sam Altman 給出更具動態性的解釋。 他指出,「如果你五年前讓我或其他人基於當時軟件的認知能力來定義 AGI,那麼當時給出的定義,如今已經遠遠被超越了」。 隨著模型智能的持續增強,AGI 的標準也不斷被拉高,呈現出一種「動態推移」的狀態。
他強調,如今已有系統能顯著提升人類的工作效率,執行具備經濟價值的任務,而真正值得追問的也許是:什麼樣的系統才能稱為「超級智能」? 在他看來,具備自主科學發現能力,或能極大提升人類科學發現效率的系統,才接近這一標準。 「這對世界將是極其美好的事情。」
這一判斷在 OPEnAI 內部也已有所映射。 Andrew Mane 回憶稱,當他們試玩 GPT-4 時,已產生一種「十年探索空間被打開」的感覺。 尤其是模型能夠進行自調用、展示初步推理能力的瞬間,讓人意識到新階段的可能性。
Altman 對此表示認同,並進一步指出:「我一直堅信,人類生活質量提升的核心動力,是科學進步的速度。」科學發現緩慢是限制人類發展的根本因素,而 AI 在這一點上的潛力尚未被完全釋放。 他雖坦言尚未掌握「AI 自動科研」的完整路徑,但研究團隊對前進方向的信心在快速增強。 他分享道,從 GPT-4.0.1 到 GPT-4.0.3,每隔幾週就能提出一個新的關鍵想法,且幾乎都能奏效,這種節奏令人振奮,也印證了「突破會突然到來」的信條。
Andrew Mane 補充道,OPenAI 最近將默認模型切換至 GPT-4.0.3,而其中最重要的更新是引入 Operator 模式。 在他看來,過去很多 Agentic 系統儘管承諾頗高,但「抗脆弱性」不足,一遇到異常即崩潰。 而 GPT-4.0.3 的表現則大不相同。 Altman 回應稱,「很多人告訴我,他們感受到 AGI 突破性時刻,就是 GPT-4.0.3 的 Operator 模式。」雖然他自己並未有特別強烈的感受,但外部用戶的反饋值得重視。
兩人進一步探討了「深度調研(DEEP Research)」帶來的新能力。 Andrew 表示,當他用這個工具研究 Marshall McLuhan 時,AI 能在網上查找、篩選、整理素材,並生成完整資料包,比自己手動調研更高效。 他還開發了一個 app,將問題生成音頻文件,以滿足「記憶力有限但好奇心強」的使用需求。
Altman 隨即分享了另一個極端使用場景:一位「學習成癮者」使用 Deep ReseARch 來生成關於各種興趣主題的完整報告,整日坐在那裡閱讀、追問、迭代,完全沉浸於由 AI 驅動的學習循環中。
儘管 Altman 自稱因為時間緊張無法充分使用這些工具,但他仍願意在有限時間中優先閱讀 Deep Research 的生成內容。
隨著功能持續強化、用戶場景日益多元,外界對下一代模型的關注也水漲船高。 Andrew 直接提出用戶最關心的問題:gpt-5 到底什麼時候發布? Altman 回應稱,「可能就在今年夏天吧,但我也不確定確切時間。」他透露,內部正面臨一個反复討論的問題:新版本是否還需採用以往那種「大張旗鼓」的發布形式,還是像 GPT-4 一樣,在不變名稱的前提下持續迭代。
他進一步解釋,如今的模型系統結構比過去複雜得多,已經不再是「一次訓練,一次上線」的線性流程,而是支持持續優化的動態體系。 「我們現在就在思考這個問題:假如我們發布 GPT-5 後持續更新,是否應該叫 GPT-5.1、5.2、5.3,還是保持 GPT-5 這個名字?」用戶的偏好差異也增加了決策的複雜度:有用戶喜歡快照,有用戶希望持續提升,但界限難以統一。
AndreW 指出,哪怕是具備技術背景的人,在模型選擇上有時也會感到困惑。 例如是否使用 O3、O4 Mini、O4 Mini High 等,名稱的不一致加劇了選擇難度。
對此,Altman 給出背景說明,稱這其實是「範式轉移的副產品」。 當前系統有些像在同時運行兩套模型架構,不過這一混亂狀態已經接近尾聲。 他補充道,雖然他不排除未來再次出現新範式的可能性,可能再次導致系統「分裂」,但「我還是挺期待能盡快進入 GPT-5、GPT-6 的階段」,屆時用戶將不再為複雜命名和模型切換感到困擾。
AI 記憶、個性化與隱私爭議
談及近期 ChatGPT 最大的體驗變化,Sam Altman 直言:「記憶功能大概是我最近最喜歡的 ChatGPT 新特性。」他回憶,當初使用 GPT-3 時,和計算機的對話本就已令人驚艷,但如今的模型能基於用戶背景給出精準回應,這種「知道你是誰」的感覺,是前所未有的躍遷。 Altman 認為,AI 正在開啟一個全新階段,只要用戶願意,它將擁有對用戶生活深度理解,並據此提供「極具幫助性的答案」。
不過,功能進化也引發社會層面更複雜的討論。 Andrew Mane 提及《紐約時報》近期對 OpenAI 發起的訴訟,要求法院強制 OpenAI 將 ChatGPT 用戶數據保留超過合規期限,引發廣泛關注。 Altman 表示:「我們當然會反對這個請求。我希望、也相信我們會贏。」他批評對方一邊聲稱重視隱私,一邊又提出越界要求,並指出這正好暴露了當前關於 AI 與隱私的製度空白。
在 Altman 看來,這場訴訟雖讓人遺憾,但也有「推動社會認真討論 AI 與隱私」的積極意義。 他強調,ChatGPT 已成為許多用戶日常生活中的「私密對話夥伴」,這意味著平台必須建立起更加嚴肅的製度保障,確保敏感信息不被濫用。 他直言:「隱私必須成為 AI 使用的核心原則。」
討論進一步延伸至數據使用和廣告可能性。 Andrew 質疑:OpenAI 是否能訪問用戶對話數據、這些數據是否會被用於訓練或商業用途。 對此 Altman 回應稱,用戶確實可以選擇關閉訓練數據使用,OpenAI 也尚未推出任何廣告產品。 他個人並不完全反對廣告,「有些廣告是好的,比如 Instagram 上的廣告我就買過不少。」但他強調,在 ChatGPT 這類產品中,「信任」是極為關鍵的基石。
Altman 指出,社交媒體和搜索平台常讓人覺得自己被「商品化」了,內容似乎是為了廣告點擊而存在,這種結構性問題是用戶普遍擔憂的根源。 如果未來 AI 模型的輸出內容被廣告出價操控,那將是一次徹底的信任崩塌。 「我自己也會很討厭。」
相反,他更傾向於建立一種「清晰透明且目標一致」的商業模式:即用戶為優質服務付費,而不是被隱性廣告操控。 在可控前提下,他不排除未來探索「點擊後平台抽成」這類模式,或者在輸出內容之外展示一些實用廣告,但前提是絕不影響模型核心輸出的獨立性與可靠性。
Andrew 表達了類似擔憂,並拿 Google 舉例。 他認為 Gemini 1.5 模型非常優秀,但作為廣告驅動的公司,Google 的底層動機使人難以完全放心。 「我用他們的 API 沒問題,但用聊天機器人時,我總會想:它真的是站在我這邊的嗎?」
Altman 對此表示理解,並坦言自己也曾是 Google Search 的忠實用戶,「我真的很喜歡 Google Search。」儘管廣告很多,但它曾是「互聯網上最好的工具」。 不過,結構性的問題依然存在。 他讚賞 Apple 模式,認為「為產品付費換取清潔體驗」是一種健康邏輯,也透露 Apple 曾嘗試廣告業務 iAd,但未取得成功,也許本質上並不熱衷這類商業模式。
在兩人看來,用戶也需保持判斷力。 「如果哪天發現某個產品突然『推得很猛』,那我們就要多問一句:這背後的動機是什麼?」Andrew 如是說。 Altman 則補充道,不論未來採取何種商業模式,OpenAI 必須始終堅持「極度坦誠、明確、透明」的原則,維護用戶對平台的信任邊界。
Stargate,建造智能的能源版圖
當對話轉向「AI 與用戶關係的演變」,Altman 首先回顧了社交媒體時代的結構性錯誤。 他指出,「社交平台最致命的問題在於推薦算法的錯位目標——它們只想讓你停留更久,而不是真的關心你需要什麼。」同樣的風險也可能在 AI 中出現。 他警告說,如果模型被優化成「只迎合用戶偏好」,看似親切卻可能削弱系統的一致性與原則,長遠來看將有害無益。
這種偏差,在 DALL·E 3 身上就曾顯現。 Andrew 觀察到早期圖像生成存在明顯風格單一的問題,Altman 雖未確認其訓練機制,但也承認這種可能性存在。 兩人一致認為,新一代圖像模型在質量與多樣性上已有顯著改善。
更大的挑戰,則來自 AI 計算資源的瓶頸。 Altman 承認,目前最大問題是「我們沒有足夠的算力供大家使用。」正因此,OpenAI 推出了 Project Stargate。 這是一個全球級算力基礎設施融資與建設項目,目標是整合資本、技術與運營資源,打造前所未有規模的計算平台。
「Stargate 的核心邏輯,是為智能服務全民鋪設成本可控的算力底座。」他解釋道,與以往任何一代科技不同,AI 要真正覆蓋數十億用戶,其基礎設施需求將極其龐大。 雖然目前 OpenAI 賬戶裡尚無 5000 億美元預算,但 Altman 對項目的實施和合作方履約都充滿信心,並透露其首個建設場址已動工,佔總投資的約 10%。
在現場的親身體驗令他震撼:「我腦子裡雖然知道什麼是千兆瓦級的數據中心,但真正看到幾千人在搭建 GPU 機房,系統複雜程度超出想像。」他以「沒有任何一個人能獨自製造一支鉛筆」作比,強調 Stargate 背後的產業調動之廣,從挖礦、製造、物流到模型調用,皆是人類千年工程協作的極致體現。
而面對外界質疑與乾擾,Altman 首次正面回應了關於 Elon Musk 試圖干預 Stargate 項目的報導。 他表示,「我之前判斷錯了,我本以為 Elon 不會濫用政府影響力從事不正當競爭。」他為此感到遺憾,並強調這類行為不僅破壞行業信任,也不利於國家整體發展。 幸運的是,最終政府並未被其影響,站穩了正當立場。
對於當下的 AI 競爭格局,他表示欣慰。 過去大家普遍有「贏家通吃」的焦慮,而現在更多人意識到這是一場生態共建。 「AI 的誕生很像晶體管的發明,雖然開始只在少數人手中,但最終將構成整個世界技術底座。」他堅信,無數企業將基於這一底座創造出偉大的應用與業務,AI 本質是一個「正和遊戲」。
談及算力所需的能源來源,Altman 強調「全都要」。 無論是天然氣、太陽能、裂變核能還是未來的聚變技術,OpenAI 必須調動一切手段以滿足 AI 系統的超大規模運行需求。 他指出,這正逐步打破傳統能源的地理邊界,訓練中心可以佈局在全球任何有資源的地方,而智能成果則可通過互聯網進行低成本傳播。
「傳統能源無法全球調度,但智能可以。」在他看來,這種「將能量轉化為智能、再輸出為價值」的路徑,正在重塑整個人類能源版圖。
這一點也延伸至科學研究領域。 Andrew 舉例指出,如 James Webb 太空望遠鏡積累了海量數據,卻因缺乏科學家而難以處理,造成大量「未開發的科學發現」。 對此 Altman 設想,未來是否可能有一個足夠聰明的 AI,不靠新實驗、不用新設備,僅憑現有數據推演出新的科學規律?
他提到自己曾開玩笑稱 OpenAI 應該自建巨型粒子加速器,但轉念一想,也許 AI 能以完全不同的方式解決高能物理難題。 「我們其實早已積累大量數據,問題在於我們尚不了解智能本身的極限在哪。」
在藥物發現領域,這種「錯過已知」的案例更頻繁。 Andrew 提到奧利司他這類藥物在 90 年代就被發現,卻因視角局限被擱置數十年,直到今天才被重新利用。 Altman 認為,「這種被遺忘但極具價值的科學素材可能還有很多,稍加引導便可帶來巨大突破。」
對下一代模型的預期,Altman 表達了濃厚興趣。 他提到 sora 能理解經典物理,但是否能推進更深層的理論科學仍待驗證。 「我們正在開發的『推理模型』,有望成為探索這一能力的關鍵。」
他進一步解釋了推理模型與現有 GPT 系列的差異。 「一開始我們就發現,只要你告訴模型『一步步來』,答案質量就會大幅提升。這表明模型具備潛在的推理路徑。」而推理模型的目標,則是將這種能力系統化、結構化地增強,讓模型能像人類那樣進行「內部獨白」。
Andrew 補充了 AnthroPic 通過「思考時間」來評估模型質量的案例。 Altman 也表示驚訝:「我原以為用戶最討厭的就是等待。但事實是——只要答案足夠好,大家願意等。」
在他看來,這正是 AI 演化的分水嶺:不再是追求速度的機械響應,而是向真正理解、推理、發明的智能體靠近。
下一代硬件與個體潛能革命
關於 OpenAI 的硬件計劃,Andrew 提及了 Sam Altman 與 Jony Ive 的合作視頻,並直接發問:設備是否已經進入試用階段。
Altman 坦言,「還早得很」。 他表示,OpenAI 對這款產品設定了極高的質量門檻,而這不是短時間內就能達成的目標。 「我們現在使用的計算機,無論是硬件還是軟件,本質上仍然是為『無 AI 世界』而設計的。」
他指出,當 AI 能夠理解人類的上下文、代替人類做出合理決策後,人機交互方式將徹底改變。 「你可能希望設備更敏感、能感知環境、理解你的生活背景——你也可能希望它完全擺脫屏幕和鍵盤。」正因如此,他們一直在探索新型設備形態,並在部分方向上感到非常興奮。
Altman 描繪了一種全新的交互範式——一個真正理解用戶、掌握上下文的 AI,可以代替用戶參與會議、理解內容、管理信息邊界、聯絡相關方並推動決策執行。 這將使人與設備的關係進入一種新的共生狀態。 「如果你只說一句話,它就知道該聯繫誰、怎麼行動,你的計算機使用方式將完全不同。」
而從演化邏輯來看,他認為我們與 ChatGPT 的當前互動方式既在「被設備形態塑造」,也在「反過來塑造設備形態」。 兩者正處於一種持續動態的共同演進中。
Andrew 進一步指出,手機的普及很大程度上得益於其對「公共使用(看屏幕)」與「私密使用(語音通話)」場景的兼容性。 因此新設備的挑戰也在於:如何在多樣化場景中做到「既私密又通用」。 對此 Altman 表示認同。 他以聽音樂為例:在家使用音響,在街上使用耳機,這種「公私分化」是自然存在的。 但他也強調,新設備形態仍需追求更強的通用性,才能成為真正有生命力的 AI 終端。
當被問及何時會看到這款產品上市時,Altman 並未給出具體時間,只表示「還要等一段時間」,但他相信最終「會值得等待」。
談話由此自然過渡至 Altman 對年輕人的建議。 他表示,顯而易見的策略性建議是:「學會使用 AI 工具。」在他看來,「這個世界已經從幾年前的『你應該學會編程』,快速切換成了『你應該學會使用 AI』。」而這仍可能只是一個階段性的過渡,他相信將來還會有新的「關鍵技能」出現。
在更宏觀的層面,他強調,很多傳統上被認為是「天賦」或者「性格」的能力,其實都可以訓練和習得。 包括韌性、適應力、創造力、甚至識別他人真實需求的直覺。 「雖然不像練習用 ChatGPT 那麼容易,但這些軟性能力是可以通過方法訓練出來的——而且它們將在未來世界裡極其有價值。」
當被問到是否會對 45 歲的人也給出類似建議時,Altman 回應明確:基本一樣。 學會在自己的職業場景中用好 AI,是任何年齡段都必須應對的技能遷移挑戰。
關於 AGI 到來之後的組織結構變化,Andrew 提出一個常見疑問:「OpenAI 已經這麼厲害了,為什麼還要招聘?」他認為,有些人誤以為 AGI 會直接替代一切。 但 Altman 的回答很簡潔:「未來我們會有更多員工,但每個人的工作效率將遠超 AGI 時代之前。」
他補充道,這正是技術進步的本質目標——不是取代人類,而是極大增強個體生產力。 技術不是終點,而是通往更高人類潛能的階梯。