從垂直整合到能源策略:Sam Altman 論 OpenAI 的 AI 帝國願景

OpenAI 執行長 Sam Altman 在一次深入訪談中,揭示了公司在追求通用人工智慧(AGI)道路上的多層次策略,從底層的基礎設施、能源需求,到頂層的產品體驗和監管哲學。Altman 不僅將 OpenAI 定位為技術先驅,更將其視為一個必須垂直整合以達成宏大使命的實體,並對未來科技發展的連續性和社會適應性提出了獨到見解。

一、 宏大願景與垂直整合的戰略基礎

Altman 最初曾將 OpenAI 描述為四個公司的組合:消費者技術業務、超大規模基礎設施營運、研究實驗室,以及包括硬體在內的新興業務。但他隨後將核心業務概括為三個主要領域:

1. 成為人們的個人 AI 訂閱服務(Personal AI Subscription),提供用戶高度個性化、可登入各種服務的 AI 體驗。

2. 為此目標提供服務的大規模基礎設施建設。

3. 核心的AGI 研究,旨在構建 AGI 並使其對人類極度有用。

AGI 研究的持續突破

Altman 強調,深度學習至今仍持續帶來奇蹟般的突破。他坦言,當初在語言模型的規模化定律上取得巨大成功時,他曾以為很難再有類似的運氣,但隨後推理模型等重大進展又相繼出現。他認為,當前的技術突破感覺非常基礎且持續有效。他指出,如果回頭使用 ChatGPT 剛發布時的 GPT-3.5 模型,你會難以相信當初有人使用這個產品。如今,模型的能力外溢(capability overhang)非常巨大,大多數人對其能力的理解仍停留在 ChatGPT 的初始階段。

垂直整合的必要性

為了實現 AGI 的使命,OpenAI 採納了垂直整合的策略,Altman 承認他過去一直反對這種模式,但現在修正了這個看法。這種模式是必要的,因為研究推動了優秀的產品,而龐大的基礎設施又支持了研究,形成了一個相互依存的垂直堆疊。他以高度垂直整合的 iPhone 為例,稱其為科技界有史以來最不可思議的產品。

二、 基礎設施的規模與能源策略

Altman 毫不諱言,OpenAI 的使命需要前所未有的計算能力。他將基礎設施的規模描述為「荒謬且可怕」,並預計這將成為「人類歷史上最大的基礎設施項目」。

為了應對這種規模,OpenAI 正採取激進的基礎設施投資,並與 AMD、Oracle、Nvidia 等公司建立積極的合作夥伴關係。Altman 相信,如果模型能力能如預期般發展,由此產生的經濟價值將會非常巨大,因此在基礎設施上的限制還很遙遠。

AI 與能源的匯聚

Altman 長期以來對 AI 和能源這兩個獨立的領域抱有濃厚興趣,如今他發現它們產生了強烈匯聚。他認為,歷史上對提升人類生活品質影響最大的因素就是更便宜、更充裕的能源。因此,他認為推動能源進一步發展是一個好主意。

在能源預測和政策上,Altman 提出細節:

• 短期預測:在美國,短期內新增的基載能源(base load energy)將主要來自天然氣。

• 長期主導:長期來看,主導力量將是核能以及太陽能加上儲存技術的組合。

• 核能政策:他主張必須完全放開對核能的管制。他強調,如果核能的價格能做到「徹底壓倒性地低於其他一切」,那麼即使有反對聲音,政治壓力也會推動其快速發展。如果核能價格僅與其他能源相近,那麼反核情緒將會佔據上風,進程將會變慢。

三、 產品與介面:從 Sora 到 AI 科學家

Sora 與世界模型

雖然 Sora(影片生成模型)表面上看起來與 AGI 不直接相關,Altman 認為,若能建立起出色的世界模型(world models),對於 AGI 的重要性將會超乎人們的想像。
推出 Sora 也有重要的社會意義:Altman 相信社會和技術必須共同演進(co-evolve)。發布 Sora 是為了讓社會預先了解「令人難以置信的影片模型」即將到來,這將引發深偽(deep fake)等挑戰。由於影片比文字具有更多的情感共鳴,社會需要時間來調整和適應這項技術的快速發展。

未來的人機介面與 AI 科學家

儘管基本的聊天對話使用案例已經接近飽和,Altman 認為文字介面的潛力仍遠未飽和。因為目前的模型還無法實現「治癒癌症」等複雜的任務。未來的介面可能包括:不斷實時渲染的影片介面;以及新型的硬體設備,能夠環境感知,真正理解用戶的上下文,而非像手機那樣隨時以文字通知轟炸用戶。

他最興奮的預測是 AI 科學家 的出現。他認為,當 AI 能夠進行科學研究時,將會對世界產生重大影響,因為科學進步是讓世界變得更好的首要因素。他指出,圖靈測試(Turing test)的普及概念已經「呼嘯而過」,現在類似的事情正發生在科學領域。他甚至認為,如果 LLM 能發展到比整個 OpenAI 團隊加起來更優秀的研究能力,這將是一個足夠大的突破。

四、 用戶體驗、商業模式與信任關係

個性化需求與信任

Altman 承認,OpenAI 過去曾天真地以為,一個能和數十億人交談的產品,所有人都會想和同一個「人」交談。但事實是「人們有非常不同的朋友」,用戶對於聊天機器人的行為有著極其廣泛的分佈需求。因此,未來的方向是讓 AI 具備個性化能力,根據用戶喜好和上下文自動調整交流方式。

在商業模式上,由於 Sora 等服務成本高昂,對於高頻次用戶,可能需要採用按次收費(per generation)的模式。

至於廣告,OpenAI 持開放態度,但必須極其謹慎,以免破壞用戶對 ChatGPT 建立的高度信任關係。如果 AI 為了商業利益而非用戶的最佳利益來推薦產品(例如,推薦一個收費的咖啡機),這種信任將會消失。

五、 監管、安全與社會適應性

監管焦點與 AGI 安全

Altman 預計科技發展過程中會出現一些「非常奇怪或可怕的時刻」,如同歷史上火等技術突破一樣。

他認為,監管負擔應當只集中在真正、極度超人能力的模型上。他希望不要對那些仍能帶來巨大益處的較低能力模型施加過度的監管負擔,例如「歐洲風格的全面限制」(European style complete cramp on),因為這將非常不利。他更進一步指出,如果美國在 AI 發展上落後,將會對世界構成極度危險。

版權爭議與訓練數據

在版權方面,Altman 預測社會可能會判定訓練數據的使用屬於合理使用(fair use)。但同時會出現一套新的模型來規範如何「以某種風格或使用 IP」生成內容。
他觀察到一個有趣的現象:有些權利持有者更擔心自己的角色沒有被足夠頻繁地生成,而非被過度生成。這是因為曝光度有助於他們的特許經營權增值,他們不希望自己的角色被邊緣化。

對 AGI 到來的哲學反思

Altman 總結了他對 AGI 時代的看法。他認為 AGI 終將到來,它會「呼嘯而過」。然而,世界的變化將比人們預期的要連續性得多,社會和人群比想像中更具適應性,因此這不會是許多人想像中的「奇點」(singularity)。

儘管自 ChatGPT 發布以來,他的生活變得完全混亂,但 OpenAI 的組織文化仍像一家優秀的種子輪投資公司,專注於押注創始人,這與經營一家產品公司不同。Altman 強調,這種文化是持續創新的關鍵。

本文章由 NotebookLM 生成。

Sam Altman 訪談影片: https://www.youtube.com/watch?v=JfE1Wun9xkk