要闻列表OpenAI 發布 AGI 五大憲法:AI 不能被少數人壟斷,犧牲可換來更多韌性
動區 BlockTempo2026-04-27 02:36:21

OpenAI 發布 AGI 五大憲法:AI 不能被少數人壟斷,犧牲可換來更多韌性

AI 影响分析Grok 分析中...
📄完整原文· 由 trafilatura 自动抓取3172 字
OpenAI 4月27日在官方頁面正式發布五大核心原則,明確將「抵制權力集中」列為首要原則——同一週,執行長 Sam Altman 住所遭丟汽油彈,他深夜在個人部落格以三段式迴文呼應,兩件事合流,被視為 OpenAI 在輿論高壓下統一對外論述的標誌性動作。 (前情提要:OpenAI 執行長 Sam Altman 住所遭扔汽油彈!深夜發文反思:AGI 就像「魔戒」,AI 權力必須民主化) (背景補充:人類等失業吧!Sam Altman預言:2030年AGI將取代全球40%勞動力) 個人部落格深夜發文,以「我相信什麼(what I believe)」三段式剖析 AGI 時代的責任與風險。幾乎同步,OpenAI 在官方頁面上架五大核心原則,Altman 也在 X 上同步公告,從民主化到韌性,系統性地回答一個越來越尖銳的問題:掌握全球最強 AI 的公司,到底信奉什麼? 一個星期,OpenAI 執行長 Sam Altman 的住所在凌晨3:45遭人丟汽油彈,他在OpenAI 在序章中開門見山:「AI 的潛力將使人們的能力遠超蒸汽機或電力時代,但這個結果不是保證。未來的權力,可能集中在少數幾家掌控超級智慧(superintelligence)的公司手中,也可能以去中心化的方式由所有人共同持有。我們認為後者遠遠更好。」 這不是公關話術,而是五條有具體操作指向的原則。 五原則之首,OpenAI 寫道:「我們將抵制這項技術把權力集中在少數人手中的潛在傾向(We will resist the potential of this technology to consolidate power in the hands of the few)。」 關鍵在「resist」這個動詞——不是被動地「希望避免」,而是主動地「抵制」。OpenAI 進一步指出,除了讓所有人都能取用 AI,還需要確保「關於 AI 的關鍵決策透過民主程式、以平等主義原則做出,而不只是由 AI 實驗室決定」。 這條原則的潛臺詞指向自身:OpenAI 就是那個「少數人」的潛在候選,它自我要求不能成為壟斷者。在 Altman 汽油彈事件後的輿論語境裡,這句話的重量格外不同。 賦能原則的核心是一條量化方向的承諾:「使用者應該能夠可靠地完成越來越有價值的任務(Users should reliably accomplish increasingly valuable tasks)。」 OpenAI 在此承認世界的多元性,強調要給使用者「他們所需的自主性」,同時明定三層責任邊界:防止災難性傷害、最小化區域性傷害、避免腐蝕性社會效應。 值得注意的是措辭:「在不確定性下,我們傾向謹慎;在有更多證據後,才放鬆約束(will err on the side of caution under uncertainty, relax constraints with more evidence)。」這是在說,GPT 系列的每一版能力解鎖,背後都是一次有意識的風險評估,而非單純的商業加速。 第三條原則是五條中最具政治經濟學色彩的一條,也是 OpenAI 為自己巨額資本支出找到的理論根基。 OpenAI 寫道,實現普遍繁榮需要兩件事:一是政府可能需要新的經濟模型,確保所有人都能參與價值創造;二是必須大規模建設 AI 基礎設施,並大幅壓低成本。 接著出現了罕見的自我描述:「我們做一些奇怪的事——在營收還很小的時候就大量買入算力、垂直整合、在全球建資料中心——這一切都是因為我們相信普遍繁榮(We do weird things… all driven by belief in universal prosperity)。」 這段話有雙重功能:對外解釋為何 OpenAI 燒錢速度驚人,對內確立「燒錢是使命,不是失控」的組織文化。 韌性原則的起點是一句罕見的謙遜承認:「沒有任何一家 AI 實驗室能單獨確保好的未來(No AI lab can ensure good future alone)。」 OpenAI 在此列出兩個具體行動方向:對抗生物風險(病原體不可知的反制措施)、將 AI 快速用於網路安全。更重要的是對時代節奏的判斷——「社會和技術共同演化,某些時期需要與政府、國際機構、其他 AGI 研究機構合作」。 這條原則暗示 OpenAI 已意識到自己不可能是唯一的 AGI 競賽者,也不應是。「基礎資源(Foundation resources)將用於此目的」——Foundation 在此指的是 OpenAI 法律結構中的非營利基金會部分,把韌性責任與公司治理結構直接掛鉤。 第五條是最誠實、也最讓外界不安的一條。 OpenAI 寫道:「面對不可預測未來的唯一方式,是準備好在學習過程中更新立場(The only way to meet challenges of unpredictable future is to be prepared to update positions as we learn)。」 然後是一個令人停頓的具體例子:「雖然普遍繁榮始終重要,但我們可以想像在某些時期,我們會以犧牲部分賦能(empowerment)來換取更多韌性(resilience)(can imagine periods where we trade off some empowerment for more resilience)。」 翻譯成白話:OpenAI 保留在安全考量下限制 AI 能力的權利,即使這意味著犧牲部分使用者自主性。 結語中,OpenAI 引用了 GPT-2 開源決策的回顧:「我們當初不敢發布 GPT-2 的權重……那是錯誤的擔憂,但這個過程讓我們發現了迭代部署的方法。」這是在說,原則本身也會迭代,而且公司承諾「透明地說明何時、如何、為何改變」。 五大原則並非完全自洽。 最明顯的張力在原則二(賦能)和原則五(適應性)之間:OpenAI 一方面承諾最大化使用者自主性,另一方面又明文保留「犧牲賦能換韌性」的空間——誰來決定何時啟動這個 trade-off?答案隱而未宣:OpenAI 自己。 第三條(普遍繁榮)和商業現實之間同樣存在裂縫。「把 AI 放進每個人手中並壓低成本」是使命,但 OpenAI 同期推出的 o3、GPT-4.5 等旗艦模型定價不低。壓低成本的時間軸,目前只是承諾,不是路線圖。 第一條(民主化)則面臨更根本的結構性矛盾:OpenAI 說要抵制權力集中,但它本身就是算力、人才、資料的高度集中體。這種「由壟斷者宣示反壟斷」的敘事,在原則頁上架的同一週,以汽油彈的方式得到了最直接的社會回應。 OpenAI 五大原則中有三個詞,在加密社群的語境裡並不陌生:去中心化(decentralized)、民主化(democratization)、普遍繁榮(universal prosperity)。 差別在於,加密世界選擇用程式碼和共識機制來強制執行這些原則,而 OpenAI 選擇用一份官方宣言。前者無需信任,後者高度依賴信任。 對 Web3 社群而言,OpenAI 承認「超級智慧不能被少數公司壟斷」,實際上是在為去中心化 AI 基礎設施的論述注入主流認可。Bittensor、Filecoin、Worldcoin 等試圖在 AI 供應鏈不同層級引入去中心化的協議,長期面臨「為什麼不直接用 OpenAI」的挑戰。現在 OpenAI 自己說:中心化本身就是風險。 這不會讓 Web3 AI 敘事立刻起飛,但它讓一個論點變得更容易被主流接受:AI 的治理問題,最終是分配問題,而加密世界在分配問題上有過十五年的實驗紀錄。
数据状态✓ 已抓取全文阅读原文(動區 BlockTempo)
🔍历史类似事件· 关键词 + 标的比对6 则
💡 目前用关键词 + 标的比对(MVP)· 之后会升级为 embedding 语义搜寻
原始信息
ID:155cb59616
来源:動區 BlockTempo
发布:2026-04-27 02:36:21
分类:zh_news · 导出分类 zh
标的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言
OpenAI 發布 AGI 五大憲法:AI 不能被少數人壟斷,犧牲可換來更多韌性 | Feel.Trading