BlockBeats 律動財經
編者按:4 月 10 日凌晨 3 點 45 分,一名 20 歲的年輕人向 Sam Altman 的住所投擲燃燒瓶,隨後步行前往 OpenAI 總部並威脅縱火。
這起襲擊迅速在科技與投資圈引發震動。它不僅關乎個體安全,更將一套長期停留在文本與社群中的極端叙事,推入了現實。
從「AI 將導致人類滅絕」的高度確定性判斷出發,經由「必須不惜一切代價降低風險」的推理,這套邏輯逐步滑向對現實行動的正當化。當一種世界觀不斷強化其「生存級威脅」的叙事,並以此重構道德優先級時,行動的邊界也隨之被重新定義——原本低成本的言論,開始具備被執行的可能。
本文回顧了 AI 末日論者社群內部的演化路徑:從「純化螺旋」推動風險判斷不斷升級,到對技術建造者的道德審判,再到將複雜現實簡化為「電車難題」的決策模型。這些看似理性的推演,最終匯聚成一種自洽卻危險的思維框架:只要結果被定義為「拯救人類」,手段便可以不斷擴展。
在這個意義上,這起事件並非孤立。它更像是一次提前到來的壓力測試——測試的不是技術本身,而是圍繞技術所形成的叙事、信念與行動之間,何時開始失去約束。
以下為原文:
週五凌晨 3 點 45 分,一名 20 歲的男子於向 Sam Altman 的住所投擲了一枚燃燒瓶。隨後,他步行約三英里,前往 OpenAI 總部,威脅要將其焚毁。目前,他已因涉嫌謀殺未遂被警方拘捕。
他並非「獨狼」。他是 PauseAI 的活躍成員,在社區中擁有六個角色。他在 Discord 上的用戶名是「Butlerian Jihadist」。
他的 Instagram 幾乎被一種末日情緒內容佔據:能力曲線配文「如果我們很快不採取行動,我們就會死去」,還有把現實置於《黑客帝國》《終結者》和《蠢蛋進化論》交集之中的維恩圖。
在襲擊發生前四個月,他還向自己的關注者推薦了尤德科夫斯基(Yudkowsky)和索亞雷斯(Soares)的文章《如果有人把它造出來,我們所有人都會死》。
他名叫 Daniel Moreno-Gama。
他還有自己的 Substack。早在今年一月,他就發表了一篇題為《AI Existential Risk(AI 的生存性風險)》的文章,在文中將「由 AI 導致人類滅絕」的機率估計為「幾乎確定」。他把這項技術稱為「對任何使用它的人,尤其是對那些正在構建它的人構成的主動威脅」。他的結論是:「我們必須先處理這個威脅,再去問其他問題。」
他還寫過一首詩,想像 AI 開發者的孩子死去,並質問父母為何無所作為。他甚至這樣描述這些技術的建造者:「願地獄對如此卑劣的生物稍有憐憫。」
PauseAI 已經從他們的 Discord 中刪除了他的相關發言。
我知道,對於一份投資通訊來說,這並不是大多數讀者期待看到的內容。我寫這些,是想解釋我的世界觀從何而來,好讓後面那些更長期的判斷更容易理解。至於我提出的「新新政」(New New Deal),正是對這一發展方向所作出的直接回應。
我所做的,不过是把他們的那套模型往前推演一步,並把這些線索串聯起來。
先從「確定性」說起。尤德科夫斯基(此前提到的書)的立場是:一旦有人造出了足夠強的人工智能,地球上的每一個人都會死。不是「可能」,不是「也許」,而是所有人——包括你的孩子,也包括他反覆提到的女兒 Nina。
他在《時代》雜誌上發表過這一觀點,也寫進了一本名為《如果有人把它造出來,我們所有人都會死》的書裡。他甚至主張,應當對數據中心實施空襲,並認為,相比之下,核衝突的風險都要比一次完整的訓練運行完成更可接受。
「純化螺旋」,也就是不斷升級的激進行為。在這個社群內部,成員通過不斷提高立場強度來證明自己的「堅定」:對「人類滅絕機率(P(doom))」的估計從 50% 一路攀升到 90%、再到 99.99999%。
人工智能安全中心(Center for AI Safety)的一位全國發言人曾在鏡頭前表示,正確的回應應該是「走到全國各地的實驗室,把它們燒掉」。PauseAI 還啟動過一個所謂的「警告射擊協議」(Warning Shot Protocol),將某個 AI 模型認定為「滅絕性武器」。PauseAI 的一位領導者甚至說,一名 Anthropic 的研究員「活該承受即將發生在她身上的一切」。
當有人在 PauseAI 的 Discord 中對這種言論提出質疑時,管理員直接刪除了那條發言。
襲擊發生的前一天,尤德科夫斯基那本書的合著者、內特·索亞雷斯發推稱,Altman「正在做一些非常糟糕的事情」。
接著,「廉價言論」開始接受現實的檢驗。
博弈論裡有個術語叫「廉價信號」(cheap talk):指的是幾乎沒有成本的表態,但終究要面對現實的約束。一開始大家只是低成本地說一些極端觀點,但一旦把問題定義為「人類生存危機」,這些觀點就可能被人當真,從而為極端行為提供正當性。
這些並非孤立事件,而是一系列不斷升級、彼此強化的主弨,圍繞著一種帶有末世論色彩的思想體系展開。如果把這套邏輯推到極致,它甚至可以接受「為了拯救最後的 1%,犧牲 99% 的人」。
事情發展到有人按字面理解並付諸行動,只是時間問題。那個年輕人讀了那本書,加入了這個社群,也寫下了自己的宣言。在一篇寫給社區大學英語課的自述中,他把自己定義為「結果論者」(consequentialist):「如果結果無法匹配,我幾乎不會相信動機。」他給自己取名「巴特勒聖戰者」(Butlerian Jihadist)。在 12 月 3 日,他在 PauseAI 的 Discord 裡寫道:「我們已經接近午夜,是時候真正行動了。」
然後,他真的行動了。
他們給了他一個「電車難題」:一條生命,對比全人類。他拉下了扳手。
還有一個值得注意的最後諷刺。如果這些「末日派」(doomers)真的以他們宣稱的那種置信度相信自己的判斷,那他們理應更坦誠地面對這些信念所推導出的含義。
就在襲擊發生前幾周,一名記者曾問尤德科夫斯基:既然 AI 如此危險,你為什麼不去襲擊數據中心?他通過索亞雷斯轉述的回答是:「如果你看到一條新聞,說我這麼做了,你會覺得『哇,AI 已經被阻止了,我們安全了』嗎?如果不會,那你其實已經知道,這種做法並不奏效。」
注意這個回答沒有說什麼。它並不是「因為暴力是錯誤的」,而是「因為現在這麼做還不起作用」。這種克制是出於策略考量,而非道德約束。而這個社群對此心知肚明。潛藏在水面之下的,是一種未明說的共識:那個年輕人最大的「錯誤」,只是時機不對。
這正是我所說的:智能並不等於權力。這也是整個「末日派」世界觀中最深層的缺陷。
尤德科夫斯基的框架建立在一個混同之上:只要 AI 足夠聰明,就必然會獲得毀滅人類的能力,因為「智能會自動轉化為能力」。但他的許多追隨者並不具備技術背景。他們既不構建 AI 系統,也不從事對齊工程。他們擁有的是一種特定類型的「語言智力」,可以構造複雜的風險論證,並由此說服自己擁有某種對技術的「神職式權威」。他們能構建論證,卻無法構建系統。
這並非偶然,而是寫進其基礎文本中的設定。尤德科夫斯基的《哈利·波特與理性之道》本質上描繪了一個世界:最會推理的人理應凌驾於一切制度之上。《理性序列》(The Sequences)則提供了一整套「教義」:一小群「正確思考者」,在認知與道德上都更優越,他們的理性使他們有資格決定其他人可以建造什麼。這與其說是一個安全運動,不如說更像一個擁有起源神話的「神職體系」。
尤德科夫斯基可以與那個投擲燃燒瓶的年輕人保持距離,但他無法與那套三段論切割。如果建造者會殺死所有人,那麼阻止建造者就是自衛。這才是其核心命題,直白而清晰。問題從來只是:什麼時候會有人把它當真。
所以,當他們自己的邏輯在凌晨 3 點 45 分,帶著一瓶汽油出現時,也就不該再表現得如此驚訝。
[]
發佈者對本文章的內容承擔全部責任
在投資加密貨幣前,請務必深入研究,理解相關風險,並謹慎評估自己的風險承受能力。不要因為短期高回報的誘惑而忽視潛在的重大損失。
暢行幣圈交易全攻略,專家駐群實戰交流
▌立即加入鉅亨買幣實戰交流 LINE 社群(點此入群)
不管是新手發問,還是老手交流,只要你想參與加密貨幣現貨交易、合約跟單、合約網格、量化交易、理財產品的投資,都歡迎入群討論學習!
上一篇
下一篇