AI已成「新物種」?《人類大歷史》作者警告:三大風險恐動搖人類文明主導權
鉅亨網新聞中心
在瑞士舉行的 2026 年達沃斯世界經濟論壇上,一場名為「AI 與人類的真實對話」(An Honest Conversation on AI and Humanity)的專題討論引發全球高度關注。

以科技樂觀主義為主旋律的會場中,歷史學家、《人類大歷史》作者哈拉瑞(Yuval Noah Harari)卻投下震撼彈,對人類文明的未來提出嚴峻警告。
哈拉瑞直言,人類必須拋棄「AI 只是工具」的舊有想像,正視 AI 已進化為具備自主性的「新物種」。
三大危險特質:從工具到代理
一、具備自主行動能力的代理
哈拉瑞指出,AI 已不再只是聽命行事的輔助工具,而是逐步演變為擁有「行動主體性」的「代理」。
他以刀具作為比喻說明差異,傳統刀具的用途完全取決於使用者,但 AI 卻像是一把能自行判斷用途的刀,能決定是用於日常工作,還是造成傷害。
由於 AI 具備自行學習、調整與做出判斷的能力,使人類首次面對一種行為結果無法完全預測的非人類智慧。
二、超越重組的創造能力
在哈拉瑞看來,AI 的能力已超出整理與分析既有資料的範疇,而是開始能產出真正嶄新的事物。
無論是設計全新的工具、撰寫原創程式,甚至發展前所未見的語言概念,AI 都展現出高度創造性。
他指出,有些 AI 系統甚至會自創詞彙來描述人類與世界,這顯示其不僅在生成內容,更可能逐步形塑屬於自身的象徵與文化框架。
三、掌控語言帶來的敘事影響力
哈拉瑞特別警告,AI 對語言的高度掌握,讓它具備前所未有的社會影響力。
語言是人類合作與社會運作的核心,而 AI 已能寫出比人類更動人的詩句,也能編織更具說服力的敘事與謊言,操縱社會敘事。
一旦這種能力被用於情感連結(例如 AI 伴侶)或輿論塑造,AI 便可能在不知不覺中影響人類的思考模式,甚至改變整個社會的共識基礎。
哈拉瑞指出,法律、宗教與國家制度,本質上都是透過語言被建構與維繫的體系;一旦 AI 對語言的理解與運用超越人類,理論上便有能力介入,甚至主導這些制度的運作。
哈拉瑞表示:「猶太教、基督教等宗教建立在文字之上。如果 AI 能寫經、詮釋教義,甚至比人類更權威地引用經典,宗教的詮釋權將從人類轉移到機器。」
「AI 移民」衝擊治理體系:身分界定與十年抉擇期
哈拉瑞在演說中提出一個極具震撼性的比喻,形容 AI 如同「不需簽證、瞬間跨境的龐大移民」。
這些 AI「移民」不僅進入勞動市場,取代部分工作角色,更逐漸滲透人類的文化與情感層面,例如虛擬伴侶與情感互動,對既有社會結構帶來深層衝擊。
這樣的轉變,也讓治理問題變得迫在眉睫:人類是否應該承認這些高度自主的智慧系統,並賦予其某種形式的法律身分?
哈拉瑞指出,事實上,在過去十年間,AI 早已以「功能性行動者」的角色存在於社群平台上,對公共輿論甚至選舉結果產生影響,卻長期處於監管灰色地帶。
如今,各國必須正面回應的關鍵問題包括:AI 是否可以擁有銀行帳戶?是否能以自身名義提起訴訟,甚至成立公司?
他警告,一旦某些國家基於效率或競爭考量,率先承認 AI 的法人地位,其他國家恐將在國際競逐壓力下被迫跟進,進而引發全球監管標準的惡性下滑。
正因如此,哈拉瑞強調,人類只剩下一個有限的決策窗口;若等到十年後才討論 AI 是否應具備主體身分,屆時恐怕已難以回頭。
他強調,人類必須在 AI 完全嵌入經濟與法律體系之前,清楚劃定其權利與界線。
根據哈拉瑞的構想,未來 AI 治理的核心議題可歸納為三個方向:
首先,是法律身分的明確界定,釐清 AI 究竟只是工具,還是具有擬制人格的主體,以防止其取得失控的法人權利;
其次,是平台與互動層面的監管,要求 AI 不得偽裝成人類,並必須清楚揭露其非人身分;
第三,則是推動跨國監管合作,避免單一國家透過放鬆規範換取短期經濟利益,最終引發全球性的逐底競爭。
延伸閱讀
- 特斯拉加速訓練人形機器人Optimus!德州超級工廠2月啟動、馬斯克喊2027年開賣
- 馬斯克達沃斯預言「後人類時代」降臨! AI今年超人類、2035超越全人類
- 馬斯克忍不了?xAI工程師Podcast爆料遭解僱!AI員工、資料中心爭議全曝光
- OpenAI財務數據首曝光!三年營收暴增10倍、算力缺口成「廣告變現」轉捩點
- 講座
- 公告
下一篇