鉅亨網記者張韶雯 台北
最近全球社群媒體流行一句問候語:「你今天養龍蝦了嗎?」KPMG 安侯企業管理公司董事總經理謝昀澤指出,近期社群流行部署代理式 AI(AI Agent),將其比喻為會自主工作的「龍蝦」。他提醒,AI 代理具備提示詞注入、指令誤判、外掛投毒及系統漏洞等 4 大風險,若缺乏嚴格治理,聰明 AI 恐集體出錯,甚至遭駭客利用控制系統。他建議一般用戶應先觀望,開發者則須在隔離環境測試,避免數位助理變成資安內鬼。
針對當前科技圈最熱門的現象。謝昀澤表示,社群將代理式 AI 比喻為會「自己找食物、自己工作」的數位生物,因此用「養龍蝦」形容部署 AI 助手的行為。新一代 AI 代理程式突破了過去生成式 AI「光說不練」的限制,不僅能回答問題,還能實際操作系統、執行任務,在企業環境中適合處理特定類型的數位工作。
一般而言,AI 代理最適合四種特性的任務:跨系統、全天候、高頻率與大數據。例如,企業可讓 AI 代理在庫存與客服系統間運作,從 CRM 系統讀取資料、到 ERP 查詢庫存,再透過郵件回覆客戶。過去需員工頻繁切換系統的流程,現在 AI 代理能全天候動態接收指令並自動完成。
然而,「養龍蝦」熱潮也衍生亂象。謝昀澤分享經驗指出,他原僅要求 AI 蒐集旅遊資料,結果 AI 竟自主加班分析趨勢、研究匯率並建立成本模型,生成數十頁報告,導致付費模型帳單飆升。此外,市場出現「龍蝦安裝」與「龍蝦卸載」的怪異產業鏈。他分析,近期出現「棄養潮」主因是 AI 代理需取得大量系統與帳號權限,引發使用者對資安威脅的集體焦慮。
在發揮 AI 生產力前,謝昀澤提醒企業應評估四大風險:首先是提示詞注入,駭客可能誘導 AI 洩漏機密;其次是指令誤判,AI 可能錯誤刪除資料;第三是外掛程式投毒,使電腦成為殭屍網路;第四則是漏洞被駭客利用。資安研究人員發現,駭客已開發專門的「資訊竊取器」,能直接竊取未設防 AI 代理的 API 金鑰與憑證,進而遠端控制電腦,將其作為攻擊其他公司的跳板。
謝昀澤強調,過去 AI 的問題是「說錯話」,但當 AI 開始彼此合作,未來風險將轉向「一群聰明的 AI 一起做傻事」。他認為代理式 AI 應用將迎來爆發式成長,能否轉化為數位助理而非資安內鬼,關鍵在於企業的 AI 治理能力。
謝昀澤建議一般使用者目前可先觀望,因代理式 AI 工具的管理門檻仍高,不慎養到「毒龍蝦」的機率不低,成熟度與普及的生成式 AI 仍有落差。技術開發者則應在隔離測試環境與嚴格權限控管下進行實驗。目前產業界已嘗試建立安全平台,如 NVIDIA (NVDA-US) 的 NemoClaw 與微軟的 Copilot Coworker 概念,期望透過更嚴格的安全框架,避免 AI 代理在企業環境中失控。
上一篇
下一篇
