新華社洛杉磯3月12日電 2026年開年以來,一款名為OpenClaw的開源人工智能體(AI智能體)在全球科技圈迅速走紅。這類能夠在現實世界執行任務、代表用戶採取行動的AI工具開始進入公眾視野,引發廣泛關注。
一些觀察人士認為,能夠自主執行任務的AI智能體展現出強勁技術潛力,或將推動AI從「對話助手」邁向「行動助手」,開啟個人數字助理新時代。與此同時,美國媒體和網絡安全專家也頻頻發出警告,指出其在安全性、可靠性等方面仍存在風險,其對用戶設備的高權限訪問也引發數據安全和隱私保護方面的擔憂。
技術潛力備受關注
OpenClaw由奧地利軟件工程師彼得·施泰因貝格爾開發,是一款開源AI智能體軟件。與傳統聊天機器人不同,該智能體可通過整合調用通信軟件和大語言模型,在用戶本地電腦自主執行文件管理、郵件收發、數據處理等複雜任務。此外,用戶還可以通過安裝技能包代碼來訓練和擴展其能力。
公開數據顯示,OpenClaw在開源平台GitHub上線僅兩個多月便獲得超過30萬顆「星標」。這一指標通常被視為開源項目受歡迎程度的重要參考,顯示出開發者社區對其高度關注。
與此同時,由OpenClaw還衍生出一些富有創意的項目,例如允許上百萬AI智能體自主社交的網絡平台Moltbook。
美國科技媒體普遍認為,這種「能夠行動的AI智能體」代表了AI發展的新方向,可能改變人與計算機的交互方式。通過連接電子郵件、日程安排和各類軟件系統,AI可以自動完成一系列複雜任務,從而提升個人和企業的工作效率。
業內人士指出,如果相關技術逐步成熟,這類AI智能體未來有望在辦公自動化、數字助理以及企業流程管理等領域獲得廣泛應用。
安全性和可靠性存隱憂
OpenClaw快速走紅也引發安全專家和媒體的警惕。美國媒體認為,這類AI智能體需要較高系統權限才能執行任務,如訪問文件、運行程序或連接用戶賬戶,配置不當可能導致數據洩露甚至被惡意利用。
網絡安全專家表示,這類系統容易遭受一種針對大語言模型的安全技術攻擊——「提示注入攻擊」。攻擊者可能通過隱藏指令誘導AI執行未經授權操作,從而獲取敏感數據或操控系統。OpenClaw開發者施泰因貝格爾在其公司官網博客文章中明確表示,「提示注入攻擊」仍是行業尚未解決的難題。
美國《福布斯》雜誌網站援引研究人員觀點說,AI智能體之所以引發安全擔憂,是因為其同時具備三種高風險特徵,即能夠自主執行任務的自動化系統、可能隱藏惡意指令的信息來源,以及對用戶設備擁有較高權限的訪問能力。
據科技媒體平台TechRadar報道,安全研究人員發現OpenClaw的核心系統存在一個名為「ClawJacked」的重大安全漏洞,攻擊者可能通過惡意網頁接管AI智能體,從而獲取設備權限和訪問系統數據。
使用門檻仍較高
除了安全問題,不少用戶還表示OpenClaw的使用門檻較高。有用戶在美國紅迪網站等技術論壇上發帖,稱安裝OpenClaw的過程堪稱「噩夢」,各種兼容性問題和報錯讓人最終放棄使用。還有用戶表示,OpenClaw運行環境複雜,穩定性不足,使用體驗「太貴、太慢且不夠可靠」。
美國科技新聞媒體TechCrunch報道說,OpenClaw安全配置和操作需要較高技術能力,目前該工具更適合技術人員或開發者使用,並不適合普通公眾用戶。施泰因貝格爾在接受媒體採訪時表示,OpenClaw需要仔細配置才能保證安全,目前並不適合非技術用戶。
總體來看,美國媒體和技術社區普遍認為,OpenClaw代表了AI發展的重要方向——從「對話型AI」向「行動型AI」轉變,然而,這類技術仍處於早期發展階段,其安全性、穩定性以及監管框架仍有待進一步完善。
網絡安全專家指出,隨着AI智能體逐漸能夠訪問現實世界系統和數據,其潛在風險也在同步擴大。如何在推動技術創新的同時完善安全治理和監管體系,成為人工智能邁向更廣泛應用必須面對的重要課題。(新華社記者譚晶晶 黃恆)