趙精武
近段時間以來,OpenClaw應用下載與使用情況火爆,其強大的自主決策功能吸引了不少用戶安裝體驗。阿里、騰訊等互聯(lián)網(wǎng)企業(yè)相繼跟進部署服務,在社交平臺上甚至出現(xiàn)了上門收費代裝OpenClaw的服務,一場“養(yǎng)蝦”熱潮迅速升溫。
與“豆包”“元寶”等公眾熟知的人工智能產(chǎn)品不同,OpenClaw的突破在于電腦桌面端部署與開源生態(tài):其接入基礎模型應用程序編程接口,以系統(tǒng)權(quán)限調(diào)度本地與網(wǎng)絡資源,并與移動端實時互聯(lián),從而打通了從指令到執(zhí)行的閉環(huán)。在OpenClaw的幫助下,用戶可通過自然語言指令讓AI直接操作系統(tǒng)工具,實現(xiàn)文件整理、郵件發(fā)送、數(shù)據(jù)分析等全流程自動化,且可以在后臺24小時運行,讓智能體首次具備了真正意義上的“數(shù)字員工”屬性。
然而,高度自主決策功能的實現(xiàn),依賴用戶開放足夠的數(shù)據(jù)訪問權(quán)限,這也意味著用戶本地存儲的文件、數(shù)據(jù)、密鑰均處于風險不確定狀態(tài)。從媒體公開報道看,部分用戶已遭遇OpenClaw錯誤刪除電子郵件、重要文檔等技術故障。尤其需要注意的是,若用戶未能正確卸載,殘留文件仍會對用戶的個人計算機產(chǎn)生安全威脅。這些風險的出現(xiàn),也印證了技術創(chuàng)新背后機遇與風險并存的客觀規(guī)律,人工智能技術也不例外。近期,國家互聯(lián)網(wǎng)應急中心、中國互聯(lián)網(wǎng)金融協(xié)會等部門也陸續(xù)發(fā)布風險提示,提醒公眾重視安全風險,審慎安裝。
2026年1月1日起施行的新修訂的網(wǎng)絡安全法明確提出,加強風險監(jiān)測評估和安全監(jiān)管,促進人工智能應用健康發(fā)展。當前智能體應用尚處于創(chuàng)新探索階段,其存在的網(wǎng)絡安全風險也確實為治理實踐提出諸多新問題:一方面,智能體的功能定位是“私人定制”的專屬服務,需要獲取足夠多的用戶個人信息進行訓練,進而形成符合用戶使用習慣的信息服務模式,但這也讓個人信息保護法中的“最小必要原則”面臨被虛置的風險。由于智能體的作用是為用戶提供全方位的便捷化服務,因此難以界定哪些信息屬于實現(xiàn)其功能所“必要”的范疇。另一方面,以開源社區(qū)為依托的智能體應用技術更新周期極短,網(wǎng)絡安全風險更為復雜。這既包括開源生態(tài)體系固有的技術漏洞、惡意代碼植入等安全風險,也涉及高頻率更新帶來的質(zhì)量不穩(wěn)定、故障頻發(fā)等問題。
人工智能技術的創(chuàng)新迭代,對現(xiàn)行網(wǎng)絡安全法治體系提出了更高的延展性要求,即網(wǎng)絡安全規(guī)范體系應當與人工智能技術保持同步規(guī)劃、同步發(fā)展的狀態(tài)。現(xiàn)行的網(wǎng)絡安全法等法律法規(guī)已逐漸明確了核心治理邏輯和治理規(guī)則,因此當下的工作重點除了“立法”更要“釋法”,即明確現(xiàn)有網(wǎng)絡安全法律條款如何適用于智能體安全風險治理實踐。
第一,網(wǎng)絡安全法治體系需要延展網(wǎng)絡安全風險的分級分類框架,為不同風險等級的智能體行為設置差異化的保護措施。例如,對于資金流出、安全配置修改等風險極高的行為,可一律禁止智能體自主執(zhí)行;對于郵件回復等行為,則需要由人來進行最終確認。同時,要對不同領域的風險容忍度進行分級,在此基礎上出臺智能體技術應用的負面清單,并根據(jù)技術發(fā)展、產(chǎn)業(yè)動態(tài)等因素適時調(diào)整。如對涉及國家安全、金融安全及關鍵信息基礎設施等高風險敏感領域,應明確禁止使用端側(cè)智能體;對風險容忍度相對較高的領域,則可基于行業(yè)特征,明確不得使用智能體的具體場景。
第二,網(wǎng)絡安全法治體系需要擴展智能體網(wǎng)絡安全漏洞的專項治理措施。具體而言,可以考慮將提示詞注入、視覺對抗攻擊、數(shù)據(jù)“投毒”及其他針對多模態(tài)大模型感知、推理技術特征的攻擊方式,納入網(wǎng)絡安全法所述的“惡意程序”和“安全缺陷、漏洞”范疇,從而將其納入人工智能安全法律規(guī)制范圍。
第三,網(wǎng)絡安全法治體系需要囊括智能體開源社區(qū)與開源平臺的主體責任。開源社區(qū)應當塑造開發(fā)者“技術向善”的倫理規(guī)范,防范開源社區(qū)和開源平臺成為網(wǎng)絡攻擊的重災區(qū)或中轉(zhuǎn)站,通過社群規(guī)范等方式,強化安全風險提示與說明。
智能體應用的網(wǎng)絡安全治理,既關系到人工智能產(chǎn)業(yè)的創(chuàng)新發(fā)展,也關系到我國現(xiàn)代化治理能力和治理水平的提升。面對智能體等人工智能技術難以預料的創(chuàng)新周期和發(fā)展方向,網(wǎng)絡安全法治體系需以更靈活、全面的方式,預防相伴而行的風險,同時也要為技術創(chuàng)新預留探索空間,最終實現(xiàn)技術創(chuàng)新與法治體系的一體化發(fā)展。
(作者系北京航空航天大學法學院副教授、工業(yè)和信息化智慧法治工信部重點實驗室執(zhí)行主任)
編輯:林楠特