2025年,我國人工智能(AI)治理呈現(xiàn)出一個頗具制度意味的變化:在不斷強化風險底線的同時,政策層面并未全面收緊,而是主動在底線之上預留一段具有“模糊可試”特性的彈性空間——“灰區(qū)”。
這一空間,并非規(guī)則缺位形成的空白地帶,而是一種有意識的制度安排——既避免過早固化邊界抑制創(chuàng)新,也防止技術擴張失控帶來系統(tǒng)性風險?!盎覅^(qū)”更明晰和適度,成為2025年AI治理的重要結構特征。
不是制度空白,而是主動留出的“緩沖帶”
從2025年涉AI政策文件的整體表述看,“試點”“探索”“鼓勵”“有序推進”等措辭頻繁出現(xiàn),而明確禁止性條款,則主要集中在少數(shù)高風險領域。這種語言結構本身,反映出治理思路的變化。
一方面,政策文本并未對所有AI應用場景進行全面細化規(guī)定,而是通過原則性表述設定總體方向;另一方面,在具體實施層面,又通過限定范圍、對象和用途的方式,允許地方在一定條件下開展探索。
這種“留白式”治理,并不意味著制度失靈,而是監(jiān)管體系在技術高度不確定條件下主動設置的“緩沖帶”。AI應用的風險高度依賴具體場景、使用方式和管理能力,難以通過單一規(guī)則一刀切解決。在規(guī)則尚未成熟之前,保留有限探索空間,有助于識別風險類型、積累治理經(jīng)驗,為后續(xù)制度定型提供現(xiàn)實樣本。
因此,所謂“灰區(qū)”,正是制度主動選擇的一種過渡性安排。
最先進入“灰區(qū)”的,是“內(nèi)部工具型AI”
從2025年地方政策實踐看,最早被允許進入“灰區(qū)”的,并不是直接面向公眾的自動化決策系統(tǒng),而是各類“內(nèi)部使用、輔助決策”的工具型AI。
第一類:內(nèi)部系統(tǒng)——風險主要控制在組織內(nèi)部。這類系統(tǒng)通常不直接面向公眾,其運行結果仍需人工審核或人工決策,因此風險多停留在組織內(nèi)部運行環(huán)節(jié)。截至2025年12月31日,國家互聯(lián)網(wǎng)信息辦公室數(shù)據(jù)顯示,累計有748款生成式人工智能服務完成備案,435款生成式人工智能應用或功能完成登記。2025年全年新增446款生成式人工智能服務完成備案,新增330款完成登記。從備案與登記結構可見,相當比例的應用以接口調(diào)用、功能嵌入等形態(tài)存在,呈現(xiàn)出明顯的工具化特征。這類工具既能夠釋放效率紅利,又不直接觸及公眾權利邊界,因而成為當前最穩(wěn)定可控的試驗形態(tài)。
第二類:地方試點——有限空間里的制度試驗。以“試點”“示范”等名義推進的地方AI項目,是另一類典型“灰區(qū)”形態(tài)。在城市治理、政務服務等領域,不少AI項目并未直接以全面推廣的形式上線,而是通過示范場景、試點項目、典型案例等方式,在限定范圍內(nèi)運行。多地“人工智能+”行動計劃中,也普遍設置若干行業(yè)示范應用或重點場景,通過名單制、項目制逐步推進。這種做法,使AI應用在真實環(huán)境中接受檢驗,同時避免風險在更大范圍內(nèi)擴散。
第三類:技術測評——為未來規(guī)則提供樣本。與直接應用不同,一些政策文件對評估、測試、模擬等技術活動普遍持鼓勵態(tài)度,將其視為風險識別和制度完善的重要手段。例如,《人工智能技術倫理審查辦法(試行)(公開征求意見稿)》對高風險活動實行“動態(tài)清單+專家復核”,為測試評估留出調(diào)整空間。這類應用本身并不追求即時規(guī)?;?,而是服務于治理能力提升。
上述三類場景,共同構成了當前AI治理中的“模糊可試區(qū)”,其共同特征在于:風險可控、范圍有限、責任相對集中。
提前暴露風險、切割責任,是治理底層邏輯
從更深層的制度邏輯看,“灰區(qū)”并非簡單的“試驗田”,而是承擔著多重治理功能。
首先,它是風險“前哨站”。通過有限、真實的試探性應用,在AI大規(guī)模社會化部署之前,就把潛在威脅、倫理沖突和系統(tǒng)性風險提前暴露出來,為后續(xù)規(guī)則制定提供現(xiàn)實樣本。
其次,它是責任的“切割器”。在規(guī)則尚不完備的階段,通過自評估、日志留存、動態(tài)復核、應急報告等機制,把責任鏈條前置并細化到更小單元。一旦出現(xiàn)問題,可以迅速溯源、精準處置,避免風險外溢。
再次,它是創(chuàng)新的“緩沖閥”。在全球AI競爭持續(xù)加劇的背景下,這種治理方式既守住制度底線,又為技術發(fā)展保留必要空間,避免因過度謹慎而錯失發(fā)展機遇。
從這個意義上看,“灰區(qū)”并不是制度例外,而是當前階段AI治理體系中的一種功能性結構。
一個結構性信號:從“規(guī)則先行”走向“邊界先行”
2025年AI治理釋放出的一個重要變化,是治理思路正在從“規(guī)則先行”轉向“邊界先行”。在高度不確定的AI領域,政策實踐更傾向于先劃定風險底線,再在底線之上保留一段可試空間。這一變化至少釋放出四重信號:
第一,分級治理成為基本方法。高風險領域嚴守底線,中低風險場景保留彈性空間,形成“硬底線+灰緩沖”的結構。
第二,制度仍處于熱塑形階段。2025年一系列“小切口”規(guī)則陸續(xù)出現(xiàn),說明綜合性立法仍在積累經(jīng)驗,灰區(qū)成為制度演化的重要樣本來源。
第三,責任前置成為探索期基本配置?!盎覅^(qū)”并非法外之地,而是通過評估、留痕、復核等機制,把底線責任嵌入試錯過程的前端。
第四,“灰區(qū)”探索正沉淀為可輸出的治理經(jīng)驗。地方層面的場景探索不斷匯入國家規(guī)則體系,一些從“灰區(qū)”中形成的制度做法,逐步沉淀為具有普遍意義的治理路徑,并開始通過相關國際合作渠道進入全球討論視野。
在不確定性中尋找制度確定性
2025年的中國AI治理,是一場在極大不確定性中尋求最大確定性的戰(zhàn)略實踐。它通過在清晰底線之上保留“模糊可試”的制度空間,既守住了安全發(fā)展的生命線,又為我國在AI時代贏得戰(zhàn)略主動權爭取了最大時間。
因此,所謂“底線之上的空間”,并不是規(guī)則之外的灰色地帶,而是被限定范圍、嵌入責任的制度緩沖層。它既為技術發(fā)展保留必要彈性,又避免風險在社會層面放大擴散。在高度不確定的技術環(huán)境中,這種“硬邊界+灰緩沖”的治理結構,正在成為我國AI治理的一種重要制度形態(tài)。
縱觀2025年的政策動向,我國AI治理正在形成一種以規(guī)則底線為基礎、以場景試點為路徑、以責任機制為支撐的結構性形態(tài)。在技術快速演進與治理能力重構之間,這種“可控探索”的制度安排,正成為我國應對AI不確定性的現(xiàn)實選擇。(法治網(wǎng)研究院王燦 楊幸芳)
編輯:劉舒然