□ 夏偉(中國政法大學刑事司法學院副教授)
人工智能已成為國家戰(zhàn)略競爭的核心驅動力,推進人工智能更高質量創(chuàng)新發(fā)展需要更高水平的法治保障。《中華人民共和國國民經(jīng)濟和社會發(fā)展第十五個五年規(guī)劃綱要》(以下簡稱“十五五”規(guī)劃綱要)提出,“全面實施‘人工智能+’行動”,讓人工智能全方位賦能千行百業(yè),強調“完善人工智能領域法律法規(guī)、政策制度、應用規(guī)范、倫理準則”。深入貫徹落實“十五五”規(guī)劃綱要的戰(zhàn)略部署,應當加快完善人工智能法律制度,構建保障“人工智能+”行動全面實施的科學法治體系。
從增量立法到增質立法:人工智能“1+N”立法體系構建
我國人工智能立法可以分為兩個階段:第一階段是試驗立法,即在法治如何因應人工智能創(chuàng)新發(fā)展的立場尚未明朗之際,通過“先試先行”立法檢驗人工智能領域的原理、規(guī)范與制度以觀其成效。此時立法多以宣示性、政策性為主,呈現(xiàn)弱規(guī)則傾向。第二階段是專項立法,即在試驗立法基礎上,將經(jīng)過實踐檢驗的、適應人工智能創(chuàng)新發(fā)展的重要制度通過專項立法形式固定下來,實現(xiàn)從增量立法到增質立法的科學轉型。
當前,我國人工智能立法正處于從增量立法到增質立法轉型的關鍵時期,試驗立法取得了令人矚目的成效,相關法律規(guī)范以及政策規(guī)范共同構筑我國人工智能法律法規(guī)與倫理準則體系,形成跨部門法支撐與跨領域協(xié)同的規(guī)范基礎。然而,“先試先行”畢竟屬于人工智能立法不成熟時期的試驗之舉,存在立法碎片化、同質化等問題,難以適應人工智能創(chuàng)新發(fā)展的時代需求。行之有效發(fā)揮法治在人工智能領域固根本、穩(wěn)預期、利長遠的保障作用,關鍵要在黨和國家人工智能戰(zhàn)略指引下,將“先試先行”立法的有益成果進行科學轉化,推動人工智能立法從分散性立法向系統(tǒng)性立法轉型,制定“規(guī)范集中、體系統(tǒng)一”的高質量人工智能基本法,構建人工智能“1+N”立法體系。
人工智能立法體系的“1”是其核心規(guī)范,即人工智能基本法?;诋斍拔覈斯ぶ悄芰⒎ǔ尸F(xiàn)分散性特點,制定人工智能基本法宜采取“三步走”策略。第一步是清理,將人工智能領域重復性、政策性、宣示性立法規(guī)范予以清理,以保障法在形式上簡明易從。第二步是整合,建構人工智能全生命周期運行的規(guī)范體系,以保障法在實質上確當可行。第三步是創(chuàng)制,保障人工智能基本法具備因時應勢而變的開放性,創(chuàng)建適應人工智能領域預防性監(jiān)管、多元責任配置等特殊法律制度。
制定人工智能基本法,需要統(tǒng)籌協(xié)調人工智能立法體系“1”和“N”的邏輯關系。人工智能立法體系的“N”即分散性立法有兩類:一是人工智能基本法的關聯(lián)規(guī)范,如網(wǎng)絡安全法;二是人工智能基本法的下位規(guī)范,如《生成式人工智能服務管理暫行辦法》。人工智能基本法在制定時,應當處理好與網(wǎng)絡安全法、數(shù)據(jù)安全法等關聯(lián)規(guī)范的銜接關系,其規(guī)范設定與制度設計要與已有規(guī)范相協(xié)調。人工智能基本法在制定后,應當統(tǒng)籌好與下位規(guī)范的位階關系,其作為核心規(guī)范對下位法規(guī)范具有統(tǒng)領作用,下位法規(guī)范的理解適用必須以人工智能基本法為依據(jù),不得與之相沖突。
從規(guī)則之治到良法之治:人工智能法治的核心價值提煉
人工智能法治可以分為三個層次,即工具之治、規(guī)則之治與良法之治。時至今日,伴隨人工智能立法規(guī)范的相繼頒布實施,人工智能法體系已然成型,規(guī)則之治的任務基本完成。人工智能法治應當從“中級形態(tài)”的規(guī)則之治邁向“高級形態(tài)”的良法之治,其關鍵在于將核心價值契入人工智能法治體系,實現(xiàn)從形體完備到實質良善的躍遷。
人工智能法治價值具有多元性,公正、自由、安全等皆為必要。其中,公正價值要求人工智能禁止歧視,不得開發(fā)存在性別、地域等歧視性的人工智能;自由要求人工智能必須可解釋,不得濫用“算法黑箱”阻礙公眾知情權的實現(xiàn);安全要求人工智能必須風險可控,遵守法律規(guī)范關于人工智能風險分級的規(guī)定。而究其根源,人工智能法治的終極任務在于處理好人與人工智能的關系,守護“人之為人”是人工智能良法之治的根本任務,一言以蔽之,必須將以人為本確立為核心價值。
以人為本不能僅停留在價值理念層面,更為重要的是將其轉化為人工智能法律制度的指導原則,即智能向善。以人為本和智能向善是一體兩面的關系,以人為本必須堅持智能向善,相應的,只有智能向善才能實現(xiàn)以人為本。以智能向善貫徹以人為本理念,必須從“體”和“用”兩個層面同步落實。“體”是指人工智能本體開發(fā),“用”是人工智能使用規(guī)則。在“體”的層面貫徹以人為本理念,要求人工智能本體開發(fā)設計應當堅持向善,遵循法律規(guī)范與倫理準則,并與人類價值對齊,凡是侵害人類生存、人性尊嚴、人類權利的,都應當被禁止。需要注意的是,無論開發(fā)者如何善意設計人工智能本體,都可能由于他人對人工智能的惡意濫用而損害“人之為人”的根本利益。因此,為了充分貫徹以人為本理念,如何引導人工智能善意使用是一個同等重要的問題,這需要同步構建人工智能善意使用制度。
從靜態(tài)規(guī)制到動態(tài)監(jiān)管:人工智能適應性治理的制度響應
人工智能時代是科技加速的時代,以科技加速為支撐的人工智能具有高度的技術復雜性與風險不確定性。從機器學習到深度學習再到大模型,新一代人工智能的技術復雜性陡增,算法黑箱、數(shù)據(jù)偏見、知識幻覺等層出不窮,由此導致人工智能風險的不確定性。前人工智能時代治理社會問題所采取的靜態(tài)規(guī)制模式韌性不足,在面對復雜多變的人工智能風險時表現(xiàn)出脆弱性,監(jiān)管部門無力識別風險來源、風險類型及風險程度,更無力組織有效的預防策略。因此,人工智能治理模式應從預防性治理走向適應性治理,堅持治理主體的公私合作、治理路徑的自下而上、治理策略的動態(tài)可塑。
首先,人工智能治理的制度韌性主要來源于公私深度合作,需要共同發(fā)揮公共部門剛性執(zhí)法與私人部門柔性立規(guī)的功能合力。公共部門剛性監(jiān)管雖然強勁有力,但卻難以穿透人工智能平臺優(yōu)勢權力、算法技術黑箱與海量數(shù)據(jù)決策形成的技術屏障的阻隔,導致濫用人工智能實施的違法犯罪難識別、難定性、難規(guī)制。事實上,只有懂人工智能,才能建立具有制度韌性的適應性治理模式。網(wǎng)絡平臺等私人部門深度參與人工智能運行過程,最懂人工智能如何使用、存在何種風險,享受人工智能技術紅利并承載重要公共利益,因而也最適宜承擔阻斷濫用人工智能風險的義務。公共部門與私人部門的深度合作監(jiān)管,構建“雙中心”的治理體系,將顯著提升治理的適應性。
其次,適應性治理倡導自下而上的治理路徑,通過“第一線信息”充分激發(fā)人工智能監(jiān)管的活力。人工智能技術高速迭代,等待位居后端的監(jiān)管部門經(jīng)過決策形成制度之后,人工智能技術往往已經(jīng)過多次迭代,此種自上而下的治理路徑欠缺敏捷性,制度實效性極大削弱。人工智能風險廣泛分散于系統(tǒng)運行全周期,涉及多個層級,處在最底層的利益相關者往往最先掌握“第一線信息”,其應對風險的策略具有極大的參考價值。
最后,人工智能風險處在動態(tài)變化之中,適應人工智能技術高速迭代的治理策略應當具有可塑性,將可能發(fā)生風險的事項提前立法并確立制度,以達到“一個策略治理一片”的效果。
[本文系國家社科基金項目“數(shù)字經(jīng)濟時代實質穿透式定罪的適用路徑及其邊界研究”(25CFX114)的階段性研究成果]
編輯:武卓立