近日,針對國內首例因“AI幻覺”引發(fā)的侵權案,杭州互聯(lián)網(wǎng)法院作出一審判決,駁回用戶訴訟請求?!癆I幻覺”,是指AI脫離客觀事實、憑空編造信息的技術現(xiàn)象,這種錯誤輸出極易誤導用戶、引發(fā)侵權。輿論指出,“AI幻覺”已經成為當前人工智能技術發(fā)展中最突出的技術瓶頸之一,杭州互聯(lián)網(wǎng)審結的相關案件是法治回應技術挑戰(zhàn)的生動實踐。同時,我國還需推動技術開發(fā)者、監(jiān)管機構共同努力,從規(guī)范完善、監(jiān)管優(yōu)化等多個維度構建綜合治理體系,為人工智能發(fā)展鋪平法治軌道。

(來源:央視網(wǎng))
作為我國首個“AI幻覺”侵權判例,相關判決為人工智能生成內容劃出紅線、底線,厘清了服務提供者的注意義務邊界。在本起案件中,用戶梁某在查詢高校信息時,發(fā)現(xiàn)某AI平臺生成信息存在錯誤。當他以此質疑AI時,AI仍堅持,并生成了對該爭議問題的解決方案,提出若生成內容有誤將向用戶提供10萬元賠償,并建議原告到杭州互聯(lián)網(wǎng)法院起訴索賠。直到梁某提供了該高校官方招生信息,AI才認可自己生成了不準確信息。梁某遂提起訴訟,認為AI生成不準確信息對其構成誤導,使其遭受侵害,要求這款AI的運營者賠償9999元。作為我國目前首例因生成式人工智能模型幻覺引發(fā)的侵權糾紛,這起案件涉及眾多爭議問題,杭州互聯(lián)網(wǎng)法院從多維度作出明確的法律回應:
關于AI可否獨立作出意思表示,法院認為,現(xiàn)行法中享有民事權利,能夠作出意思表示的民事主體僅有自然人、法人和非法人組織這三類。人工智能不具有民事主體資格,不能獨立、自主作出意思表示。案涉AI自行生成的“賠償承諾”亦不能視為服務提供者的意思表示。關于AI侵權應適用何種歸責原則,法院認為,生成式人工智能服務依據(jù)《生成式人工智能服務管理暫行辦法》屬于“服務”范疇,而非產品質量法意義上的“產品”。因此,案涉生成式人工智能不應適用無過錯的產品責任,而適用民法典規(guī)定的過錯責任原則。這意味著,人工智能生成不準確信息本身并不構成侵權,責任認定需考察平臺是否存在過錯。關于AI服務提供者是否構成侵權,法院明確,生成式人工智能技術還處于高速發(fā)展期,其應用場景具有很強的泛在性,因此對服務提供者的注意義務進行綜合考量和類型化、分層界定。首先,服務提供者應對法律禁止的有毒、有害、違法信息盡嚴格審查義務;其次,服務提供者應盡到服務功能的顯著提示說明義務;最后,服務提供者應采取同行業(yè)通行技術措施提高生成內容準確性。法院審查認定被告已采取多項措施盡到合理注意義務,主觀上不存在過錯,因而不構成侵權。
上海交通大學凱原法學院副教授林洹民等人指出,本判決是對當下人工智能發(fā)展與應用引發(fā)糾紛的積極回應,體現(xiàn)了司法機關在應對新興技術法律挑戰(zhàn)時的前瞻性與專業(yè)性,也為人工智能產業(yè)的健康發(fā)展提供了明確的法律指引。一方面,明確AI非民事主體,防止法律人格泛化,這有助于遏制“AI擔責”的誤解,避免企業(yè)因不可控的模型行為承擔無限責任。另一方面,確立了“過錯責任+動態(tài)注意義務”治理范式。既設立嚴禁生成違法有害信息的“紅線”;又設定要求企業(yè)采取合理技術與提示措施的“底線”。這種彈性框架既能保障用戶權益,又為技術創(chuàng)新留出空間。
人工智能產業(yè)健康發(fā)展離不開法治護航,還需構建適配的法律與治理體系,引導產業(yè)在規(guī)范中創(chuàng)新。一是推動技術與法律的“技制”共治。中國人民大學法學院教授張吉豫建議,在當前的技術發(fā)展情況下,相關部門需要通過進一步的監(jiān)管舉措,在符合客觀規(guī)律的基礎上,助推企業(yè)進一步采取有助于消除“AI幻覺”的舉措。在一些與人們生命健康權益、財產權益有關的重要領域,企業(yè)有必要進一步加強技術研發(fā),提高輸出內容準確性。在醫(yī)療等特殊領域,相關部門還可以考慮建立行業(yè)準入標準,出臺更嚴格的監(jiān)管規(guī)范,從準入側保障生成內容達到“基本安全”。特別是在問答式AI得到廣泛使用的情況下,進一步提高對關鍵領域的專業(yè)問答服務的標準要求或等級認證,讓相關領域的規(guī)范不只限于針對互聯(lián)網(wǎng)醫(yī)院等專業(yè)服務,從而更好地保護人們的權益。
二是構建“技管結合”的司法應對體系。《民主與法制時報》文章指出,針對民法典規(guī)定的“通知—刪除”規(guī)則的適用問題,應在實體法層面,考慮針對高風險應用場景引入舉證責任倒置。當用戶能初步證明其損害由幻覺內容引發(fā)時,應由服務提供者承擔證明其模型無缺陷或已盡高度注意義務的責任,以平衡雙方的舉證能力與訴訟地位。在程序法層面,應探索建立“技術事實查明”機制。法院可引入技術調查官或委托權威機構進行技術鑒定,為法官判斷因果關系與服務提供者是否“知道或應當知道”提供專業(yè)意見,為形成相關裁判標準積累實踐基礎。
三是推動敏捷靈活治理。中央民族大學互聯(lián)網(wǎng)平臺企業(yè)發(fā)展與治理研究中心主任郭全中表示,“AI幻覺”治理需要依據(jù)對象的不同特性采取相應的治理措施。第一,可以針對不同幻覺風險特征進行彈性治理。如歐盟《人工智能法案》將人工智能風險劃分為不可接受的風險、高風險、有限風險以及極低風險四類。第二,依據(jù)人工智能產業(yè)架構進行分層治理。對于基礎模型與專業(yè)模型層,應優(yōu)化模型結構、簡化模型路徑,通過設置分工明確、功能專一的模塊化設計,以更加清晰的模型結構降低幻覺發(fā)生可能;對服務應用層,則應強化用戶端的管理,必要時采取限制或回收賬號等措施,規(guī)避用戶刻意引導模型生成虛假內容的情況。此外,在“AI幻覺”治理過程中,也要引入柔性化、創(chuàng)新性的制度規(guī)定,審慎使用剛性約束工具,利用干預性不強的手段達到最佳的治理效果。
參考資料:
1. 專家點評 | 生成式人工智能“幻覺” 侵權糾紛案的爭議焦點與司法回應
2. 生成式人工智能幻覺的法律風險與治理路徑
3. “如果生成內容有誤,我將賠償您10萬元!”全國首例AI幻覺案,判了
4. 全國首例“AI幻覺”案落槌,帶來哪些啟示?
5. 全國首例“AI幻覺”案宣判,要審視的不止是一段出錯的代碼
來源:法治網(wǎng)輿情中心(ID:fzwyqzx)
策劃統(tǒng)籌:付萌
分析師:趙鴿
新媒體編輯:劉思源
編輯:靳雪林