近期,以“龍蝦”(OpenClaw)為代表的開源AI智能體引起廣泛關(guān)注。作為人工智能發(fā)展的新階段,AI智能體超越了傳統(tǒng)大語言模型的對話功能,可以按照人類的要求自主完成一系列關(guān)聯(lián)任務,在標準化、流程化的場景中大幅提升效率。與此同時,其安全問題也引發(fā)廣泛探討。國家互聯(lián)網(wǎng)應急中心、工業(yè)和信息化部網(wǎng)絡安全威脅和漏洞信息共享平臺先后發(fā)布風險提示(預警),指出其存在嚴重安全隱患。專家建議,探索推進相關(guān)法律制度,優(yōu)化監(jiān)管方式,讓AI智能體在合法合規(guī)的軌道上健康發(fā)展。

(來源:央視財經(jīng))
專家認為,AI智能體的發(fā)展帶來了一系列法律風險。綜合中國工程院院士鄔賀銓、中國政法大學人工智能法研究院院長張凌寒、對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任許可等人觀點,一是自主決策偏差。受大語言模型固有“幻覺”問題影響,智能體在自主執(zhí)行任務過程中,易出現(xiàn)指令理解偏差、決策邏輯錯誤等問題,甚至帶來越權(quán)風險,可能超越人類授權(quán)范圍自作主張,導致出現(xiàn)不可逆操作。二是數(shù)據(jù)泄露風險。智能體為實現(xiàn)跨應用操作,需持續(xù)監(jiān)聽、讀取甚至模擬用戶操作界面,這導致其數(shù)據(jù)收集范圍遠超傳統(tǒng)應用。屏幕截圖、操作軌跡、賬號憑證等敏感信息可能被長期留存,引發(fā)數(shù)據(jù)安全和個人隱私泄露風險。三是責任認定困難。現(xiàn)有法律制度將人工智能及各類AI智能體納入“產(chǎn)品”范疇,主要適用產(chǎn)品責任相關(guān)規(guī)定,但對于具備實體行動能力的智能體,責任究竟應由生產(chǎn)者、算法提供者、系統(tǒng)運營者還是使用者承擔,現(xiàn)有法律存在一定滯后性。
專家建議,守住創(chuàng)新與安全平衡,以法治引導AI智能體健康發(fā)展。一是構(gòu)建適配AI智能體的法律規(guī)范。張凌寒等人建議,確立高風險應用場景的動態(tài)準入標準,對有權(quán)限干預關(guān)鍵信息基礎設施的智能體,實施強制安全審計制度,從源頭把控高風險智能體的上線與使用。將人工干預和熔斷機制確立為高權(quán)限智能體產(chǎn)品的法定設計義務,確保智能體的關(guān)鍵操作可追溯、可干預。厘清開源智能體生態(tài)的權(quán)責邊界,明確模型提供者、開發(fā)者、應用平臺等各主體的協(xié)同治理責任,建立起清晰、可落地的問責機制,破解當前責任主體難尋的法律困境。
二是推動制定行業(yè)規(guī)范。中國科學院計算技術(shù)研究所研究員張云泉建議,由相關(guān)部門指導行業(yè)協(xié)會牽頭,組織產(chǎn)業(yè)各方共同制定我國的智能體互操作性標準與行業(yè)公約,構(gòu)建規(guī)則統(tǒng)一、接口開放、利益共享的可持續(xù)發(fā)展生態(tài),營造公平透明、充分競爭的數(shù)字市場環(huán)境。標準應明確要求,無論采用圖形界面還是通過官方應用編程接口來實現(xiàn)功能,均須遵循“雙重授權(quán)”原則,禁止任何形式的權(quán)限濫用和模擬操作繞過。
三是加強風險防控和安全監(jiān)管。中國信息通信研究院人工智能研究所副總工程師孫鑫等人建議,加強安全風險防控,推動分級分層與場景約束,針對高風險領(lǐng)域考慮“白盒化”治理方案,確保關(guān)鍵節(jié)點“人類在回路中”,而在風險可控的領(lǐng)域?qū)嵤┌輰徤鞯摹吧澈斜O(jiān)管”。完善“行為歸因”識別機制,構(gòu)建智能體關(guān)鍵環(huán)節(jié)的風險識別和響應標準,探索針對智能體“代理行為”權(quán)責溯源機制。引導企業(yè)持續(xù)開展安全加固,定期對部署環(huán)境、權(quán)限配置等進行風險檢測與安全加固,持續(xù)提升風險防控能力。監(jiān)管部門應持續(xù)提升技術(shù)識別與取證能力,應對新型案件挑戰(zhàn)。
參考文章:
1. 委員談人工智能治理:引導AI智能體健康發(fā)展 營造公平透明數(shù)字生態(tài)
2. “養(yǎng)龍蝦”火熱背后:智能體大規(guī)模落地如何過好安全關(guān)
3. 許可|AI智能體的私法構(gòu)造與行為邊界
4. 生成式人工智能時代如何筑牢個人信息保護防線
5. 政協(xié)委員建言AI智能體規(guī)范發(fā)展
6. 新質(zhì)策源導刊丨許可:AI智能體安全治理:分層施策應對發(fā)展新挑戰(zhàn)
7. 特別報道丨許可:AI智能體 是“私人管家”還是“潛在主人”?
8. 新質(zhì)策源導刊丨熊鴻儒:積極擁抱AI智能體 尋求發(fā)展與安全的動態(tài)平衡
9. 新質(zhì)策源導刊丨鄭玉雙:法律如何回應AI智能體治理挑戰(zhàn)?
10. 新質(zhì)策源導刊丨薛瀾:從“動口”到“動手”:如何為AI智能體劃好安全紅線?
11. 時報訪談 | 薛瀾:AI智能體加速落地 企業(yè)和政府如何各有所為
12. 全國政協(xié)委員張云泉:參照國際治理通行做法,將終端智能體納入監(jiān)管范圍
來源:法治網(wǎng)輿情中心(ID:fzwyqzx)
策劃統(tǒng)籌:付萌
分析師:劉暢
新媒體編輯:劉思源
編輯:靳雪林