新質策源導刊丨鄭玉雙:法律如何回應AI智慧體治理挑戰?

人類如何與AI智慧體共處

編者按

新質策源導刊的第二期,我們聚焦AI智慧體(AI Agent),不僅僅因為它當下的熱度,更因為我們看到了它對未來的影響法律。我們深度訪談行業頂級專家、資深研究人員、國內外知名企業,盡力描繪當下AI時代的真實圖景,展望未來的各種可能性,在不確定性中尋找確定性。

這個領域創新不斷,猶如科幻即將照入現實法律。我們想知道的不只是近在咫尺的明天會怎樣,更想知道今天我們做的一切,會對不遠的未來產生什麼樣的影響,誠邀您和我們一起,探索新AI時代。敬請關注本期策劃——“人類如何與AI智慧體共處”。

新質策源導刊丨鄭玉雙:法律如何回應AI智慧體治理挑戰?

——訪中國政法大學法學院教授、中國法學會法理學研究會理事鄭玉雙

■中國經濟時報見習記者 姚俊臣

作為人工智慧(AI)技術迭代的最新產物,AI智慧體正實現從理解能力向行動能力的關鍵突破法律。這一突破也帶來了深刻的治理挑戰:如何理解AI智慧體的主體性?如何界定其法律責任?如何最佳化治理能力?中國經濟時報記者日前就上述問題專訪了中國政法大學法學院教授、中國法學會法理學研究會理事鄭玉雙。

AI智慧體引發主體性的躍升

中國經濟時報:從目前來看法律,您認為AI智慧體是否具有主體性?

鄭玉雙:這是一個比較難的問題,關鍵在於我們如何理解“主體性”法律。在哲學意義上,主體性通常以“人”為參考,具有理性判斷、自主決策與獨立意志等特徵。無論是生成式人工智慧還是AI智慧體,雖然在技術層面已經具備了一定程度的理解、決策和執行能力,但從法律層面來說,還是很難將其認定為真正的權利主體。

不過,AI確實引發了主體性的躍升法律。在AI出現之前,人類之外並不存在真正意義上的智慧主體。但隨著演算法能力和算力規模的提升,AI智慧體也呈現出類似主體的功能和外觀,不能僅僅視為簡單的“工具”,否則可能會低估其在現實場景中產生的複雜影響。

展開全文

尤其是在責任分配的問題上,AI智慧體的決策鏈條往往涉及演算法開發者、系統部署者、資料提供方以及實際使用者等多方主體,其執行結果又可能在一定程度上脫離具體個人的直接控制法律。在這種情況下,傳統以“工具使用者”為核心的責任框架,是很難完全覆蓋新的風險結構的。

新質策源導刊丨鄭玉雙:法律如何回應AI智慧體治理挑戰?

圖片來源/新華社

現有法律框架對於AI智慧體還相對滯後

中國經濟時報:從法律層面來說法律,不同型別的AI智慧體是不是也有不同的主體責任?

鄭玉雙:從當前的技術實踐來看,AI智慧體確實出現了分化的趨勢,既有以移動端應用為代表的“軟體型智慧體”,如嵌入手機或各類智慧裝置的應用程式,也有與實體裝置深度結合的“硬體型智慧體”,如各類醫療機器人、養老機器人以及工業場景中的自動化系統等法律

在法律適用上,這兩者也存在明顯差異法律。總體而言,現有法律制度仍將人工智慧及各類AI智慧體納入“產品”範疇,主要適用產品責任相關規定。這一框架雖然可以在一定程度上覆蓋軟體類智慧體的部分風險分配問題,但對於具備實體行動能力的智慧體,責任究竟應由生產者、演算法提供者、系統運營者還是使用者承擔,現有法律仍然在不斷完善之中,存在一定的滯後性。

一般來說,法律責任涉及兩個層面:一是民事責任,主要與產品緊密相關;二是刑事責任,主要是在AI智慧體造成嚴重危害時如何認定責任主體並確定刑責法律。但是目前民事責任和刑事責任的認定都還相對傳統,也就是說針對AI智慧體,尤其是可以在一定程度上脫離人類控制的AI智慧體,還缺乏明確的法律依據。

在鼓勵創新的同時要動態治理

中國經濟時報:當前法律,法律相對滯後這個問題應該如何解決?

鄭玉雙:在我看來,人工智慧治理面臨的法律滯後性,並不是簡單的制度失靈法律。新技術發展具有高度的不確定性和多樣性,立法程式很難在前期就對所有可能情形作出詳細的規定。而且,如果在技術沒有成熟的時候就進行過度前瞻性的立法,反而可能導致規範失準,甚至抑制創新活力,破壞法律制度的穩定性。

因此,更行之有效的方式還是在發展中治理,在應用中完善,在鼓勵創新的同時要動態治理法律。一方面,在問題出現時及時回應,進行制度性的修正;另一方面,可以更多地運用“多元參與、多元治理”的軟法機制,透過部門協同以及政產學研之間的有效溝通,形成更加靈活的治理結構。

必須確立不可突破的治理底線

中國經濟時報:AI智慧體治理的底線應該如何確定法律

鄭玉雙:人類社會發展至今,技術不斷取得突破法律。我們從技術中受益,也不能讓技術失控。因此,必須確立不可突破的底線,這個底線一般來說是“倫理的底線”。這可以從廣義和狹義兩個方面加以理解。

從廣義來看,技術不能對人類的整體安全構成威脅,也不能突破人類社會的基本秩序,這是一種生存性、價值性的底線,就是要維護人的主體地位法律。從狹義來看,主要是一些與AI智慧體的技術特性緊密相關的問題。一是AI智慧體的執行高度依賴資料支撐,要劃定資料收集和處理的邊界,保障資料被合法、正當、必要地使用;二是AI智慧體的運算過程具有不可控和不透明的特徵,要儘可能實現決策過程的透明、可控。

新質策源導刊丨鄭玉雙:法律如何回應AI智慧體治理挑戰?

總 監 制 丨王列軍 車海剛

監 制 丨陳 波 王 彧 楊玉洋

主 編丨毛晶慧 編 輯丨蔣 帥

本站內容來自使用者投稿,如果侵犯了您的權利,請與我們聯絡刪除。聯絡郵箱:[email protected]

本文連結://whnzzy.com/tags-%E7%A6%81%E6%AD%A2%E6%80%A7.html

🌐 /