作者簡(jiǎn)介:鄧矜婷,女,江西贛州人,中國(guó)人民大學(xué)紀(jì)檢監(jiān)察學(xué)院教授,博士生導(dǎo)師,中國(guó)人民大學(xué)未來(lái)法治研究院、刑事法律科學(xué)研究中心研究員,反腐敗法治研究中心副主任,國(guó)家治理大數(shù)據(jù)和人工智能創(chuàng)新平臺(tái)國(guó)家數(shù)字監(jiān)督治理實(shí)驗(yàn)室主任,法學(xué)博士,研究方向:數(shù)字法學(xué)、監(jiān)察法。
摘要:人工智能具有海量、高效、黑箱的特點(diǎn),使得規(guī)制人工智能相關(guān)人員權(quán)利義務(wù)責(zé)任的外部路徑存在規(guī)制效能不足、規(guī)制限制發(fā)展的困境。應(yīng)當(dāng)利用人工智能的特點(diǎn),構(gòu)建以人工智能規(guī)制人工智能的內(nèi)部路徑,補(bǔ)充外部路徑。內(nèi)部路徑是在人工智能行為被直接影響和約束的層面進(jìn)行規(guī)制,包括通過(guò)發(fā)布可以直接調(diào)用的法律規(guī)則要件體系和關(guān)系圖表、通用的合規(guī)審查基座模型、用以自動(dòng)檢測(cè)的標(biāo)注數(shù)據(jù)集和指標(biāo)體系、構(gòu)建人工智能執(zhí)法司法輔助系統(tǒng)等方法。其核心是將法律規(guī)則的要求融入人工智能底層的技術(shù),實(shí)現(xiàn)運(yùn)用人工智能技術(shù)幫助規(guī)制人工智能應(yīng)用。因此,內(nèi)部路徑具有高效、精準(zhǔn)規(guī)制的特點(diǎn),可以補(bǔ)充外部路徑,緩解規(guī)制人工智能的兩大困難。
關(guān)鍵詞:人工智能;人工智能規(guī)制;通用數(shù)據(jù)集;法律知識(shí)自動(dòng)獲取;人工智能司法
一、人工智能法律規(guī)制的困境
人工智能的迅猛發(fā)展為人類帶來(lái)了新的機(jī)遇,同時(shí)風(fēng)險(xiǎn)也迅速滋生。如何抓住機(jī)遇,規(guī)避風(fēng)險(xiǎn),是具有滯后性的法律需要面臨的挑戰(zhàn)。人工智能的發(fā)展對(duì)傳統(tǒng)法律產(chǎn)生了巨大沖擊,與一般技術(shù)引發(fā)的治理風(fēng)險(xiǎn)相比,人工智能技術(shù)引發(fā)的風(fēng)險(xiǎn)更具復(fù)雜性、系統(tǒng)性,帶來(lái)的立法挑戰(zhàn)更具顛覆性。具有滯后性的法律難以規(guī)制以月為單位變化的人工智能技術(shù)格局,此外,人工智能的信息不對(duì)稱性讓立法機(jī)構(gòu)無(wú)法針對(duì)性地制定法律,人工智能治理范式不可避免地從單一的以國(guó)家為中心、以命令和控制為核心的“硬法”模式向基于多中心主體參與的“軟法”模式轉(zhuǎn)變。
為了應(yīng)對(duì)人工智能帶來(lái)的挑戰(zhàn),國(guó)家各部門(mén)以及地方政府相繼出臺(tái)大量的規(guī)范性法律文件,以應(yīng)對(duì)沖突、促進(jìn)發(fā)展。在國(guó)家層面,主要集中于數(shù)據(jù)治理。人工智能作為一種數(shù)據(jù)密集型技術(shù),需要海量的數(shù)據(jù)支撐,這些數(shù)據(jù)中包含國(guó)家數(shù)據(jù)、個(gè)人信息、商業(yè)數(shù)據(jù)、政府?dāng)?shù)據(jù)和公共數(shù)據(jù)等,2017年起施行的《中華人民共和國(guó)網(wǎng)絡(luò)安全法》(以下簡(jiǎn)稱《網(wǎng)絡(luò)安全法》)要求為了網(wǎng)絡(luò)安全和數(shù)據(jù)保護(hù),企業(yè)和個(gè)人必須采取技術(shù)措施保護(hù)個(gè)人信息和重要數(shù)據(jù)。為保障數(shù)據(jù)安全和個(gè)人信息權(quán)益,2021年國(guó)家相繼出臺(tái)了《中華人民共和國(guó)數(shù)據(jù)安全法》(以下簡(jiǎn)稱《數(shù)據(jù)安全法》)、《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》)。在具體應(yīng)用層面,《中華人民共和國(guó)電子商務(wù)法》針對(duì)“大數(shù)據(jù)殺熟”、算法的信息披露義務(wù)等作出了規(guī)定,《中華人民共和國(guó)反不正當(dāng)競(jìng)爭(zhēng)法》(以下簡(jiǎn)稱《反不正當(dāng)競(jìng)爭(zhēng)法》)的“互聯(lián)網(wǎng)專條”針對(duì)企業(yè)間數(shù)據(jù)獲取和使用作出了規(guī)定。我國(guó)尚未出臺(tái)針對(duì)人工智能應(yīng)用的專門(mén)立法,但有司法解釋和部門(mén)規(guī)章出臺(tái),最高人民法院為推動(dòng)人工智能同司法工作深度融合,發(fā)布《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見(jiàn)》,國(guó)家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部和公安部于2022年聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》。在地方層面,深圳、上海作出了立法嘗試,為未來(lái)人工智能領(lǐng)域的法律規(guī)制提供了經(jīng)驗(yàn)。
關(guān)于人工智能的法律規(guī)制,學(xué)界也有諸多研究和討論。包括人工智能的基礎(chǔ)理論和具體適用問(wèn)題,比如人工智能的法律地位,人工智能法律規(guī)制的前提是明確人工智能在法律關(guān)系中的地位,目前有三種理論觀點(diǎn):客體說(shuō)、有限主體說(shuō)和完全主體說(shuō)。傳統(tǒng)的侵權(quán)責(zé)任體系以過(guò)錯(cuò)歸責(zé)為原則,但人工智能造成的侵權(quán)責(zé)任因人工智能法律地位尚未明確,致害主體和因果關(guān)系認(rèn)定復(fù)雜,對(duì)侵權(quán)責(zé)任的認(rèn)定帶來(lái)極大挑戰(zhàn)。作為人機(jī)交互的算法決策機(jī)制,學(xué)界逐步對(duì)其深入研究,如算法黑箱、算法歧視、數(shù)據(jù)壟斷、信息繭房、大數(shù)據(jù)殺熟、算法共謀等現(xiàn)象。對(duì)于算法風(fēng)險(xiǎn)的治理,有學(xué)者主張通過(guò)有效提升算法透明度和加強(qiáng)監(jiān)管來(lái)解決,有的學(xué)者主張既要實(shí)現(xiàn)數(shù)據(jù)開(kāi)發(fā)和算法透明,也要將法律與道義嵌入算法設(shè)計(jì),優(yōu)化算法,強(qiáng)化倫理審查。有學(xué)者主張將算法決策嵌入網(wǎng)絡(luò)社會(huì)架構(gòu),采用分類分級(jí)的精準(zhǔn)化治理方法,兼用“軟”“硬”法作為協(xié)同治理工具,有學(xué)者主張要建立雙軌制的規(guī)制路徑,調(diào)整對(duì)象升級(jí)為算法設(shè)計(jì)與部署應(yīng)用的結(jié)果,和調(diào)整算法自主決策本身,采用平臺(tái)責(zé)任和技術(shù)責(zé)任雙軌并用的責(zé)任承擔(dān)方式。在人工智能具體應(yīng)用領(lǐng)域,如智慧司法,其內(nèi)嵌技術(shù)具有本源性缺陷,可能會(huì)導(dǎo)致過(guò)度依賴、主體弱化、算法歧視與數(shù)字鴻溝的異化風(fēng)險(xiǎn),損害司法公開(kāi)、司法公正等基本原則,為了規(guī)制這些風(fēng)險(xiǎn),有學(xué)者主張建立事前評(píng)估和事后檢驗(yàn)相結(jié)合的算法論證規(guī)則,設(shè)立完善的算法解釋規(guī)則,嵌入案件預(yù)警糾偏機(jī)制,并探索運(yùn)用區(qū)塊鏈技術(shù)。也有學(xué)者主張要對(duì)應(yīng)智慧司法系統(tǒng)的投用全流程,建構(gòu)倫理與道德的設(shè)計(jì)審查、裁量標(biāo)準(zhǔn)的統(tǒng)一性尺度、增強(qiáng)算法決策的可解釋性與重構(gòu)責(zé)任分配規(guī)則的權(quán)利保護(hù)新體系。
盡管《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》等法律的出臺(tái)作為底層的規(guī)則基石為人工智能的健康發(fā)展提供了堅(jiān)實(shí)保障,學(xué)者也作出了諸多有益的討論,但是對(duì)于人工智能風(fēng)險(xiǎn)的規(guī)制仍顯乏力。一方面是出臺(tái)的文件和提出的學(xué)說(shuō)不足以解決人工智能迅猛發(fā)展帶來(lái)的問(wèn)題,并且預(yù)期法律成本過(guò)高。如對(duì)于算法崛起所帶來(lái)的法律挑戰(zhàn),傳統(tǒng)法律規(guī)制主要采取三種方式加以應(yīng)對(duì):算法公開(kāi)、個(gè)人數(shù)據(jù)賦權(quán)與反算法歧視,但是算法公開(kāi)或者算法的可解釋性面臨技術(shù)上無(wú)法實(shí)現(xiàn)、公開(kāi)無(wú)意義、用戶算計(jì)與侵犯知識(shí)產(chǎn)權(quán)等難題,個(gè)人數(shù)據(jù)賦權(quán)面臨個(gè)人難以行使數(shù)據(jù)權(quán)利、過(guò)度個(gè)人數(shù)據(jù)賦權(quán)導(dǎo)致大數(shù)據(jù)與算法難以有效運(yùn)轉(zhuǎn)等難題,反算法歧視面臨非機(jī)器算法歧視、身份不可能完全中立、社會(huì)平等難以實(shí)現(xiàn)等難題。人工智能的發(fā)展建立在數(shù)據(jù)的收集與利用基礎(chǔ)之上,進(jìn)而會(huì)誘發(fā)數(shù)據(jù)安全風(fēng)險(xiǎn),包括數(shù)據(jù)投毒、數(shù)據(jù)深度偽造、數(shù)據(jù)過(guò)度采集、數(shù)據(jù)濫用分析等方面的威脅,如前所述,我國(guó)針對(duì)數(shù)據(jù)保護(hù)出臺(tái)了大量法律法規(guī),但是人工智能內(nèi)在的局限性,即算法風(fēng)險(xiǎn),以及數(shù)據(jù)在人工智能應(yīng)用中歷經(jīng)數(shù)據(jù)采集、數(shù)據(jù)傳輸、數(shù)據(jù)儲(chǔ)存、數(shù)據(jù)處理、數(shù)據(jù)交換再到數(shù)據(jù)銷(xiāo)毀的動(dòng)態(tài)周期過(guò)程,所涉及的個(gè)人、企業(yè)、其他組織、政府等多主體的利益難以調(diào)和,引發(fā)的隱私保護(hù)、可解析性和公平性等問(wèn)題無(wú)法根本解決。此外,根據(jù)摩爾定律,互聯(lián)網(wǎng)等高科技的更新周期大約在兩年。2023年3月,AI領(lǐng)域便發(fā)生了一場(chǎng)震撼人心的革命,從斯坦福大學(xué)推出的Alpaca到ChatGPT Plugins,實(shí)現(xiàn)實(shí)時(shí)數(shù)據(jù)獲取僅花了12天時(shí)間,立法的速度難以與之匹敵,導(dǎo)致法律滯后現(xiàn)象出現(xiàn)。對(duì)此,已有學(xué)說(shuō)指出,與規(guī)則和指令相比,當(dāng)頒布一項(xiàng)規(guī)則或者指令帶來(lái)的預(yù)期法律成本過(guò)高時(shí),立法機(jī)關(guān)應(yīng)當(dāng)以標(biāo)準(zhǔn)作為更有效率的規(guī)制方式。
另一方面,人工智能亟須發(fā)展,各種規(guī)范性法律文件過(guò)多,會(huì)成為人工智能發(fā)展和創(chuàng)新的掣肘。據(jù)統(tǒng)計(jì),我國(guó)目前已經(jīng)制定出臺(tái)網(wǎng)絡(luò)領(lǐng)域立法140余部。但人工智能立法應(yīng)是規(guī)范與發(fā)展并行的立法。在信息控制者激勵(lì)失衡的背景下,如果立法缺乏科學(xué)性,只是簡(jiǎn)單施加各種強(qiáng)制性外部要求,忽視信息控制者內(nèi)在激勵(lì)機(jī)制設(shè)計(jì),會(huì)抑制大數(shù)據(jù)開(kāi)發(fā)利用。有企業(yè)智庫(kù)的研究人員通過(guò)對(duì)美歐日韓立法的對(duì)比研究,主張法律天平的一端是產(chǎn)業(yè)發(fā)展和互聯(lián)網(wǎng)創(chuàng)新,另一端是私權(quán)、用戶保護(hù)和公共利益,加重平臺(tái)責(zé)任必然與互聯(lián)網(wǎng)創(chuàng)新背道而馳?,F(xiàn)在即使需要對(duì)互聯(lián)網(wǎng)加強(qiáng)監(jiān)管,合理的監(jiān)管方式也不是將傳統(tǒng)的法律監(jiān)管框架延伸到互聯(lián)網(wǎng),而是探索新的監(jiān)管范式,協(xié)同發(fā)揮各方力量,共同治理互聯(lián)網(wǎng)。
目前大量的規(guī)范性法律文件的出臺(tái),使得人工智能產(chǎn)業(yè)的發(fā)展成本也急劇上升,如企業(yè)數(shù)據(jù)的合規(guī)管理。企業(yè)不僅要遵守?cái)?shù)據(jù)保護(hù)相關(guān)的法律法規(guī),還要遵守國(guó)家政策、商業(yè)慣例、公司章程以及道德規(guī)范等,需要配合各個(gè)部門(mén)密集的監(jiān)管行動(dòng)進(jìn)行整改,無(wú)暇顧及數(shù)據(jù)保護(hù)能力的提升。知情權(quán)、許可權(quán)與刪除權(quán)等新設(shè)權(quán)利增加了企業(yè)的合規(guī)負(fù)擔(dān),如僅僅針對(duì)GDPR(《通用數(shù)據(jù)保護(hù)條例》,General Data Protection Regulation)的要求,全球便有20%的企業(yè)因違反要求而導(dǎo)致破產(chǎn),甚至出現(xiàn)了美國(guó)洛杉磯時(shí)報(bào)及芝加哥論壇報(bào)等企業(yè)因GDPR合規(guī)成本過(guò)高而直接退出歐盟市場(chǎng)的現(xiàn)象。對(duì)于需要大量收集和使用個(gè)人信息的企業(yè)來(lái)說(shuō),個(gè)人數(shù)據(jù)保護(hù)機(jī)制的建立和完善需要投入的資金巨大,并且需要考慮建成之后每年的維護(hù)費(fèi)用,這都對(duì)公司財(cái)政狀況提出挑戰(zhàn)。Telos開(kāi)展的一項(xiàng)企業(yè)合規(guī)治理的成本調(diào)查顯示:每家企業(yè)要做到數(shù)據(jù)的管理符合法律法規(guī)的要求,平均需要遵守至少13個(gè)不同的IT安全或隱私法規(guī),并且每年在合規(guī)性活動(dòng)上要花費(fèi)高達(dá)350萬(wàn)美元。
本文認(rèn)為,當(dāng)前人工智能的法律規(guī)制主要是按照人的特點(diǎn),通過(guò)構(gòu)建權(quán)利義務(wù)責(zé)任,影響人工智能相關(guān)人員的行為和意圖的方法來(lái)實(shí)現(xiàn)對(duì)人工智能的規(guī)制。相對(duì)于人工智能本身而言,這種規(guī)制路徑是通過(guò)對(duì)人工智能外部人員的規(guī)制來(lái)實(shí)現(xiàn),本文因而稱之為人工智能法律規(guī)制的外部路徑(簡(jiǎn)稱“外部路徑”)。這種規(guī)制路徑確實(shí)是當(dāng)前應(yīng)對(duì)人工智能風(fēng)險(xiǎn)必要的也是主要的手段。不過(guò)由于外部路徑主要考慮的是人的特點(diǎn),所以在應(yīng)對(duì)人工智能高效、海量、黑箱等特點(diǎn)帶來(lái)的風(fēng)險(xiǎn)時(shí)存在難以有效規(guī)制的困境。數(shù)量眾多、邊界不明的規(guī)制又導(dǎo)致對(duì)技術(shù)創(chuàng)新的限制。人工智能較為智能,而且強(qiáng)人工智能已經(jīng)開(kāi)始顯現(xiàn)。雖然這種智能本質(zhì)上與人的智能是不同的,但是它還是具有一定的自主性,其在行動(dòng)和決策上是自動(dòng)的。但是人工智能不是人,不能理解權(quán)利義務(wù)責(zé)任,難以通過(guò)這些方法影響其行為和意圖。如果能夠在人工智能會(huì)被影響的層面和方式上,將法律法規(guī)對(duì)其行為和目的的要求通過(guò)計(jì)算機(jī)語(yǔ)言和方法來(lái)表達(dá),使得人工智能能夠直接被影響,并且主動(dòng)遵循,就可以極大地降低人工智能應(yīng)用的法律風(fēng)險(xiǎn),減少人工智能的規(guī)制需要。在此基礎(chǔ)上,如果能夠建立可信人工智能的執(zhí)法和司法系統(tǒng),就可以有效地利用人工智能來(lái)規(guī)制人工智能。這兩方面的規(guī)制是直接規(guī)范人工智能本身的,本文稱之為人工智能法律規(guī)制的內(nèi)部路徑(簡(jiǎn)稱“內(nèi)部路徑”)。內(nèi)部路徑雖然旨在讓人工智能“懂”法律,但是這是為了更有效地約束人工智能,讓人工智能更好地服務(wù)于人,而不是認(rèn)為人工智能具有跟人一樣的主體地位。要實(shí)現(xiàn)內(nèi)部路徑,核心就是通過(guò)計(jì)算機(jī)語(yǔ)言和方法來(lái)充分表達(dá)法律規(guī)則。只有這樣,人工智能才能一定程度地理解法律規(guī)則,或者說(shuō),人工智能的行為和目的才能被法律規(guī)則影響。在充分表達(dá)的基礎(chǔ)上,可以出臺(tái)權(quán)威數(shù)據(jù)標(biāo)注規(guī)則框架、權(quán)威標(biāo)注數(shù)據(jù)集、權(quán)威法律法規(guī)關(guān)系圖表,搭建人工智能應(yīng)用可以對(duì)接的權(quán)威法律規(guī)則運(yùn)維平臺(tái),提供人工智能對(duì)法律規(guī)則遵循程度的檢測(cè)體系及平臺(tái)等。此外,只有在充分表達(dá)的基礎(chǔ)上,才能構(gòu)建可信的人工智能司法和執(zhí)法系統(tǒng),實(shí)現(xiàn)以人工智能規(guī)制人工智能。而法律規(guī)則作為一種抽象的存在,既然可以通過(guò)自然語(yǔ)言來(lái)表示,也應(yīng)當(dāng)可以通過(guò)計(jì)算機(jī)語(yǔ)言和方法來(lái)表示。一方面自然語(yǔ)言的詞義目前已經(jīng)有很多復(fù)雜的以詞向量為代表的表示方法,另一方面,法律規(guī)則的邏輯含義也有不少以邏輯變量為代表的表示方法。雖然距離法律規(guī)則的充分表達(dá)還較遠(yuǎn),但是該領(lǐng)域在不斷發(fā)展,以之作為外部路徑的補(bǔ)充未嘗不可。況且,當(dāng)前的外部路徑已經(jīng)在這方面作出了嘗試,開(kāi)始針對(duì)算法、標(biāo)注、預(yù)訓(xùn)練數(shù)據(jù)集等作出一些原則性的規(guī)定。不過(guò)面對(duì)人工智能的不斷發(fā)展和廣泛應(yīng)用,以及強(qiáng)人工智能的顯現(xiàn),只有原則性的規(guī)定不足以實(shí)現(xiàn)有效的內(nèi)部路徑。實(shí)踐中已經(jīng)出現(xiàn)了相關(guān)人員隨意構(gòu)建法律知識(shí)圖表、使用粗糙的標(biāo)注數(shù)據(jù)集等做法。法學(xué)界應(yīng)當(dāng)在這一領(lǐng)域展開(kāi)正式的研究,指導(dǎo)和引領(lǐng)實(shí)踐。
二、人工智能法律規(guī)制困境的原因在于當(dāng)前規(guī)制僅采取外部路徑
(一)當(dāng)前人工智能法律規(guī)制采取的是外部路徑
現(xiàn)代社會(huì)已經(jīng)進(jìn)入了數(shù)字時(shí)代,人工智能技術(shù)在多個(gè)領(lǐng)域廣泛應(yīng)用,人工智能越來(lái)越成為我們生活中不可缺少的科技力量,我們的生活逐漸被人工智能滲入。但我們?cè)诎l(fā)展人工智能、利用人工智能的時(shí)候,也很容易受到人工智能的影響,陷入人工智能介入可能產(chǎn)生的困境之中。
人工智能深刻影響了法律的發(fā)展,法律需要對(duì)這種強(qiáng)勢(shì)力量作出一定的回應(yīng),立法者已經(jīng)采用了多種方法規(guī)制人工智能,但這些方法無(wú)一例外都屬于外部路徑。即,當(dāng)前法律對(duì)人工智能的調(diào)整,是通過(guò)設(shè)計(jì)一種法律機(jī)制,配置人工智能相關(guān)人員在法律上的權(quán)利義務(wù)以及規(guī)定違反法律規(guī)定所應(yīng)承擔(dān)的法律責(zé)任,來(lái)設(shè)定主體的行為模式,引導(dǎo)相關(guān)人員在法律所許可的范圍內(nèi)開(kāi)展與人工智能相關(guān)的活動(dòng),從而把人工智能相關(guān)人員的活動(dòng)引入可調(diào)控的法律秩序之中。
目前人工智能法律規(guī)制的方法有:首先,立法者通過(guò)制定相關(guān)法律法規(guī),明確人工智能技術(shù)的應(yīng)用范圍、責(zé)任承擔(dān)等方面的規(guī)定。例如,出臺(tái)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》等法律法規(guī),對(duì)人工智能在網(wǎng)絡(luò)安全、數(shù)據(jù)安全等領(lǐng)域的應(yīng)用進(jìn)行了規(guī)范。其次,通過(guò)設(shè)立相關(guān)機(jī)構(gòu),如中央網(wǎng)絡(luò)安全和信息化委員會(huì)、中國(guó)網(wǎng)絡(luò)空間安全協(xié)會(huì)人工智能安全治理專業(yè)委員會(huì)等,加強(qiáng)對(duì)人工智能領(lǐng)域的監(jiān)督和管理。這些機(jī)構(gòu)負(fù)責(zé)制定和實(shí)施相關(guān)政策、標(biāo)準(zhǔn)和規(guī)范,確?;ヂ?lián)網(wǎng)平臺(tái)等主體對(duì)人工智能技術(shù)的合規(guī)應(yīng)用。最后,通過(guò)加強(qiáng)對(duì)人工智能相關(guān)行業(yè)從業(yè)人員的管理,確保他們符合相應(yīng)的資格要求和技術(shù)標(biāo)準(zhǔn)。例如,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布的《新一代人工智能倫理規(guī)范》等文件,對(duì)從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等主體的人工智能倫理問(wèn)題進(jìn)行了規(guī)范。但以上對(duì)人工智能的規(guī)制均采用了外部路徑,即通過(guò)構(gòu)建人工智能相關(guān)人員的權(quán)利義務(wù)責(zé)任的方式來(lái)進(jìn)行調(diào)整。
當(dāng)前的外部路徑已經(jīng)取得了一定的成效。然而,由于人工智能技術(shù)的快速發(fā)展和應(yīng)用領(lǐng)域的不斷擴(kuò)大,外部路徑已經(jīng)無(wú)法滿足人工智能應(yīng)用發(fā)展的需要。因此,需要繼續(xù)探索和完善相關(guān)法律制度,以適應(yīng)新發(fā)展形勢(shì)下人工智能技術(shù)的發(fā)展需要。
(二)外部路徑不直接規(guī)制人工智能本身
1.外部規(guī)制路徑僅規(guī)范人的行為,與人工智能技術(shù)保持距離
如上文所述,現(xiàn)階段法律對(duì)于人工智能的規(guī)制,主要是傳統(tǒng)的調(diào)整人的權(quán)利義務(wù)責(zé)任的外部路徑,只能夠從規(guī)制人工智能的創(chuàng)造者和使用者的角度來(lái)規(guī)制人工智能。但人工智能有自身的運(yùn)行邏輯,有自身的發(fā)展要求和規(guī)律,現(xiàn)有人工智能已經(jīng)可以作出一定程度的獨(dú)立自主的判斷和行為。針對(duì)人工智能發(fā)展所帶來(lái)的法律挑戰(zhàn),僅有外部路徑難以跟上人工智能技術(shù)的發(fā)展步伐。
外部法律規(guī)制路徑強(qiáng)調(diào)法律與技術(shù)要保持距離。法律作為一種社會(huì)規(guī)范,具有抽象性和穩(wěn)定性。法律是通過(guò)一系列的規(guī)則和原則的設(shè)置來(lái)調(diào)整法律主體的行為,這些規(guī)則和原則是高度抽象和概括化的,它們構(gòu)成了法律體系的基本框架。相比之下,技術(shù)發(fā)展中出現(xiàn)的問(wèn)題則有具體性、多樣性和不斷變化的特點(diǎn)。法律太接近技術(shù)被認(rèn)為會(huì)損害法律本身的穩(wěn)定性和可預(yù)見(jiàn)性。
因而,外部路徑下法律具有一定的滯后性。法律通常是在一定的社會(huì)、經(jīng)濟(jì)和文化背景下制定的,并且受到特定歷史時(shí)期的社會(huì)價(jià)值觀和文化傳統(tǒng)的影響。因此,法律往往落后于技術(shù)的變化,需要在新的社會(huì)情況和技術(shù)發(fā)展要求下改變。大數(shù)據(jù)時(shí)代,人工智能技術(shù)高速發(fā)展,當(dāng)今的人工智能已經(jīng)從單純的技術(shù)工具逐步升級(jí)為復(fù)雜的自主性體系,并通過(guò)嵌入社會(huì)權(quán)力結(jié)構(gòu)發(fā)揮作用。外部路徑下法律的這一局限性在當(dāng)今時(shí)代表現(xiàn)得更加明顯,外部路徑越來(lái)越難以追上技術(shù)的發(fā)展速度,可能導(dǎo)致法律在新的網(wǎng)絡(luò)時(shí)代無(wú)法充分保護(hù)公民的權(quán)益。技術(shù)導(dǎo)致的多主體性、主體與客體的模糊性也使得法律更加難以理解和實(shí)施。
因此,由于外部路徑下法律與技術(shù)需要保持一定的距離,進(jìn)而難以完全適應(yīng)社會(huì)的變化和技術(shù)的發(fā)展,所以需要引入其他的法律規(guī)制路徑作為補(bǔ)充。
2.外部規(guī)制路徑僅解決人工智能相關(guān)人員的價(jià)值判斷問(wèn)題
根據(jù)拉茲對(duì)于法律作用的分類,法律具有規(guī)范作用和社會(huì)作用。當(dāng)法律作為行為規(guī)范作用于人工智能領(lǐng)域時(shí),主要通過(guò)對(duì)人工智能相關(guān)人員的行為起到導(dǎo)向和引導(dǎo)的作用,即引導(dǎo)相關(guān)人員進(jìn)行價(jià)值判斷來(lái)進(jìn)行規(guī)制。法律具有指引、評(píng)價(jià)、預(yù)測(cè)、教育和強(qiáng)制作用。法律是通過(guò)規(guī)定人工智能的相關(guān)人員在法律上的權(quán)利和義務(wù)以及違反法律規(guī)定應(yīng)承擔(dān)的責(zé)任來(lái)調(diào)整主體的行為的。通過(guò)法律,人工智能的相關(guān)人員可以知道什么是應(yīng)當(dāng)做、可以做的,什么是不能做的。法律可以防止人工智能相關(guān)人員作出違反法律指明的行為,鼓勵(lì)人工智能相關(guān)人員從事法律所容許的行為。同時(shí),根據(jù)法律規(guī)定,人工智能相關(guān)人員可以預(yù)先估計(jì)到他們相互間將如何行為,國(guó)家機(jī)關(guān)及其工作人員將如何行為。人工智能相關(guān)人員因而可以根據(jù)法律來(lái)確定自己的行為方向、方式、界限,合理地作出安排,采取措施。
結(jié)合現(xiàn)在的法律和法學(xué)理論,外部路徑已經(jīng)解決了一部分價(jià)值判斷問(wèn)題。例如關(guān)于人工智能技術(shù)運(yùn)用中個(gè)人信息保護(hù)問(wèn)題,《中華人民共和國(guó)民法典》《個(gè)人信息保護(hù)法》都針對(duì)互聯(lián)網(wǎng)平臺(tái)對(duì)個(gè)人信息的權(quán)利、義務(wù)、責(zé)任范圍等作出了規(guī)定。《刑法》《行政法》等也通過(guò)設(shè)置懲罰方式為個(gè)人信息保護(hù)提供充分的規(guī)則供給。又如,《反不正當(dāng)競(jìng)爭(zhēng)法》對(duì)互聯(lián)網(wǎng)平臺(tái)涉數(shù)據(jù)不正當(dāng)競(jìng)爭(zhēng)行為進(jìn)行規(guī)制,從而達(dá)到間接保護(hù)網(wǎng)絡(luò)消費(fèi)者個(gè)人信息的目的。再如人工智能應(yīng)用的前沿領(lǐng)域——自動(dòng)駕駛問(wèn)題,自動(dòng)駕駛在迅猛發(fā)展的同時(shí),也遇到了自動(dòng)駕駛汽車(chē)的主體地位和責(zé)任認(rèn)定等倫理和法律挑戰(zhàn)。有學(xué)者認(rèn)為,在民法意義上,汽車(chē)故障導(dǎo)致的事故引發(fā)侵權(quán)責(zé)任,可以使用現(xiàn)有的機(jī)動(dòng)車(chē)交通事故責(zé)任規(guī)則和產(chǎn)品責(zé)任規(guī)則來(lái)進(jìn)行規(guī)制。有學(xué)者認(rèn)為對(duì)于自動(dòng)駕駛模式下發(fā)生的交通事故侵權(quán),從救濟(jì)與預(yù)防目標(biāo)來(lái)看,應(yīng)由制造商一方承擔(dān)產(chǎn)品責(zé)任。有學(xué)者認(rèn)為司法機(jī)關(guān)應(yīng)當(dāng)通過(guò)利用刑罰有效性原則排除主體爭(zhēng)議。在刑法方面,有學(xué)者認(rèn)為可以基于既有刑法教義學(xué)進(jìn)行追責(zé),具體的刑事歸責(zé)方面,可以類型化為:非法利用自動(dòng)駕駛汽車(chē)作為犯罪工具者的故意責(zé)任、駕駛?cè)说倪^(guò)失責(zé)任、系統(tǒng)故障導(dǎo)致的生產(chǎn)銷(xiāo)售者的產(chǎn)品責(zé)任以及駕駛?cè)伺c系統(tǒng)存在過(guò)失競(jìng)合的責(zé)任等四種情況。
學(xué)者和立法者通過(guò)現(xiàn)有法律,解決了部分人工智能的相關(guān)人員哪些行為可以為、哪些行為必須為、哪些行為不能為的價(jià)值判斷問(wèn)題。然而,由于人工智能具有一定的智能性,僅僅通過(guò)規(guī)制人工智能相關(guān)人員這種外部路徑不足以應(yīng)對(duì)人工智能的規(guī)制需要,不能達(dá)到像規(guī)制其他技術(shù)那樣的效果,所以在對(duì)人工智能的規(guī)制時(shí)經(jīng)常出現(xiàn)規(guī)制失效、規(guī)制限制發(fā)展的情況。
三、人工智能法律規(guī)制內(nèi)部路徑的提出
面對(duì)權(quán)利義務(wù)責(zé)任模式的外部路徑在一些人工智能治理場(chǎng)景下的失效,需要有適應(yīng)人工智能特點(diǎn)的規(guī)制路徑來(lái)克服人工智能高效、海量、黑箱等特點(diǎn)帶來(lái)的難以有效規(guī)制的困境。基于此,本文提出了一種新的人工智能法律規(guī)制的內(nèi)部路徑,對(duì)外部路徑進(jìn)行補(bǔ)充,協(xié)調(diào)人工智能規(guī)制和發(fā)展的需要。
(一)內(nèi)部路徑直接規(guī)制人工智能本身
人工智能法律規(guī)制的外部路徑和內(nèi)部路徑是相對(duì)于人工智能本身而言的。如前所述,外部路徑是指以構(gòu)建權(quán)利義務(wù)責(zé)任的方式,通過(guò)影響人工智能相關(guān)人員的行為和意圖來(lái)實(shí)現(xiàn)對(duì)人工智能的規(guī)制。以國(guó)家互聯(lián)網(wǎng)信息辦公室起草的《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》為例,該草案主要規(guī)制對(duì)象是利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個(gè)人,規(guī)定其遵守法律法規(guī)、尊重社會(huì)公德、公序良俗等義務(wù),如利用生成式人工智能生成的內(nèi)容不得含有危害國(guó)家安全的內(nèi)容以及歧視的內(nèi)容,履行個(gè)人信息保護(hù)義務(wù)等。組織和個(gè)人違反規(guī)定的,應(yīng)當(dāng)根據(jù)相關(guān)法律法規(guī)和本草案承擔(dān)相應(yīng)的刑事責(zé)任和行政責(zé)任。外部路徑以人工智能相關(guān)人員為主體,將人工智能視為技術(shù)、工具或者平臺(tái),以技術(shù)中立或者工具中立的觀點(diǎn),認(rèn)為人工智能違反法律的本質(zhì)是使用人工智能的人違反法律,規(guī)范使用人工智能的人的行為,能促進(jìn)人工智能的健康發(fā)展和規(guī)范應(yīng)用。
然而人工智能并非以往的技術(shù)或者工具,其具有一定的智能性,尤其是強(qiáng)人工智能已經(jīng)開(kāi)始顯現(xiàn),在算法和數(shù)據(jù)的支持下,人工智能在一定程度上能夠自主行為和決策。在這種背景下,提出內(nèi)部路徑是可能的,也是必須的。內(nèi)部路徑是指直接規(guī)制人工智能本身,在人工智能會(huì)被影響的層面和方式上,將法律的要求通過(guò)計(jì)算機(jī)語(yǔ)言和方法來(lái)表達(dá),使得人工智能能夠理解,并且主動(dòng)遵循。內(nèi)部路徑相對(duì)于外部路徑來(lái)說(shuō)深入人工智能內(nèi)部,建立在人工智能具有一定智能性的基礎(chǔ)之上,以人工智能本身為規(guī)制對(duì)象,即在程序、算法層面約束人工智能無(wú)法違反法律,即使其使用者要求其違反法律或?qū)⑵溆糜趯?shí)施違法行為。目前,我國(guó)一般采取外部路徑規(guī)制人工智能,但部分法律法規(guī)中體現(xiàn)出了內(nèi)部路徑的精神,如,《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》中已經(jīng)開(kāi)始注意會(huì)直接影響人工智能行為的幾個(gè)因素,并對(duì)其規(guī)定了一些基本要求,包括對(duì)人工智能的預(yù)訓(xùn)練過(guò)程、大模型的調(diào)用、訓(xùn)練集的要求等。
(二)內(nèi)部規(guī)制路徑通過(guò)在技術(shù)底層融入法律規(guī)則的要求實(shí)現(xiàn)對(duì)人工智能的直接規(guī)制
既然要直接規(guī)制人工智能,那就要讓人工智能理解法律規(guī)則,其行為和決策直接受法律規(guī)則約束。所以內(nèi)部路徑與外部路徑本質(zhì)的區(qū)別是,外部路徑是讓人懂法律規(guī)則,而內(nèi)部路徑是讓人工智能“懂”法律規(guī)則。因此,內(nèi)部路徑的核心是法律規(guī)則的計(jì)算機(jī)表達(dá)。只有通過(guò)計(jì)算機(jī)充分準(zhǔn)確地表達(dá)了法律規(guī)則,人工智能才能理解和遵循。值得一提的是,人工智能雖然有智能化的表現(xiàn),但是跟人還是有本質(zhì)的不同。而且讓人工智能“懂”法律,是為了更有效地約束人工智能,讓人工智能更好地服務(wù)于人,而不是認(rèn)為人工智能具有跟人一樣的主體地位。所以所謂讓人工智能理解和遵循法律規(guī)則,其實(shí)是指在人工智能能夠被直接影響的層面按照法律規(guī)則的要求予以規(guī)范,換言之,在能夠直接影響人工智能的層面將法律規(guī)則的要求表達(dá)出來(lái),使得人工智能直接受到法律規(guī)則的約束和規(guī)范。
現(xiàn)有的智慧法治、數(shù)字法治實(shí)踐也是沿著這個(gè)方向在不斷努力,讓計(jì)算機(jī)能夠獲取法律知識(shí),自動(dòng)完成法律任務(wù)。雖然這些實(shí)踐的目的是研究如何將人工智能技術(shù)應(yīng)用到法律領(lǐng)域,而不是研究如何規(guī)范人工智能技術(shù)本身,但是為了更好地完成這些法律任務(wù),已有研究在不斷地完善法律規(guī)則相關(guān)知識(shí)體系的計(jì)算機(jī)表達(dá)。因?yàn)榉梢?guī)則的相關(guān)知識(shí)越能較好地被計(jì)算機(jī)獲取和處理,計(jì)算機(jī)完成相關(guān)法律任務(wù)的能力已經(jīng)被證明就會(huì)越好,就越能得到認(rèn)可。雖然人工智能無(wú)法像人類那樣理解法條、進(jìn)行三段論式的法律推理,但是人工智能有適應(yīng)其特點(diǎn)的三段論適用法律的方式。在理解、確定適用的法律規(guī)范(大前提)方面,已有不少研究取得較大進(jìn)展??梢酝ㄟ^(guò)構(gòu)建法律規(guī)則的要件體系并將其標(biāo)簽化、構(gòu)建法律規(guī)則體系的圖表、對(duì)結(jié)構(gòu)化的判決書(shū)中的裁判說(shuō)理和裁判依據(jù)部分進(jìn)行自動(dòng)處理等方法將關(guān)于法律規(guī)則的知識(shí)轉(zhuǎn)變成計(jì)算機(jī)可以自動(dòng)獲取和學(xué)習(xí)的知識(shí),訓(xùn)練計(jì)算機(jī)在法律規(guī)則體系中尋找、確定與案件事實(shí)相關(guān)的可能適用的大前提的能力,訓(xùn)練計(jì)算機(jī)將大前提要件化。在分析、識(shí)別關(guān)鍵性事實(shí)(小前提)方面,已有研究也有不少成果。可以通過(guò)進(jìn)一步豐富要件體系、構(gòu)建關(guān)鍵性事實(shí)的標(biāo)簽體系、有效運(yùn)用通用自然語(yǔ)言大模型、自動(dòng)生成標(biāo)注的法律事實(shí)數(shù)據(jù)集等方法訓(xùn)練計(jì)算機(jī)自動(dòng)識(shí)別、抽取關(guān)鍵性事實(shí)的能力。在根據(jù)大、小前提進(jìn)行演繹得到結(jié)果方面,已有研究的嘗試顯示,可以通過(guò)自動(dòng)獲取關(guān)鍵性事實(shí)與裁判依據(jù)及爭(zhēng)議焦點(diǎn)的對(duì)應(yīng)關(guān)系表、構(gòu)建法律規(guī)則體系的圖表、設(shè)定邏輯規(guī)則等方法訓(xùn)練計(jì)算機(jī)進(jìn)行法律推理、確定法律適用路徑、得到法律適用結(jié)果的能力。
除了法律適用,人工智能還可能在具體行動(dòng)的過(guò)程中獲取法律知識(shí)、受到法律規(guī)則的約束??偨Y(jié)已有研究,本文認(rèn)為法律規(guī)則計(jì)算機(jī)表達(dá)具體包括法律規(guī)則的標(biāo)簽化、法律任務(wù)的要件化、法律知識(shí)的數(shù)據(jù)化、法律規(guī)則體系的圖表化、法律規(guī)則表達(dá)效果的指標(biāo)化等。法律規(guī)則的標(biāo)簽化是指將法律規(guī)則的理解轉(zhuǎn)換成標(biāo)簽體系,通過(guò)標(biāo)注數(shù)據(jù),讓計(jì)算機(jī)自動(dòng)獲取。法律任務(wù)的要件化是指將法律規(guī)則的行動(dòng)預(yù)期和適用等任務(wù)進(jìn)一步分解為相關(guān)法律規(guī)則的要件及要件之間的邏輯關(guān)系,讓計(jì)算機(jī)自動(dòng)獲取法律規(guī)則的要件及邏輯結(jié)構(gòu)知識(shí),分步完成這些任務(wù)。法律知識(shí)的數(shù)據(jù)化是指將法律知識(shí)通過(guò)數(shù)據(jù)表示出來(lái),運(yùn)用像正則表達(dá)式、通用自然語(yǔ)言大模型、標(biāo)注數(shù)據(jù)等方法讓計(jì)算機(jī)通過(guò)數(shù)據(jù)獲`取法律知識(shí)。法律規(guī)則體系的圖表化是指將法律規(guī)則之間的對(duì)應(yīng)關(guān)系、先后的變化關(guān)系,法律規(guī)則的要件邏輯關(guān)系、優(yōu)先級(jí)和權(quán)重等讓計(jì)算機(jī)通過(guò)像知識(shí)圖譜、決策樹(shù)、回歸模型等方法自動(dòng)獲取。法律規(guī)則表達(dá)效果的指標(biāo)化是指在檢驗(yàn)人工智能完成法律任務(wù)的效果指標(biāo)中增加反映其對(duì)法律規(guī)則理解能力的指標(biāo),對(duì)非法律任務(wù)的人工智能完成效果的檢測(cè)也適當(dāng)考慮增加該場(chǎng)景相關(guān)的法律規(guī)則遵循效果的指標(biāo)。
通過(guò)這些方法,法律規(guī)則的計(jì)算機(jī)表達(dá)已經(jīng)在不斷實(shí)踐,而且在不斷完善。這些方法都旨在讓計(jì)算機(jī)能夠獲取法律知識(shí),并在完成任務(wù)時(shí)運(yùn)用這些知識(shí)。在完成像類案檢索、輔助司法裁判等司法類任務(wù)時(shí),人工智能可以通過(guò)前述方法在理解法律規(guī)則的基礎(chǔ)上進(jìn)行檢索、給出建議。在完成像合同生成、協(xié)議審查、法律智能問(wèn)答等公共法律服務(wù)類任務(wù)時(shí),人工智能可以通過(guò)前述方法根據(jù)獲取的法律知識(shí),撰寫(xiě)符合法律要求的合同,審查協(xié)議的合法性,給出符合法律規(guī)定的回答和行動(dòng)建議。在完成像自動(dòng)駕駛、自動(dòng)交易、自動(dòng)分享傳播、自動(dòng)推薦、自動(dòng)篩查等行動(dòng)類任務(wù)時(shí),人工智能可以自動(dòng)選擇符合法律規(guī)定的方法來(lái)完成任務(wù),避免不合規(guī)定的駕駛行為,阻止虛假欺詐的交易,及時(shí)刪除侵權(quán)數(shù)據(jù)的分發(fā),阻止侵犯?jìng)€(gè)人信息的收集處理行為,防止內(nèi)容違法犯罪的數(shù)據(jù)傳播。
在法律規(guī)則計(jì)算機(jī)表達(dá)的不斷發(fā)展下,可以預(yù)見(jiàn)會(huì)有兩種模式的內(nèi)部路徑。一是國(guó)家主導(dǎo)的模式,具體以國(guó)家機(jī)關(guān)組織、國(guó)家資助高??蒲性核邪l(fā)、企業(yè)負(fù)責(zé)工程建設(shè)的路徑展開(kāi)。這樣的模式可能形成一些基礎(chǔ)類的工具,比如通用的法律規(guī)則要件標(biāo)簽體系、法律規(guī)則體系的圖表、基礎(chǔ)的標(biāo)注數(shù)據(jù)集、通用的合同協(xié)議生成模型等。還可能發(fā)布一些排除高風(fēng)險(xiǎn)的具體任務(wù)的基座模型,比如建議的自動(dòng)駕駛基本要求基座模型、高風(fēng)險(xiǎn)內(nèi)容及可疑交易自動(dòng)判斷篩查基座模型等。以及在立法、司法、執(zhí)法工作中運(yùn)用的人工智能工具,用以輔助識(shí)別、規(guī)制人工智能行為。二是市場(chǎng)主導(dǎo)的模式,具體以國(guó)家政策支持和引導(dǎo)、市場(chǎng)多主體參與、企業(yè)投資研發(fā)、良性競(jìng)爭(zhēng)的路徑展開(kāi)。這樣的模式可以一定程度參與和支持第一種模式,更重要的是可以產(chǎn)生豐富多樣的人工智能產(chǎn)品和服務(wù),直接促進(jìn)人工智能技術(shù)向善,推動(dòng)社會(huì)經(jīng)濟(jì)生產(chǎn)生活高速發(fā)展。比如形成可以為人工智能應(yīng)用直接調(diào)用的相關(guān)領(lǐng)域法律要求的法律法規(guī)要件標(biāo)簽體系、基座模型、白名單數(shù)據(jù)、通用算法規(guī)則,發(fā)布可以用來(lái)檢測(cè)人工智能應(yīng)用對(duì)法律規(guī)則遵循效果的通用標(biāo)注數(shù)據(jù)集和指標(biāo)體系,產(chǎn)生可以直接調(diào)用、與人工智能應(yīng)用結(jié)合完成合規(guī)審查的任務(wù)模型等。
四、人工智能法律規(guī)制困境需要內(nèi)部路徑的補(bǔ)充
(一)外部規(guī)制路徑存在規(guī)制失效、監(jiān)管成本過(guò)高的情況
隨著人工智能技術(shù)的不斷發(fā)展,其在社會(huì)生活中的應(yīng)用越來(lái)越廣泛,但同時(shí)也引發(fā)了一系列的法律問(wèn)題?,F(xiàn)有的基于權(quán)利義務(wù)責(zé)任分配的外部路徑是規(guī)制人工智能的主要路徑,但其難以有效應(yīng)對(duì)人工智能的高效、海量和黑箱特性,即法律只能解決人的權(quán)利和義務(wù),但不能使人工智能得到有針對(duì)性地調(diào)整,法律與技術(shù)始終保持著距離,這已成為當(dāng)前面臨的困境之一。
第一,責(zé)任主體的認(rèn)定較為困難。隨著人工智能技術(shù)的不斷進(jìn)步,越來(lái)越多的個(gè)人數(shù)據(jù)、個(gè)人信息被收集、記錄和儲(chǔ)存,這也意味著越來(lái)越多的個(gè)人信息、個(gè)人數(shù)據(jù)可能存在被泄露的風(fēng)險(xiǎn),甚至?xí)M(jìn)一步導(dǎo)致個(gè)人隱私泄露、大數(shù)據(jù)殺熟等違法行為的出現(xiàn)。然而,由于人工智能技術(shù)所涉及的利益方眾多,存在著復(fù)雜的權(quán)利義務(wù)關(guān)系,在這些違法犯罪行為發(fā)生時(shí),存在著責(zé)任主體識(shí)別困難、責(zé)任承擔(dān)難以落實(shí)等困境。有的學(xué)者認(rèn)為,網(wǎng)絡(luò)侵權(quán)行為涉及主體眾多,包括算法開(kāi)發(fā)者、算法使用者(即平臺(tái))、算法消費(fèi)者,在某些情形下,算法開(kāi)發(fā)者與算法使用者甚至?xí)霈F(xiàn)重合。有的學(xué)者認(rèn)為,“監(jiān)管機(jī)構(gòu)—平臺(tái)—用戶”的監(jiān)管路徑可能會(huì)出現(xiàn)平臺(tái)責(zé)任邊界不清的風(fēng)險(xiǎn)。有的學(xué)者認(rèn)為,要求平臺(tái)為算法部署和應(yīng)用的不利后果承擔(dān)責(zé)任,可能會(huì)因?yàn)闆](méi)有評(píng)判算法部署和應(yīng)用是否合理的法定標(biāo)準(zhǔn),而使平臺(tái)責(zé)任范疇模糊。在這種情況下,我們需要通過(guò)更加科學(xué)的方式來(lái)確定責(zé)任,而不是僅僅依靠傳統(tǒng)的權(quán)利義務(wù)分配方式來(lái)規(guī)制人工智能。
第二,人工智能監(jiān)管成本較高。由于人工智能犯罪產(chǎn)生的數(shù)據(jù)海量,以及人工智能犯罪的高技術(shù)性和隱蔽性,導(dǎo)致人工智能監(jiān)管成本較高。人工智能犯罪與傳統(tǒng)犯罪相比,具有犯罪行為發(fā)生的隨機(jī)性、犯罪過(guò)程迅速、犯罪后果呈裂變式等特點(diǎn),因此監(jiān)管機(jī)構(gòu)對(duì)其監(jiān)管成本較高。人工智能犯罪的監(jiān)管難度也在于其技術(shù)手段的復(fù)雜性。由于人工智能系統(tǒng)具有高度的復(fù)雜性和不確定性,人工智能應(yīng)用已不僅僅是技術(shù)化的工具,而是越來(lái)越具有類似于人類思維的能力,監(jiān)管機(jī)構(gòu)需要投入大量的技術(shù)資源來(lái)分析和識(shí)別犯罪行為。人工智能系統(tǒng)還具有自我學(xué)習(xí)和自我修復(fù)的能力,這也增加了監(jiān)管難度。隨著人工智能技術(shù)的快速發(fā)展,如何對(duì)其進(jìn)行有效監(jiān)管已經(jīng)成為一個(gè)重要的課題,監(jiān)管機(jī)構(gòu)需要采用更加高效、精準(zhǔn)的監(jiān)管手段來(lái)應(yīng)對(duì)人工智能犯罪帶來(lái)的挑戰(zhàn)。
第三,人工智能存在黑箱問(wèn)題,加重了責(zé)任主體認(rèn)定的困難。由于人工智能技術(shù)本身的特性,其決策過(guò)程往往是黑箱化的,這使得人們很難了解其內(nèi)部決策的原因和依據(jù)。有學(xué)者認(rèn)為人工智能的規(guī)則設(shè)計(jì)和運(yùn)作,有時(shí)會(huì)出現(xiàn)用戶甚至開(kāi)發(fā)者無(wú)法理解的秘密狀態(tài)。有學(xué)者認(rèn)為在人工智能系統(tǒng)輸入的數(shù)據(jù)和其輸出的結(jié)果之間,存在著人們無(wú)法洞悉的“隱層”,這就是“算法黑箱”。從算法決策和人類決策的特性可以發(fā)現(xiàn),算法危機(jī)的產(chǎn)生并非全由算法黑箱導(dǎo)致,人類決策同樣具有“黑箱性”。有學(xué)者認(rèn)為算法的不可解釋性使得其對(duì)現(xiàn)有的法律責(zé)任體系適用困難。目前尚無(wú)完整的技術(shù)方案對(duì)黑箱算法進(jìn)行全局解釋,雖然存在局部補(bǔ)充解釋工具作為替代性解釋方法,但該類解釋的可信度一直面臨質(zhì)疑。這也給法律規(guī)制帶來(lái)了困難,因?yàn)楹茈y確定哪些決策是合法的,哪些決策是非法的。因此,需要采用更加科學(xué)的方式來(lái)評(píng)估人工智能技術(shù)的合法性,并對(duì)違法決策進(jìn)行懲處。
(二)外部規(guī)制路徑容易造成規(guī)制限制發(fā)展的情況
第一,責(zé)任主體范圍過(guò)大以及平臺(tái)責(zé)任過(guò)重。外部路徑是通過(guò)人工智能相關(guān)人員來(lái)規(guī)制人工智能,所以要確定責(zé)任主體,但是人工智能相關(guān)人員的范圍過(guò)于寬泛,包括關(guān)鍵基礎(chǔ)設(shè)施運(yùn)營(yíng)者、個(gè)人信息處理者,后擴(kuò)展至互聯(lián)網(wǎng)服務(wù)提供者,再后擴(kuò)展至任何主體及個(gè)人。而由于責(zé)任主體過(guò)于寬泛,所有人工智能相關(guān)人員都成為監(jiān)管對(duì)象。此外,由于責(zé)任邊界的模糊,容易一刀切地由互聯(lián)網(wǎng)平臺(tái)來(lái)承擔(dān)責(zé)任,導(dǎo)致平臺(tái)責(zé)任過(guò)重?!稊?shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》等多部法律都對(duì)人工智能相關(guān)人員的責(zé)任作出了規(guī)定,刑法也設(shè)置了幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪和拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪來(lái)對(duì)互聯(lián)網(wǎng)平臺(tái)進(jìn)行規(guī)制。當(dāng)今時(shí)代,互聯(lián)網(wǎng)平臺(tái)不僅要對(duì)算法的設(shè)計(jì)負(fù)起責(zé)任,同樣也要對(duì)算法在部署和應(yīng)用中產(chǎn)生的不利法律后果承擔(dān)責(zé)任。人工智能技術(shù)的研發(fā)在當(dāng)前外部路徑下存在不確定性和一定風(fēng)險(xiǎn),人工智能產(chǎn)業(yè)的發(fā)展受限。
第二,規(guī)制的邊界不確定,合規(guī)治理的成本過(guò)高。人工智能技術(shù)在研發(fā)和運(yùn)用過(guò)程中,個(gè)體和機(jī)構(gòu)的很多行為都很容易觸犯相關(guān)法律,企業(yè)、個(gè)人難以界定哪些行為是違法行為,容易導(dǎo)致人工智能企業(yè)創(chuàng)新能力的下降。例如,從研發(fā)角度,《中華人民共和國(guó)刑法修正案(九)》專門(mén)規(guī)定了幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪和拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪,網(wǎng)絡(luò)服務(wù)提供者等主體為他人基于信息網(wǎng)絡(luò)技術(shù)實(shí)施犯罪行為提供了網(wǎng)絡(luò)技術(shù)與網(wǎng)絡(luò)結(jié)算等各類支持與幫助,或者不履行信息網(wǎng)絡(luò)安全管理義務(wù)的消極不作為方式提供技術(shù)支持、幫助,將受到刑法的規(guī)制。然而,何為促進(jìn)犯罪活動(dòng)的技術(shù)支持、幫助行為,何為正常的技術(shù)活動(dòng),在司法實(shí)踐中界限還較為模糊,這容易構(gòu)成信息網(wǎng)絡(luò)服務(wù)者經(jīng)營(yíng)活動(dòng)的重大刑事法律風(fēng)險(xiǎn),對(duì)各類創(chuàng)新性的信息網(wǎng)絡(luò)技術(shù)構(gòu)成了壓力與限制。又如,研發(fā)數(shù)據(jù)的獲取、處理、分析、應(yīng)用就涉及多個(gè)主體和多部法律的要求,數(shù)據(jù)合規(guī)涉及的法條眾多,數(shù)據(jù)的獲取、處理、分析、應(yīng)用等多個(gè)階段都要重復(fù)受到法律的限制,這使得人工智能研發(fā)企業(yè)難以確定哪些研發(fā)行為、預(yù)訓(xùn)練、數(shù)據(jù)、數(shù)據(jù)獲取和處理分析行為及算法是合法的。隨著我國(guó)不斷加強(qiáng)互聯(lián)網(wǎng)平臺(tái)等主體責(zé)任的落實(shí),平臺(tái)方越來(lái)越需要加強(qiáng)內(nèi)部監(jiān)管,從而走向另一個(gè)極端——過(guò)度審查,這會(huì)導(dǎo)致企業(yè)合規(guī)成本過(guò)高,還會(huì)降低互聯(lián)網(wǎng)平臺(tái)經(jīng)濟(jì)的發(fā)展質(zhì)量,阻礙平臺(tái)經(jīng)濟(jì)中信息、數(shù)據(jù)等關(guān)鍵資源的自由流通。
可以看出,當(dāng)前的外部路徑在一定程度上存在著過(guò)度干預(yù)的風(fēng)險(xiǎn)。這種過(guò)度干預(yù)不僅表現(xiàn)在法律對(duì)于人工智能研發(fā)的寬泛管制,也表現(xiàn)在法律對(duì)于人工智能企業(yè)的多方面審查和干預(yù)。這可能會(huì)限制企業(yè)的自由和創(chuàng)新能力,從而阻礙人工智能的發(fā)展。
(三)內(nèi)部路徑的特點(diǎn)可以補(bǔ)充外部路徑,更加準(zhǔn)確、有效地規(guī)制人工智能
前述兩點(diǎn)表明,人工智能所帶來(lái)的挑戰(zhàn)需要我們采用更加全面、科學(xué)的法律規(guī)制路徑來(lái)應(yīng)對(duì)。我們需要在充分考慮各種權(quán)利義務(wù)責(zé)任的同時(shí),采用高效、精準(zhǔn)的內(nèi)部規(guī)制路徑加以補(bǔ)充,以確保人工智能技術(shù)在社會(huì)生活中得到合理、有效地監(jiān)管。內(nèi)部規(guī)制路徑具有穿透式規(guī)制和以人工智能規(guī)制人工智能的特點(diǎn),可以更加準(zhǔn)確、有效地規(guī)制人工智能應(yīng)用。
1.穿透式規(guī)制
內(nèi)部路徑具有穿透式規(guī)制的特點(diǎn),即相對(duì)于外部路徑通過(guò)規(guī)制人工智能相關(guān)人員間接規(guī)制人工智能,內(nèi)部路徑穿透人工智能相關(guān)人員,直接規(guī)制人工智能。在工具不智能、完全隸屬于人的情況下,法律無(wú)法規(guī)制工具本身,工具的活動(dòng)實(shí)際上反映人的行為,法律只能通過(guò)調(diào)整人的行為避免工具對(duì)他人造成妨礙或危害。但是人工智能相對(duì)于普通工具具有海量、高效和黑箱的特點(diǎn),能力極其強(qiáng)大,所以造成前文分析的規(guī)制困境。此外,在人工智能已彰顯一定智能甚至強(qiáng)智能的情況下,人工智能的行為具有一定的自主性,在有些時(shí)候可能超越其使用者的意圖或者目的,其能力和副作用可能超出其設(shè)計(jì)者的預(yù)設(shè)。此時(shí),人工智能的行為實(shí)際上在人工智能理解人的指令和人工智能本身的自主決策雙重支配之下。因此,外部路徑的實(shí)現(xiàn)是由人工智能相關(guān)人員理解法律的要求,從而調(diào)整人工智能的程序、算法,規(guī)制人工智能的行為,具有間接性;內(nèi)部路徑的實(shí)現(xiàn)是將法律的要求直接轉(zhuǎn)化為人工智能的程序、算法,由人工智能理解并執(zhí)行,具有穿透性、直接性。
內(nèi)部路徑的穿透式規(guī)制特點(diǎn)在自動(dòng)駕駛系統(tǒng)中有較好的體現(xiàn)??紤]到自動(dòng)駕駛的汽車(chē)和人駕駛的汽車(chē)將長(zhǎng)期混合存在的情況,自動(dòng)駕駛汽車(chē)必須和人駕駛的汽車(chē)遵守同一套交通規(guī)則體系,在交通規(guī)則體系下由自動(dòng)駕駛系統(tǒng)代替人從事駕駛活動(dòng),因此,將由自然語(yǔ)言表述的交通規(guī)則轉(zhuǎn)化為自動(dòng)駕駛系統(tǒng)能理解和執(zhí)行的計(jì)算機(jī)語(yǔ)言是必要的。目前,學(xué)者已開(kāi)展了將自然語(yǔ)言表述的交通規(guī)則轉(zhuǎn)化為自動(dòng)駕駛系統(tǒng)可以理解和執(zhí)行的數(shù)字化交通規(guī)則的研究。
2.以人工智能規(guī)制人工智能
內(nèi)部路徑的另一大特點(diǎn)是以人工智能規(guī)制人工智能。該特點(diǎn)有兩方面內(nèi)容。一是,在人工智能能夠被直接影響的層面進(jìn)行規(guī)制,具體包括出臺(tái)通用的法律知識(shí)圖譜或決策樹(shù)、回歸的基礎(chǔ)工具和基座模型,發(fā)布標(biāo)注規(guī)則體系的建議,提供通用的標(biāo)注數(shù)據(jù)集,以及法律規(guī)則表達(dá)是否準(zhǔn)確充分的檢測(cè)指標(biāo)體系等。這些方法可以加強(qiáng)對(duì)法律規(guī)則的計(jì)算機(jī)表達(dá),使得人工智能在運(yùn)行時(shí)能夠直接獲取法律的知識(shí),受到法律的約束,在法律的框架之內(nèi)執(zhí)行其使用者的指令,提高其活動(dòng)的合法性。
二是構(gòu)建人工智能的法治系統(tǒng),通過(guò)人工智能法治工具,自動(dòng)識(shí)別、規(guī)范、處理人工智能應(yīng)用的行為,并通過(guò)反饋機(jī)制讓人工智能自動(dòng)改善自己的行為,提高合法性。通過(guò)前文的方法,不斷提高計(jì)算機(jī)自動(dòng)獲取法律知識(shí)、進(jìn)行法律規(guī)則適用判斷的能力,構(gòu)建和完善能夠理解并遵守法律規(guī)則的人工智能司法、執(zhí)法系統(tǒng),在司法活動(dòng)中可以輔助司法人員更高效地裁決涉人工智能案件,在執(zhí)法活動(dòng)中可以幫助執(zhí)法人員更加有效地進(jìn)行法律監(jiān)督,按照法律規(guī)則的要求開(kāi)展執(zhí)法活動(dòng),實(shí)現(xiàn)以人工智能規(guī)制人工智能應(yīng)用。
五、內(nèi)部路徑可以克服人工智能規(guī)制困境的理由
如前所述,在使用外部路徑規(guī)制人工智能時(shí)會(huì)陷入兩方面的困境,而內(nèi)部路徑則可以利用其自身所具有的特性,在外部路徑“失效”的場(chǎng)景中發(fā)揮作用,從而對(duì)外部路徑起到有效補(bǔ)充,最終將二者相結(jié)合,實(shí)現(xiàn)對(duì)人工智能的有效規(guī)制。
(一)內(nèi)部路徑可以提升外部路徑規(guī)制的有效性
前文已經(jīng)分析了通過(guò)外部路徑規(guī)制人工智能時(shí)存在明顯不足的原因,主要是因?yàn)樗惴ê谙涞拇嬖谑顾惴ň哂刑烊黄琳?、從弱人工智能向?qiáng)人工智能的技術(shù)革新使人工智能應(yīng)用場(chǎng)景中的責(zé)任主體越發(fā)模糊、權(quán)利義務(wù)關(guān)系難以準(zhǔn)確判斷,以上一系列因人工智能自身“智能”特性所引發(fā)的規(guī)制難點(diǎn),使現(xiàn)有通過(guò)調(diào)整人(主要為人工智能開(kāi)發(fā)者、運(yùn)營(yíng)者、提供者等)而影響人工智能的外部路徑難以對(duì)人工智能實(shí)現(xiàn)有效規(guī)制。因此需要內(nèi)部路徑的補(bǔ)充,彌補(bǔ)外部路徑存在的不足。
1.內(nèi)部路徑可以有效地確定規(guī)制的對(duì)象
內(nèi)部路徑的“內(nèi)部”體現(xiàn)為一種穿透式的規(guī)制,即越過(guò)相關(guān)人員,直接規(guī)制人工智能本身。這一路徑的核心在于通過(guò)法律規(guī)則的計(jì)算機(jī)表達(dá),使計(jì)算機(jī)能夠理解、遵循事先內(nèi)置于其中的法律規(guī)則,從而讓人工智能的運(yùn)行、生成結(jié)果符合已經(jīng)預(yù)先內(nèi)置于代碼中的法律規(guī)則,即將法律的指引作用運(yùn)用到人工智能的運(yùn)行過(guò)程中。由于內(nèi)部路徑是利用計(jì)算機(jī)技術(shù)表達(dá)法律規(guī)則的要求,所以可以通過(guò)一些在數(shù)據(jù)的收集處理和模型的搭建訓(xùn)練檢測(cè)層面的指標(biāo)和方法來(lái)直接檢測(cè)人工智能應(yīng)用對(duì)一般性法律規(guī)則的符合程度。這樣可以快速、便捷、自動(dòng)地檢測(cè)出可能存在問(wèn)題的人工智能應(yīng)用,更加有效地確定需要規(guī)制的人工智能及相關(guān)人員。一方面,可以讓數(shù)據(jù)的準(zhǔn)確和模型的搭建訓(xùn)練盡量減少黑箱的部分,增加讓人理解的步驟。另一方面,可以通過(guò)檢測(cè)指標(biāo)和方法避開(kāi)黑箱的影響,確定規(guī)制的對(duì)象。
關(guān)于此類以技術(shù)規(guī)制技術(shù)的方法,已經(jīng)有學(xué)者在區(qū)塊鏈治理領(lǐng)域中提出,并將其總結(jié)為“以法入鏈”和“以鏈治鏈”。內(nèi)部路徑也是將現(xiàn)有的法律規(guī)則通過(guò)計(jì)算機(jī)語(yǔ)言表達(dá),讓人工智能直接遵循已經(jīng)被計(jì)算機(jī)語(yǔ)言和方法表達(dá)的法律規(guī)則,從而彌補(bǔ)外部路徑“與技術(shù)保持一定距離”的不足,提升新發(fā)展形勢(shì)下人工智能治理效率。
內(nèi)部路徑的底層邏輯為“代碼創(chuàng)設(shè)了算法的運(yùn)行方式,其亦具有反向管理算法的權(quán)能”,因此人工智能算法規(guī)制在一定程度上可借助代碼規(guī)制實(shí)現(xiàn)。從認(rèn)識(shí)層面看,很長(zhǎng)一段時(shí)間里,算法被視為脫離于價(jià)值判斷的純粹的運(yùn)算程序,是純粹的技術(shù)問(wèn)題,在“技術(shù)中立”“算法黑箱”掩護(hù)下肆意生長(zhǎng)。但是,隨著技術(shù)的發(fā)展尤其是算法不利后果的凸顯,人們逐漸認(rèn)識(shí)到算法其實(shí)是攜帶價(jià)值取向或數(shù)據(jù)偏見(jiàn)的復(fù)雜運(yùn)行程序。這種取向或偏見(jiàn)可能源于設(shè)計(jì)者、研發(fā)者,也可能源于任務(wù)完成的訓(xùn)練過(guò)程。在計(jì)算運(yùn)行的過(guò)程還可能會(huì)強(qiáng)化這種偏見(jiàn)或不道德,即“自我實(shí)現(xiàn)的歧視性反饋循環(huán)”,最終形成消極后果。因此有研究已經(jīng)提出應(yīng)當(dāng)為機(jī)器進(jìn)行雙重意義的編碼,將人類想要人工智能遵循的法律規(guī)則寫(xiě)入代碼、寫(xiě)入控制機(jī)器的軟件。比如在第一層編碼的基礎(chǔ)上進(jìn)行第二層編碼,并讓第二層編碼符合第一層編碼內(nèi)含的法律、倫理規(guī)范。不過(guò),具體如何實(shí)現(xiàn)還需要計(jì)算機(jī)科學(xué)研究者在法律規(guī)則計(jì)算機(jī)表達(dá)理論的發(fā)展指導(dǎo)下進(jìn)行。內(nèi)部路徑使人工智能在被設(shè)計(jì)之初便能夠做到符合現(xiàn)行法律要求,并且因?yàn)槠湟呀?jīng)內(nèi)置有需要被遵守的法律規(guī)則,因此在面對(duì)生成式人工智能迅猛發(fā)展的現(xiàn)狀下也能較好地發(fā)揮作用,即可以實(shí)現(xiàn)讓人工智能后續(xù)生成內(nèi)容在脫離人為控制的前提下,仍然可以符合相關(guān)法律、倫理規(guī)范。
2.內(nèi)部路徑可以實(shí)現(xiàn)高效的規(guī)制過(guò)程
內(nèi)部路徑可在實(shí)現(xiàn)法律規(guī)則計(jì)算機(jī)表達(dá)的基礎(chǔ)上,進(jìn)一步提升人工智能規(guī)制效率。外部路徑通過(guò)規(guī)制人工智能相關(guān)人員影響人工智能的方法沒(méi)有充分考慮強(qiáng)人工智能的發(fā)展方向,同時(shí)在現(xiàn)有的人工智能算法設(shè)計(jì)、開(kāi)發(fā)背景下,外部路徑也存在著規(guī)制效率不高、過(guò)程過(guò)于煩瑣等明顯不足。而內(nèi)部路徑選擇將人工智能需要遵守的一系列法律規(guī)則通過(guò)計(jì)算機(jī)表達(dá)的方式內(nèi)置于人工智能算法,可以實(shí)現(xiàn)一次設(shè)置、多次重復(fù)使用,從而大幅提升了人工智能規(guī)制的效率。并且除了通過(guò)事先預(yù)設(shè)程序進(jìn)行事前規(guī)制,以法律規(guī)則的計(jì)算機(jī)表達(dá)為基礎(chǔ)建設(shè)的可信人工智能司法、執(zhí)法平臺(tái),也可以在實(shí)現(xiàn)數(shù)據(jù)共享、相關(guān)標(biāo)準(zhǔn)共同制定、知識(shí)圖譜共建的基礎(chǔ)上對(duì)后續(xù)開(kāi)發(fā)的人工智能進(jìn)行快速合規(guī)檢測(cè),從而將人工從現(xiàn)有的外部路徑所要進(jìn)行的煩瑣、低效的監(jiān)管工作中解放出來(lái),實(shí)現(xiàn)對(duì)人工智能的高效規(guī)制。
外部路徑通過(guò)人規(guī)制人工智能,存在規(guī)制低效、失效的困境,因?yàn)槿说姆磻?yīng)遠(yuǎn)遠(yuǎn)慢于人工智能。內(nèi)部路徑通過(guò)計(jì)算機(jī)表達(dá)法律規(guī)則,將法律規(guī)則的要求轉(zhuǎn)化成具體的人工智能檢測(cè)指標(biāo)和方法。這樣,一方面,可以直接、自動(dòng)檢測(cè)人工智能應(yīng)用對(duì)一般性法律規(guī)則的符合程度;另一方面,可以搭建人工智能執(zhí)法、司法輔助系統(tǒng),自動(dòng)地發(fā)現(xiàn)、檢測(cè)、處理在實(shí)際應(yīng)用中存在問(wèn)題的人工智能,高效地鎖定需要規(guī)制的相關(guān)人員及技術(shù)應(yīng)用。
(二)內(nèi)部路徑可以平衡規(guī)制和創(chuàng)新
外部路徑存在的另一問(wèn)題是因規(guī)制而限制技術(shù)創(chuàng)新,這主要是因?yàn)槿斯ぶ悄芩哂械募夹g(shù)特性使外部路徑在試圖提升其規(guī)制效率時(shí)無(wú)法兼顧精準(zhǔn)監(jiān)管,從而導(dǎo)致外部路徑容易在規(guī)制時(shí)產(chǎn)生一刀切或者監(jiān)管邊界不明限制創(chuàng)新的問(wèn)題。而在內(nèi)部路徑的補(bǔ)充下,這些問(wèn)題會(huì)隨著內(nèi)部路徑有效提高對(duì)人工智能的規(guī)制能力、達(dá)到預(yù)設(shè)規(guī)制目的而迎刃而解。并且內(nèi)部路徑可以在實(shí)現(xiàn)高效規(guī)制的基礎(chǔ)上更好地進(jìn)行精準(zhǔn)監(jiān)管,通過(guò)為人工智能設(shè)置其能理解并遵循的行為規(guī)范,制定符合人工智能特點(diǎn)的規(guī)制規(guī)則,避免一刀切,實(shí)現(xiàn)不限制人工智能有益發(fā)展的監(jiān)管。
1.內(nèi)部路徑可以明確規(guī)制邊界
內(nèi)部規(guī)制的邏輯為用人工智能規(guī)制人工智能。如果我們將法律條文編程輸入智能機(jī)器構(gòu)成法律編碼,那么軟件代碼不允許逾越法律層編碼所設(shè)定的權(quán)利義務(wù)邊界。這就要求法律編碼必須表意明確,如此人工智能算法才能按照代碼執(zhí)行。而此種編碼化的法律規(guī)則相較于自然語(yǔ)言表達(dá)的法律規(guī)則少了一些模糊性與抽象性,變得更為清晰、明確,從而有助于提升相關(guān)法律規(guī)則的穩(wěn)定性,使得規(guī)制過(guò)程中法的確定性、一致性以及法的可預(yù)期性得到了進(jìn)一步提升。并且內(nèi)部路徑將在法律計(jì)算機(jī)表達(dá)的基礎(chǔ)上建設(shè)可信人工智能司法、執(zhí)法平臺(tái),通過(guò)平臺(tái)明確人工智能行為邊界、對(duì)人工智能進(jìn)行合規(guī)檢測(cè)。這一平臺(tái)的建設(shè)可以讓多方主體群策群力,相關(guān)可信人工智能標(biāo)準(zhǔn)的制定、法律規(guī)則代碼的編寫(xiě)可以由更廣泛的開(kāi)發(fā)者、法學(xué)專家參與。通過(guò)此種方式得出的內(nèi)部路徑可以滿足人工智能精準(zhǔn)規(guī)制的需求,也容易得到相關(guān)從業(yè)人員的認(rèn)可。這種方法也可以打消其他想要進(jìn)入人工智能領(lǐng)域的從業(yè)人員的顧慮,增強(qiáng)了從業(yè)人員信心,為市場(chǎng)注入了活力。
2.內(nèi)部路徑可以降低合規(guī)治理的成本
內(nèi)部路徑面向人工智能本身,盡可能減少對(duì)開(kāi)發(fā)者的直接規(guī)制。外部路徑中關(guān)于人工智能規(guī)制的法律規(guī)則,大多為籠統(tǒng)、原則性的規(guī)定,許多規(guī)定在制定時(shí)并未能充分考慮相關(guān)技術(shù)的現(xiàn)實(shí)應(yīng)用的場(chǎng)景,從而導(dǎo)致其可能對(duì)開(kāi)發(fā)者提出了一些較高的、不切實(shí)際的要求。已有研究指出目前人工智能外部監(jiān)管體系存在要求過(guò)于嚴(yán)苛、合規(guī)治理的成本較高等問(wèn)題。因此在當(dāng)前的外部路徑中,開(kāi)發(fā)者不得不在開(kāi)發(fā)人工智能產(chǎn)品時(shí)盡到相當(dāng)高的注意義務(wù),在數(shù)據(jù)訓(xùn)練、模型設(shè)計(jì)的每一環(huán)節(jié)都需要做到符合現(xiàn)行法律,這無(wú)疑是加重了開(kāi)發(fā)者的責(zé)任,使其在設(shè)計(jì)程序時(shí)還需要盡可能熟悉相關(guān)法律,從而提高了人工智能技術(shù)的合規(guī)成本與進(jìn)入門(mén)檻。而在內(nèi)部路徑的補(bǔ)充下,通過(guò)由法學(xué)界與開(kāi)發(fā)者共同建設(shè)前文所述的可信人工智能司法、執(zhí)法平臺(tái)、共建數(shù)據(jù)共享平臺(tái)、法律規(guī)則計(jì)算機(jī)表達(dá)知識(shí)圖譜,讓開(kāi)發(fā)者不需要再去深入了解法律,而只需要將已經(jīng)合規(guī)的規(guī)制程序、數(shù)據(jù)集嵌入現(xiàn)有的人工智能算法,讓人工智能自己去學(xué)習(xí)、遵循相關(guān)的法律規(guī)則,這大大降低了人工智能合規(guī)治理的門(mén)檻與開(kāi)發(fā)者的學(xué)習(xí)成本。
此外從學(xué)理上來(lái)看,外部路徑將規(guī)制重心置于人工智能背后的開(kāi)發(fā)者或其他相關(guān)人員,試圖通過(guò)規(guī)制相關(guān)人員的行為來(lái)影響其所設(shè)計(jì)、開(kāi)發(fā)出的人工智能,但是應(yīng)當(dāng)看到在此種規(guī)制路徑中,人工智能作為處于高速發(fā)展變化中的技術(shù),法律自身所具有的滯后性與其特性存在明顯差異。并且因?yàn)榉芍贫鹊陌l(fā)展與變革,每一過(guò)程的路徑選擇和規(guī)則設(shè)計(jì),其法律思維一般都是客觀事實(shí)分析與主觀價(jià)值判斷的綜合。就法律制度建設(shè)而言,如果總是基于技術(shù)及其效應(yīng)的充分顯現(xiàn),以此形成以技術(shù)事實(shí)為基礎(chǔ)的社會(huì)規(guī)范,那么法律制度的滯后現(xiàn)象將會(huì)十分嚴(yán)重,最終導(dǎo)致技術(shù)法律對(duì)技術(shù)“匡正”的失效和無(wú)力。因此在人工智能技術(shù)迅猛發(fā)展的現(xiàn)狀下,試圖僅通過(guò)外部路徑實(shí)現(xiàn)有效規(guī)制人工智能的目標(biāo),實(shí)際上是不符合技術(shù)發(fā)展規(guī)律的。面對(duì)此類正處于高速發(fā)展變化中的技術(shù),在進(jìn)行立法規(guī)制時(shí)不僅要考慮其法律效果,還需要考慮規(guī)制可能產(chǎn)生的社會(huì)效果,即應(yīng)當(dāng)綜合考慮技術(shù)的本質(zhì)與發(fā)展現(xiàn)狀來(lái)探索規(guī)制路徑。因此,只有在內(nèi)部路徑的補(bǔ)充下,才能更好地適應(yīng)人工智能技術(shù)發(fā)展現(xiàn)狀,既實(shí)現(xiàn)對(duì)人工智能的有效規(guī)制又不過(guò)分限制其創(chuàng)新發(fā)展。
結(jié)語(yǔ)
本文中,人工智能法律規(guī)制的內(nèi)部路徑是指將法律規(guī)則通過(guò)計(jì)算機(jī)語(yǔ)言和方法來(lái)表示,使得人工智能能夠理解和遵循。具體手段包括官方出臺(tái)權(quán)威法律知識(shí)圖譜或決策樹(shù)加回歸的模型,權(quán)威標(biāo)注規(guī)則體系,權(quán)威標(biāo)注數(shù)據(jù)集,權(quán)威的法律規(guī)則表達(dá)是否準(zhǔn)確充分的檢測(cè)指標(biāo)體系等。這不是說(shuō)要出臺(tái)權(quán)威的人工智能應(yīng)用,而是要提供接口讓人工智能應(yīng)用可以對(duì)接,以便理解和遵循這些法律規(guī)則的要求。這些手段聽(tīng)起來(lái)不可思議,無(wú)法想象,而且面對(duì)的是弱人工智能,所以只是作為補(bǔ)充手段,旨在克服前文所述的外部路徑困境,幫助外部路徑更好地規(guī)制人工智能。
人工智能正在以不可思議的速度發(fā)展進(jìn)步,強(qiáng)人工智能能力已經(jīng)顯現(xiàn)。面對(duì)具有越來(lái)越強(qiáng)的智能的技術(shù),只是通過(guò)其相關(guān)人員加以規(guī)制會(huì)日益捉襟見(jiàn)肘。一是難以鎖定責(zé)任主體,難以確定權(quán)利內(nèi)容;二是難以通過(guò)人來(lái)管理人工智能。另外,法律規(guī)則作為一種抽象的存在,既可以以自然語(yǔ)言的形式表示,也可以以計(jì)算機(jī)語(yǔ)言的形式表示。只不過(guò)離開(kāi)了自然語(yǔ)言的文字含義,法律概念范疇的含義需要有更多的方法來(lái)表達(dá)。當(dāng)前主要是通過(guò)多種構(gòu)建方法得到與自然語(yǔ)言含義盡可能接近的詞向量。在探索如何充分表達(dá)法律規(guī)則方面,計(jì)算機(jī)和法學(xué)界都已經(jīng)進(jìn)行了不少的前期積累。
在這些工作的基礎(chǔ)上,內(nèi)部路徑可以讓人工智能在底層技術(shù)搭建和運(yùn)行原理上就主動(dòng)遵循一般性的法律規(guī)則的要求,更加高效、精準(zhǔn)地鎖定出現(xiàn)問(wèn)題的人工智能,更加高效地反應(yīng)和處理。因此,通過(guò)計(jì)算機(jī)語(yǔ)言和方法表達(dá)的法律規(guī)則,出臺(tái)人工智能可以“理解”的法規(guī)和構(gòu)建人工智能司法、執(zhí)法系統(tǒng),搭建通用法律大模型和人工智能對(duì)接檢測(cè)平臺(tái),實(shí)現(xiàn)以人工智能規(guī)制人工智能應(yīng)用,應(yīng)當(dāng)作為一種補(bǔ)充規(guī)制路徑,正式展開(kāi)探索和實(shí)踐。
因篇幅限制,已省略注釋及參考文獻(xiàn)。
引注:鄧矜婷:《論人工智能法律規(guī)制的內(nèi)部路徑》,載《河北法學(xué)》2025年第8期,第100頁(yè)-121頁(yè)。