
優(yōu)化營商環(huán)境要注重塑造一個充滿創(chuàng)新活力、公平透明、鼓勵科技創(chuàng)新的良好環(huán)境。鼓勵科技創(chuàng)新、優(yōu)化創(chuàng)新生態(tài),是當前營商環(huán)境建設和優(yōu)化一個重要內(nèi)容。人工智能深刻改變著人類生產(chǎn)方式、生活模式和社會治理模式,人工智能+將成為當前乃至今后經(jīng)濟增長最重要的一個增長點。人工智能的發(fā)展趨勢關系到國家的未來前途和中華民族偉大復興事業(yè)。如何應對生成式人工智能發(fā)展中所提出的相關風險,包括侵權的風險,是優(yōu)化營商環(huán)境的重要內(nèi)容。
一、生成式人工智能侵權法律模式的選擇
生成式人工智能侵權問題是我們當前應該思考的一個重大問題。國外實踐存在兩種完全不同的規(guī)制模式。一種是歐盟為代表的強監(jiān)管模式。歐盟《人工智能法案》把人工智能涉及的法律風險劃分為四個等級,針對不同的風險分別應對并確立治理方案。這個法案體現(xiàn)了歐盟對人工智能的強監(jiān)管理念,尤其是注重對個人信息隱私保護,設置了很多義務性規(guī)則,模型開發(fā)者、服務提供者一旦違反這些義務就可能構(gòu)成侵權。另一種是以美國為代表的輕監(jiān)管重利用模式。美國《國家人工智能倡議法案》是一部人工智能促進法,相關侵權問題仍以傳統(tǒng)隱私法、侵權法解決。近年出臺的《人工智能行動方案》也基本貫徹輕監(jiān)管重發(fā)展的理念,這種模式對于模型開發(fā)者、服務提供者而言,合規(guī)義務相對較輕,侵權發(fā)生的概率相對較小。
我們應該采取何種模式?雖然有學者呼吁要盡快立法,但是我認為專門立法為時尚早。首先,當前生成式人工智能的潛在風險總體可控,其主要是對隱私權、個人信息、知識產(chǎn)權等造成侵害,而不是對人的生命財產(chǎn)安全造成現(xiàn)實的重大侵害。其次,人工智能技術發(fā)展日新月異,這些技術帶來的新問題新挑戰(zhàn),需要時間去觀察、認識和總結(jié)。如果我們現(xiàn)在還沒看清楚就匆忙制定相關規(guī)則,可能會妨礙它的發(fā)展。從促進國家人工智能發(fā)展重大戰(zhàn)略角度,我認為應當在發(fā)展中予以規(guī)范。首先是發(fā)展,然后在發(fā)展中逐步規(guī)范。
事實上,《民法典》《個人信息保護法》等相關法律已針對人工智能侵權問題設置了相關規(guī)則,可以大體上應對當前人工智能的侵權風險,關鍵是怎么解釋好使用好這些規(guī)則,同時通過司法解釋配套,以及逐步地積累相關案例,最后總結(jié)這些實務經(jīng)驗,在這個基礎上再形成我國的人工智能立法,這樣更接地氣,更科學合理,更有利于服務于國家人工智能發(fā)展戰(zhàn)略。
二、人工智能侵權的歸責原則
從既有案例可以看出,人工智能侵權的確有區(qū)別于傳統(tǒng)侵權的特點:服務提供者和用戶等侵權主體的多元;并非實際侵害他人的財產(chǎn)和人身,主要是侵害隱私、個人信息、知識產(chǎn)權等權益;對侵權過錯的判斷更加復雜;因果關系體現(xiàn)為原因的多元結(jié)合,等等。人工智能侵權的特殊性,并不表示我們一定要在法律上將其視作一類特殊的侵權而適用特殊原則。關于人工智能侵權的法律規(guī)制,提出幾點建議。
1.應當適用過錯責任。無過錯責任會給人工智能發(fā)展帶來很大的障礙。一旦發(fā)生侵權,如果不考慮有否過錯就承擔責任,那么模型開發(fā)設計者和服務提供者承擔的風險則太大。無過錯責任多適用于產(chǎn)品責任等領域,人工智能提供的不是產(chǎn)品而是服務,這種服務可能會有瑕疵,但這個瑕疵不會像產(chǎn)品瑕疵那樣會給受害人人身或財產(chǎn)造成現(xiàn)實的重大的侵害。因此,沒有必要把嚴苛的產(chǎn)品責任原則如此迅速地適用到人工智能上來。我們還是應該適用過錯責任原則,既有利于鼓勵人工智能的發(fā)展,給模型的開發(fā)、設計、制造者提供創(chuàng)新空間,同時也兼顧對受害人保護,這是最佳的選擇。
問題的關鍵是這個過錯怎么判斷,我們的建議還是以違反注意義務為標準。例如,違反了合規(guī)義務就可能會導致侵權,就表明模型的開發(fā)、設計、制造者等是有過錯的,應該承擔相應的責任。這些合規(guī)義務在相關的法規(guī)規(guī)章等規(guī)范性文件中存在著明確的規(guī)定。例如,模型的設計者必須將有關教唆從事違法行為的相關信息過濾掉。否則,如果生成出類似的信息,就有可能構(gòu)成侵權。
2.人工智能侵權的過錯判斷應遵循場景化原則。人工智能發(fā)展引發(fā)侵權場景的多樣性,不同場景的風險和防范程度差別非常大,對其不能采取“一刀切”的方式,而應結(jié)合具體場景來確定風險防控的成本比較和合理義務。比如,利用人工智能收集他人的各種碎片化信息,并不一定都構(gòu)成侵權。如果通過信息處理,旨在為用戶提供個性化的服務,這對用戶是有利的,不構(gòu)成侵權。但如果專門針對某個特定的個人,收集其行蹤信息或生活隱私,甚至將這些信息打包出售,這就有可能構(gòu)成對他人信息和隱私的侵害。這就是說,要以具體用途等做場景化的分析判斷。
3.人工智能侵權規(guī)則要考慮現(xiàn)有技術水平。人工智能發(fā)展到今天,仍存在一些現(xiàn)有技術無法克服的困難和障礙,比如說人工智能會產(chǎn)生幻覺或臆想,因此其生成出來的虛假信息,可能是臆想的產(chǎn)物。但是,在現(xiàn)有的技術條件下,暫時無法克服這些技術困境。因此,如果模型的制造者和設計者已經(jīng)盡到最大努力,但在現(xiàn)有技術條件下,仍然難免生成出某些虛假信息,則就不能認定它是有過錯的。在侵權責任法中,產(chǎn)品責任有“發(fā)展風險抗辯”,醫(yī)療侵權中有現(xiàn)有醫(yī)療技術無法診治的抗辯,這些規(guī)則也可以適用于生成式人工智能的侵權,即人工智能侵權規(guī)則也應引入現(xiàn)有技術條件的抗辯規(guī)則。
4.人工智能侵權過錯認定要綜合考慮風險程度和防范成本進行效益判斷。有時候風險確實已經(jīng)形成,但是要完全地消除或防范風險可能需要付出巨大的成本代價,這時候一定要求模型的制造者和設計者付出極高的成本費用去消除風險,從經(jīng)濟上也是極不合理的。例如,模型生成出來某條虛假信息,相關當事人就要求模型必須優(yōu)化或者將有關訓練數(shù)據(jù)中的虛假信息予以刪除,這可能對模型來說負擔太重,因為它要在海量數(shù)據(jù)中識別某條特定信息,本身是非常困難的。要其予以刪除,在技術上也很難實現(xiàn),通常只能對關鍵詞進行過濾,但過濾的關鍵詞不宜太多,否則也會增加過重的成本負擔。因此,在認定過錯時,就涉及一個風險防范成本的判斷問題。
5.要注重區(qū)分人工智能服務提供者的過錯和用戶的過錯。DeepSeek是交互的,其生成的結(jié)果有語料的來源,同時也依賴于用戶輸入的指令、信息。如果用戶故意提供虛假信息引誘大模型做出虛假判斷,這種情況下可以認為主要是用戶的過錯。
三、人工智能侵權的具體問題
1.服務提供者過錯認定應類推適用避風港規(guī)則。避風港規(guī)則規(guī)定在《民法典》第1195條,是為平臺侵權設定的一個保護規(guī)則。人工智能侵權能否援用避風港規(guī)則?我個人認為是可以的。人工智能侵權和網(wǎng)絡侵權有很大的相似性,它們都借助網(wǎng)絡,雖然有差異,但是基本應用場景還是相同的,尤其是我們要考慮怎么有利于促進人工智能的發(fā)展,對大模型我們還是要鼓勵它發(fā)展,采用避風港是一個很有效的辦法。避風港規(guī)則有利于保護服務提供者的利益,避免出現(xiàn)一旦生成虛假信息就使服務提供者擔責的現(xiàn)象。
2.AI對已公開信息的利用。生成式人工智能對于已公開個人信息的利用是一個受爭議的話題。歐盟將已公開的個人信息視同一般信息,對它們給予同等保護。美國則不再保護已公開的個人信息。對于已公開的個人信息,我認為應當回歸《民法典》和《個人信息保護法》的規(guī)定。《民法典》一方面明確對其予以保護,另一方面也將其跟一般的個人信息區(qū)分開?!睹穹ǖ洹返?036條規(guī)定,如果處理已公開的個人信息會給個人造成重大利益侵害,這時候該個人享有拒絕權。這個“重大利益侵害”就是規(guī)范已公開個人信息收集處理的重要標準。例如,將從網(wǎng)上已公開的各類信息收集處理,其中可能涉及到某個人的隱私,如果將該信息打包出售,就可能造成對個人權益的重大侵害。
3.敏感個人信息問題。針對人工智能情形下的敏感個人信息。不能簡單照搬和適用單獨同意,要對《民法典》《個人信息保護法》的相關規(guī)定,結(jié)合具體場景作出解釋。要區(qū)分應用場景的具體情形,一是看它是否公開,二是看它是訓練階段還是商業(yè)應用階段,三是區(qū)分處理敏感個人信息是否針對特定的個人。即便在人工智能訓練階段,開發(fā)者處理敏感個人信息的動機也存在差異。如果針對特定人搜集其敏感個人信息,是為了刺探特定人的隱私,這就有可能構(gòu)成侵權。但如果是泛泛的搜集他人已公開的敏感個人信息作為語料進行訓練或優(yōu)化模型,這不一定構(gòu)成侵權。
4.已公開的作品數(shù)據(jù)問題。關于已公開的作品數(shù)據(jù),如對作品的數(shù)據(jù)處理,在人工智能環(huán)境下是不是一定都要取得作者的同意?這是一個受爭議的話題。從鼓勵人工智能發(fā)展來看,如果對已公開的作品數(shù)據(jù)都要求取得作者同意,那么人工智能的語料就會大大受限。在這種情形下,談判成本極高,可以說市場已經(jīng)失靈。能不能就把它歸入《著作權法》第22條規(guī)定的合理使用中去?我個人是贊成這個看法的,這就是合理使用的范圍,對個人著作權要做合理限制。
5.深度偽造問題。深度偽造目前發(fā)展迅猛,深度偽造技術如果不得到有效地規(guī)范,會帶來很大的風險。這個問題的解決還是要回到《民法典》第1019條的規(guī)定,禁止利用深度偽造技術侵害他人權益。侵害權益是一個基本標準,只要造成權益侵害就是有過錯的。為了防止侵害權益,必須要有一定的義務如合規(guī)義務等。
總之,人工智能發(fā)展伴生著風險與挑戰(zhàn)。為服務于促進人工智能國家戰(zhàn)略發(fā)展的重大戰(zhàn)略,我們應堅持“發(fā)展中規(guī)范,規(guī)范中發(fā)展”的監(jiān)管理念。面對新領域、新技術和新挑戰(zhàn),我們的執(zhí)法和司法更需秉持審慎、包容、開放理念,保障人工智能在安全、可靠、可控前提下有序發(fā)展,營造鼓勵創(chuàng)新的良好營商環(huán)境。
更多精彩,請關注“官方微信”

國脈,是營商環(huán)境、數(shù)字政府、數(shù)字經(jīng)濟、低空經(jīng)濟、民營經(jīng)濟、產(chǎn)業(yè)發(fā)展、數(shù)字企業(yè)等領域的專業(yè)提供商。創(chuàng)新提出"軟件+咨詢+數(shù)據(jù)+平臺+創(chuàng)新業(yè)務"五位一體服務模型,擁有營商環(huán)境督查與考核評估系統(tǒng)、政策智能服務系統(tǒng)、數(shù)據(jù)資源目錄系統(tǒng)、數(shù)據(jù)基因、數(shù)據(jù)母體、數(shù)據(jù)智能評估系統(tǒng)等幾十項軟件產(chǎn)品,長期為中國城市、政府和企業(yè)提供專業(yè)咨詢規(guī)劃和數(shù)據(jù)服務,廣泛服務于發(fā)改委、營商環(huán)境局、考核辦、數(shù)據(jù)局、行政審批局等政府客戶、中央企業(yè)和高等院校。
