2016年5月18日,國家發(fā)改委、科技部、工信部、中央網(wǎng)信辦四部門印發(fā)《“互聯(lián)網(wǎng)+”人工智能三年行動實(shí)施方案》,結(jié)合人工智能和互聯(lián)網(wǎng)兩大技術(shù)領(lǐng)域。2017年4月20日,最高人民法院印發(fā)《最高人民法院關(guān)于加快建設(shè)智慧法院的意見》,指引法院管理信息系統(tǒng)的智能平臺建設(shè)工作。伴隨著這些文件的發(fā)布以及司法實(shí)踐的發(fā)展,我國司法工作開始進(jìn)入人工智能時代。

  實(shí)際上,碎片性的、尚未系統(tǒng)化的人工智能早已應(yīng)用于司法工作。依照其最基本的含義——“使機(jī)器從事原本需要人類智能方可進(jìn)行的工作”——案件檢索系統(tǒng)和案件信息管理系統(tǒng)便是典型體現(xiàn),而法律法規(guī)電子資料庫更是成為全體法律人的必備產(chǎn)品。它們提高了司法工作效率、節(jié)約了司法資源,構(gòu)成智慧法院建設(shè)的前期基礎(chǔ)。只不過,在談及“人工智能”這一語詞的時候,絕大部分言說者和傾聽者都將其和“機(jī)器人技術(shù)”雜糅在一起,進(jìn)而只將具有“擬人”行為的機(jī)器作為“人工智能”的載體。這一普遍存在的觀點(diǎn),傾向于認(rèn)為人工智能最終能夠做到一切人可以做的事情,因此,在司法工作中,機(jī)器人法官對人類法官的替代,便成為一種可以預(yù)期的未來。畢竟,機(jī)器人律師、機(jī)器人教師、機(jī)器人醫(yī)生都已經(jīng)為人所熟知,而機(jī)器人法官所面臨的技術(shù)性難題必將隨著人工智能技術(shù)的發(fā)展而消解。

  “做人所能做之事”和“做人做之事”之間貌似微小的差異,卻在本質(zhì)上有所不同。在前者的語境中,人工智能是輔助性的,它的指向是將人從簡單重復(fù)性勞動和數(shù)據(jù)計算中解脫出來,人工智能是一個客體的物,并不具有主體性。而在后者的語境中,人工智能是替代性的,它的指向不是將人從勞動中解脫出來,而是將人從勞動中排斥出去,此時的人工智能雖然不被當(dāng)作一個道德上的人,但在它做特定勞動的時候,它就“是”一個“人”。如果僅從功能的角度來說,它們殊無二致,尤其是在人工智能的運(yùn)算速度遠(yuǎn)高于人腦運(yùn)算速度的情況下,只要算法本身不存在內(nèi)在的漏洞,人工智能做某事的能力甚至?xí)?yōu)于同等條件下人做此事的能力??墒?二者在意義層面截然不同。在前一種情況下,人工智能依附于人的行動,實(shí)施行為的決定權(quán)在人手中;而在后一種情況下,人工智能不需要考慮人的因素,因?yàn)樗呀?jīng)完全承擔(dān)了這一事項(xiàng)。因此,盡管人工智能未必和“意識”相關(guān),甚至,有極大的可能與“意識”毫無關(guān)聯(lián)——“模式識別”帶來的“無意識智能”已經(jīng)突破了這一限定——但人類是否能夠有意識地介入到“無意識智能”的領(lǐng)域,對于人類社會來說,意義截然相反。畢竟,在算法以及與其相關(guān)的計算能力不如人工智能的情況下,如果人的意識不能有效介入人工智能,那么,占主導(dǎo)地位的將是后者。2017年5月,義烏人機(jī)圍棋大賽,盡管柯潔更受人矚目,但是,人機(jī)配對賽中古力一方AlphaGo主動認(rèn)輸且“蓄意”亂下的行為,提醒我們關(guān)注這一意義比較的現(xiàn)實(shí)指向。

  歐美國家人工智能化起步較早,并且廣泛應(yīng)用于司法領(lǐng)域。但美國埃里克·盧米斯(Eric Loomis)案的進(jìn)程表明,作為司法工作核心的法官,并沒有清晰地認(rèn)識到“做人所能做之事”和“做人做之事”之間的差異。盧米斯因偷竊槍擊者拋棄的汽車而被警察誤當(dāng)作槍擊者予以逮捕,鑒于其存在偷盜和拒捕行為,此案進(jìn)入訴訟程序?;谌斯ぶ悄堋癈OMPAS”的測試,盧米斯的再犯風(fēng)險極高,據(jù)此,法官裁決他服刑6年。盧米斯提起上訴,但威斯康星州最高法院支持了下級法院的裁決,并肯定了其裁定理由:人工智能“COMPAS”的風(fēng)險評估是借助獨(dú)立的子項(xiàng)和復(fù)雜的算法完成的,最終從1到10的級別評定具有中立性和客觀性。這里的重點(diǎn),并不在于人工智能的算法,而是法官對于人工智能的態(tài)度。畢竟,一方面,即便算法是有瑕疵的,但它可以精進(jìn),更何況,出于保護(hù)商業(yè)秘密,也無從知悉盧米斯的具體評測分析,即在這一個案上算法是否存在瑕疵。但是,在這一案件中,無論是初審法官,還是州最高法院的法官,都選擇了這樣一種推理路徑:人工智能是無感情的,因此,它是中立而客觀的,進(jìn)而,它評測的結(jié)果就是中立而客觀的,值得采納。在這一措辭中,法官在兩種“想象”中搖擺:一方面,人工智能是為法官所用的,它是一種輔助性工具,因此,它的結(jié)論不需要經(jīng)受相對人的質(zhì)證;另一方面,人工智能是作為“專家證人”的替代者存在的,它的算法比之人工詢問更加具有可信度,于是,它的結(jié)論是決定性的證據(jù)。導(dǎo)致的結(jié)果便是,原本法官需要針對盧米斯的個案情形進(jìn)行具體的判斷,但他們實(shí)際上采納了人工智能的判斷卻又想不承認(rèn)這一點(diǎn)。

  這就意味著,居于判斷之位的法官盡管形式上依然行使了判斷的權(quán)力,但實(shí)際上并沒有運(yùn)用判斷的權(quán)利。因?yàn)樵谶@一判斷過程中,他們拒絕了自身的判斷,并沒有體現(xiàn)出創(chuàng)造新知識的智識,而選擇順從于人工智能的判斷。當(dāng)其他人質(zhì)疑這一判斷時,人工智能的客觀性居于前臺,法官表示事實(shí)確鑿,自己不需要承擔(dān)任何關(guān)于事實(shí)建構(gòu)的責(zé)任;當(dāng)其他人質(zhì)疑法官沒有進(jìn)行個案考量時,法官表示人工智能的結(jié)論只是一個輔助性因素,盡管是決定性的輔助性因素。于是,借助人工智能的重疊想象,法官將判斷的責(zé)任歸之于人工智能,并通過責(zé)任轉(zhuǎn)稼的方式將自身保護(hù)起來。誠如阿倫特所言:“我們關(guān)于是非的決定將依賴于我們對同伴的選擇?!北M管這些法官是有思想的,但這一思想僅僅歸于活動的序列,而無法歸于行動之列。只有他們自己意識到他們自我對這個問題進(jìn)行了判斷,但這一意識無法構(gòu)成通感,因?yàn)橛^察他們行為的其他人認(rèn)為這一判斷的行動來自于人工智能,而他們實(shí)際上也樂于接受其他人的這一判斷。當(dāng)美國的法官作出這一選擇之時,他們拒絕通過判斷力將自己與當(dāng)事人(即其他的人)聯(lián)系起來,不再在意其他人。他們私下里便否認(rèn)了判斷力這種屬于人類的能力,同時也就否認(rèn)了法律賦予法官的重要權(quán)力。此刻,他們不再是法官,甚至,不再是一個具體的人,而僅僅是作為一個無名者而存在。

  人工智能的作用是作為判斷的輔助。在這個意義上,人工智能法官確實(shí)是絕無可能的,因?yàn)?判斷的權(quán)力將始終把握在法官的手中。

  作者:上海師范大學(xué)哲學(xué)與法政學(xué)院 劉振宇

責(zé)任編輯:qinpeng