伴隨此輪人工智能發(fā)展高潮,社會中普遍存在這樣的擔憂與疑慮:機器是否會取代人類,人工智能是否會成為人類文明史的終結(jié)?
在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但也不可忽視。監(jiān)管人工智能,找到正確的方向并采取合理的措施,正是當下所應該重視的政策議題。
人工智能在其60余年起起伏伏的發(fā)展史中,再次迎來了高潮。但伴隨此輪發(fā)展高潮的,同樣還有社會中普遍存在的擔憂與疑慮:機器是否會取代人類,人工智能是否會成為人類文明史的終結(jié)?
這樣的擔憂自有其合理性所在,而也正是基于此,要求政府介入并對人工智能的發(fā)展進行監(jiān)管的呼聲不絕于耳??蓡栴}在于:對于一個尚未成為現(xiàn)實而僅存在于想象中的“威脅”,究竟應該如何施以監(jiān)管,以避免“孩子跟洗腳水一起倒掉”?
事實上,監(jiān)管的難題并不在于如何平衡技術發(fā)展的利弊兩端,而是如何準確定位技術的潛在威脅并有針對性地施以監(jiān)管。換句話說,人工智能的危害真的是“取代人類”么?若如此,唯一合理的監(jiān)管方式可能就是完全禁止該項技術的研發(fā)。考慮到人工智能技術的應用已經(jīng)遍及生活的方方面面,從搜索引擎到社交網(wǎng)絡再到定制新聞,不一而足。也正因為此,我們可能需要重新反思當前對于人工智能的擔憂是否成立。如果不成立,其真正的威脅又是什么?在回答這些問題的基礎上,我們才有可能找到監(jiān)管人工智能的合理路徑,并使之更有效地服務于人類、服務于未來。
人工智能:究竟應該擔心什么
2016年10月19日,霍金在劍橋大學Leverhulme未來智能中心的開幕儀式上發(fā)表演講,聲稱“人工智能可能是人類文明史的終結(jié)……其在人類歷史上,可能是最好的,也可能是最糟糕的”。這并不是霍金第一次對人工智能的發(fā)展發(fā)出警告。2014年在接受BBC的采訪時,他也表達了類似的觀點。自那之后,霍金也積極投入到宣傳、推動對人工智能研究進行合理規(guī)范的行動當中。事實上,Leverhulme未來智能中心成立的重要使命之一便是化解AI(人工智能)可能帶來的風險。
霍金并非“杞人憂天”的唯一,特斯拉、SpaceX的創(chuàng)始人埃隆·馬斯克同樣屢次警告人工智能潛藏的巨大風險。在霍金、馬斯克等人的推動下,超過892名人工智能研究人員以及另外1445名專家共同簽署并發(fā)布了《人工智能23條原則》,以確保人工智能的發(fā)展行進在正確軌道上。
人工智能是否會取代甚至“奴役”人類的可能性并非是針對其的唯一擔憂,人工智能對于就業(yè)的沖擊、社會不平等狀況的加劇同樣是引起人們焦慮的重要原因?!段磥砗喪贰返淖髡哂韧郀枴ず绽椭苯又赋觯喝斯ぶ悄艿陌l(fā)展將導致大量失業(yè)等社會問題的出現(xiàn),并使得少數(shù)個體成為“超人”中的新精英而大部分人類都將淪為在經(jīng)濟、政治意義上毫無價值的個體,由此人類將進入最不平等的時代。
我們是否應該相信霍金、馬斯克和赫拉利等人對于人工智能的擔憂呢?不同的人有不同的觀點。扎克伯格就曾批評過馬斯克,他認為“現(xiàn)在對于人工智能安全性的擔憂,就如同兩百年前擔心飛機墜毀怎么辦一樣。如果我們總是過度擔心安全性,我們就不可能造出飛機?!笔聦嵣希瑲v史上任何一項顛覆性的技術進步都伴隨著諸多質(zhì)疑,無論是原子能技術的發(fā)明,抑或是基因工程的突破,無不如此。但歷史最終證明,人類社會的發(fā)展并未陷入混亂或終結(jié),這也說明當前對于人工智能的擔憂或許存在一定的夸大成分。
不過另一方面,人工智能的發(fā)展又的確潛藏了巨大風險,放任自流的監(jiān)管態(tài)度明顯不是最優(yōu)選擇。同樣需要指出的是,自1960年代OECD提出“知識社會”的概念之后,技術發(fā)展就成為了與土地、人口并重的國家競爭力的重要體現(xiàn)之一。如何通過合理監(jiān)管以有效引導本國人工智能技術的發(fā)展,自然成為各國政府繞不開的難題。也正因為此,當前爭議的核心并非“是否應該對人工智能的發(fā)展進行監(jiān)管”,真正的挑戰(zhàn)在于“監(jiān)管什么”,以及“如何監(jiān)管”。
事實上,只有回到人工智能技術本身并從其基本原理出發(fā),才能正確理解什么是人工智能,它能干什么、不能干什么,潛藏的價值和風險又是什么。只有建立在對這些問題正確理解的基礎上,我們才能為未來的監(jiān)管政策提出有益建議。
算法背后的基石:數(shù)據(jù)與規(guī)則
在經(jīng)歷了2016年的火熱之后,許多人已經(jīng)可以感知到人工智能,以及支撐其運行的機器學習算法的普遍存在。無處不在的人工智能已經(jīng)開始逐漸影響我們的日常生活,計算設備在“吞入”海量數(shù)據(jù)的同時,神奇地生產(chǎn)著與你相關的各種信息、產(chǎn)品與服務。
但這個過程究竟是如何發(fā)生的?建立在機器學習算法基礎上的人工智能是否會不斷進步乃至最終超越人類的控制?要想對這一問題做出回答,我們便不得不回到機器學習的算法本身上來。
算法本質(zhì)上就是一系列指令,告訴計算機該做什么。對于傳統(tǒng)算法而言,往往事無巨細地規(guī)定好了機器在既定條件下的既定動作;機器學習算法卻是通過對已有數(shù)據(jù)的“學習”,使機器能夠在與歷史數(shù)據(jù)不同的新情境下做出判斷。
具體而言,機器學習算法的實現(xiàn)方式多種多樣,但就當前的技術發(fā)展而言,主要可被劃分為5個類別:符號學派、聯(lián)接學派、進化學派、類推學派和貝葉斯學派。每個學派都遵循不同的邏輯、以不同的理念實現(xiàn)機器學習的過程。
對于“符號學派”而言,所有的信息處理都可被簡化為對符號的操縱,由此學習過程被簡化(抽象)為基于數(shù)據(jù)和假設的規(guī)則歸納過程。在數(shù)據(jù)(即當前事實)和已有知識(即預先設定的條件)的基礎上,符號學派通過“提出假設—數(shù)據(jù)驗證—進一步提出新假設—歸納新規(guī)則”的過程訓練機器的學習能力,并由此實現(xiàn)在新環(huán)境下的決策判斷。符號學派固然符合經(jīng)驗主義的哲學認知,但通過其概念模型我們亦可以發(fā)現(xiàn),其成功的關鍵在于數(shù)據(jù)的完整性和人為預設條件的可靠性。換言之,數(shù)據(jù)的缺失和預設條件的不合理將直接影響機器學習的輸出(即決策規(guī)則的歸納)。最明顯體現(xiàn)這一問題的例子便是羅素的“歸納主義者火雞”:火雞在觀察10天(數(shù)據(jù)集不完整)之后得出結(jié)論(代表預設條件不合理,超過10個確認數(shù)據(jù)即接受規(guī)則),主人會在每天早上9點給它喂食;但接下來是平安夜的早餐,主人沒有喂它而是宰了它。
數(shù)據(jù)和預設條件的問題不僅存在于符號學派,這同樣是其他學派的共性?!奥?lián)接學派”試圖模擬人腦的學習過程,通過仿真神經(jīng)元的聯(lián)接結(jié)構,并借助反向傳播算法(反饋輸出與輸入的對比,并以誤差為基準調(diào)整參數(shù))自動調(diào)整各個聯(lián)接的權值,以最終實現(xiàn)學習能力。此處的關鍵仍然是輸入數(shù)據(jù)集的完整性,以及預設條件的可靠性(例如停止反饋調(diào)節(jié)的閾值設定)?!斑M化學派”試圖模擬人類的進化過程,在預先設定的適應度目標(例如過濾垃圾郵件算法的設計中,某個規(guī)則正確分類郵件的百分比就是適應度目標)指引下,通過交叉、實驗不同的規(guī)則集合以找出與測試數(shù)據(jù)適應度最高的規(guī)則集(也即形成學習能力)。由此仍然可以看出數(shù)據(jù)與預設條件(適應度目標的設定)的重要性。“類推學派”亦是如此,其基本思想是通過判別不同場景的相似程度,來推導新場景中的合理決策。就此而言,參考數(shù)據(jù)集的完整性和不同場景相似程度的閾值設定(預設條件)依然是影響機器學習結(jié)果的關鍵所在。相比于前四個學派,貝葉斯學派對于數(shù)據(jù)集的規(guī)模沒有太高要求,因其優(yōu)勢正是對于未來不確定性的學習與探索。貝葉斯算法將根據(jù)收到的新數(shù)據(jù)來持續(xù)檢驗既有假設成立的概率可能性,并對其進行實時調(diào)整。不過即使如此,貝葉斯算法依然受制于輸入數(shù)據(jù)和調(diào)整規(guī)則。換言之,數(shù)據(jù)與人為預設條件依然是控制貝葉斯算法的關鍵。
事實上,如果跳出具體學派的思維束縛,每種機器學習算法都可被概括為由“表示方法、評估、優(yōu)化”這三部分組成。盡管機器可以不斷地自我優(yōu)化以提升學習能力,且原則上可以學習任何東西,但用以評估的數(shù)據(jù)以及評估的方法和原則都是由人為決定的。也正是從這個角度講,本文開始所提到的“機器取代人類”的可能性其實為零——盡管機器可能會變得異常復雜以致人類難以理解。
監(jiān)管人工智能:真正的挑戰(zhàn)是什么
正如霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》一樣,人工智能的發(fā)展確需被納入到正確的軌道上來——盡管原因并不在于聳人聽聞的“機器取代論”。
那究竟應該“監(jiān)管什么”且又“如何監(jiān)管”呢?問題的答案或許就在于本文第二部分對于機器學習算法的概念性描述上:既然數(shù)據(jù)和預設規(guī)則是所有算法的基石,那么數(shù)據(jù)治理和規(guī)則治理便自然成為監(jiān)管人工智能的關鍵。
一方面,我們給機器什么樣的數(shù)據(jù),機器就會形成什么樣的學習能力并隨之反饋給我們相應的學習結(jié)果。這一過程首先要解決的問題便是數(shù)據(jù)從何而來,機器又將如何利用數(shù)據(jù)?正如前文所反復闡述的,不完整的數(shù)據(jù)集必然導致人工智能學習過程的錯誤——就像羅素筆下的“歸納主義者火雞”一樣。但大規(guī)模的數(shù)據(jù)收集又必然帶來隱私保護、利益分配等諸多問題,由此形成的對于數(shù)據(jù)治理的監(jiān)管要求便成為了監(jiān)管人工智能的第一步。在保護個體數(shù)據(jù)權利的基礎上,鼓勵并規(guī)范數(shù)據(jù)的分享與應用,以最終促進人工智能朝著更好的方向發(fā)展。
另一方面,機器優(yōu)化的規(guī)則(條件)又是由誰、通過何種程序來制定。盡管我們認為沒有必要過多地擔憂人工智能的發(fā)展,但真實的威脅依然存在。事實上,人工智能正在以不被察覺的方式潛移默化地影響人類日常生活,如果機器優(yōu)化的規(guī)則不是以正當?shù)某绦蚴艿奖O(jiān)管和制約,那么很難保證其不被不法之徒所利用。正如長久以來對于“臉書”的質(zhì)疑一樣:公眾如何相信其向用戶推薦的新聞內(nèi)容不會摻雜特殊利益的取向?當越來越多的人依賴定制化的新聞推送時,人工智能甚至會影響到總統(tǒng)選舉。也正因為此,包括透明、開源在內(nèi)的諸多治理原則,應當成為人工智能監(jiān)管政策制定過程中被納入的合理議題。
在經(jīng)歷了60余年的發(fā)展之后,人工智能終于在互聯(lián)網(wǎng)、大數(shù)據(jù)、機器學習等諸多技術取得突破的基礎上實現(xiàn)了騰飛。在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但卻也不可忽視。監(jiān)管人工智能,找到正確的方向并采取合理的措施,正是當下所應該重視的政策議題。