法律不能領(lǐng)先于社會現(xiàn)實,以猜想為基礎(chǔ)、對人工智能的法律規(guī)制提出過于瑣細的規(guī)則設(shè)計,沒有太大價值。技術(shù)有變,法理有常。要評估人工智能對法律的影響,先要返回制度原理,研究現(xiàn)行制度蘊含的回應(yīng)能力。有關(guān)人工智能與著作權(quán)的討論,反映出人工智能的法學分析在方法上存在缺陷。與想象性規(guī)則設(shè)計相比,對討論方法本身的先行批判、對現(xiàn)有制度回應(yīng)新技術(shù)之潛力的發(fā)掘,更具理論意義與實踐價值。
技術(shù)的發(fā)展歷來是引起法學理論和法律制度變革的重要因素之一,法學理論和法律制度應(yīng)當關(guān)注并回應(yīng)技術(shù)帶來的新問題,不可抱殘守缺。但是,評估技術(shù)對法律的影響,不能脫離體系化的思維?,F(xiàn)實生活紛繁復(fù)雜,法學利用概念、原則組織成體系框架,將瑣碎的事實納入自己的解釋框架之中。正是借助這樣的方法,法律才能保持其穩(wěn)定性。法律并不直接調(diào)整技術(shù),法律的直接調(diào)整對象是社會關(guān)系。人性存在共通之處,人類基本的生活模式和價值觀具有相當?shù)钠帐佬?,因此社會關(guān)系也是相對穩(wěn)定的。例如,擁有和交換財產(chǎn)的需求、免于侵害的需求、為自己行為負責的價值觀,塑造了所有權(quán)制度、契約制度、侵權(quán)制度的基本樣式。當今私法的主要內(nèi)容依然沿襲了羅馬法的構(gòu)造,充分說明了社會關(guān)系模式的穩(wěn)定性。因此,在評估技術(shù)對法律的影響程度時,首先要看技術(shù)對社會關(guān)系的影響程度,而不能僅以技術(shù)本身的變革程度來評估。其次,在評估現(xiàn)有法學理論是否被顛覆時,應(yīng)注意具體規(guī)則與基本原理的區(qū)別。任何具體規(guī)則都是從基本原理派生出來的,并且有其隱含的適用條件。很多時候,新技術(shù)的出現(xiàn)只是改變了適用條件,并沒有改變原理?,F(xiàn)有的具體規(guī)則也許不能直接適用于新的情形,但原理是相通的。一般總是寓于具體之中,舊具體如果不合時宜,首先要從舊具體中提煉出舊一般,然后再檢驗舊一般能否適用于新的具體。只有當舊一般也無法適用時,才需要進行理論革命。
就實際來看,法學界易犯的毛病不是過于保守,而是輕率革命。從過于強調(diào)知識產(chǎn)權(quán)在民法中的特殊性,到過度夸大互聯(lián)網(wǎng)對著作權(quán)法的影響,都反映了這一點。二十年前,對互聯(lián)網(wǎng)之法律影響的熱議程度有如今日對人工智能的討論。學者們當時在討論著“‘信息公路’上的‘交通規(guī)則’是否必須‘別出心裁’?虛擬社區(qū)中的行為規(guī)范是否應(yīng)當花樣翻新”。如今看來,認為“網(wǎng)絡(luò)技術(shù)并未動搖著作權(quán)制度的基礎(chǔ)”的判斷,經(jīng)受住了時間的考驗。針對要制定專門的網(wǎng)絡(luò)法的意見,美國的弗蘭克·伊斯特布魯克(Frank Easterbrook)法官曾發(fā)表一篇題為《網(wǎng)絡(luò)空間與馬法》的文章,把“網(wǎng)絡(luò)法”諷刺為“馬法”(Law of Horse)。文中指出,也許有很多與馬有關(guān)的案件,例如涉及馬匹的買賣、馬的許可證與賽馬、人被馬踢傷、獸醫(yī)對馬的治療及馴馬表演的價格等,這并不意味著要專門制定“馬法”。專門規(guī)范“網(wǎng)絡(luò)財產(chǎn)”,相當于“馬法”。只要健全知識產(chǎn)權(quán)法,將其適用于互聯(lián)網(wǎng)即可。
從思維特點而言,人容易看到現(xiàn)象之新,而透過現(xiàn)象之新把握本質(zhì)之常,難度更大,需要一定的抽象思辨能力,故《黃帝內(nèi)經(jīng)》中有“智者察同,愚者察異”之說。正因為如此,每一次重大的技術(shù)變革,幾乎都會引發(fā)制定“馬法”的呼聲。近年來,人工智能成為最受矚目的技術(shù)。法律界應(yīng)當關(guān)注、思考人工智能的發(fā)展帶來的新問題,是毋庸置疑的。但是,如果沒有正確的分析方法,很容易再次步入“馬法”的誤區(qū)。目前,已有不少成果在討論人工智能對具體規(guī)則的影響時展現(xiàn)了體系化的自覺,盡量在現(xiàn)有制度架構(gòu)內(nèi)尋求解決之道。本文與這些成果的主要區(qū)別在于,更偏重對分析方法本身的思考。本文雖以著作權(quán)法為模型,但重點不在著作權(quán)法的具體設(shè)計如何回應(yīng)人工智能技術(shù),而是側(cè)重對人工智能法學分析的幾個基本前提和論證方法進行批判,并揭示現(xiàn)有理論架構(gòu)的回應(yīng)潛力。本文如此定位,主要基于三點考慮。
1. 目前對人工智能的法學討論大多是圍繞具體問題展開的,例如人工智能的主體資格、人工智能生成的內(nèi)容是不是作品、人工智能生成的“作品”權(quán)利如何歸屬等。由于這些研究的主旨是討論具體規(guī)則,對于一些重要的前提展開得往往不夠充分。爭議者各自懷著不同的前見,在討論之初就已分道揚鑣,這種討論很難達成有效的共識。因此,對一些基本前提(例如主體的含義;主體與創(chuàng)造的關(guān)聯(lián)意義)有必要作專門的討論。
2. 在檢驗現(xiàn)有規(guī)則能否解決新問題時,常用的方法是從規(guī)則表達中尋求解釋空間。但有時,具體的舊表達無法解釋出新問題的解決方案,除非還原舊表達的思想。根據(jù)相同思想、結(jié)合不同的給定條件推出的解決方案,有可能在表達上是不同的。但從原理的角度來看,本質(zhì)上是相同的。例如,無主物歸國有,與有體物利用的事實排他是有關(guān)的。如果不歸國有,或是引起爭奪,或是被閑置。指定國家作為所有人,是為了避免物的浪費并安定秩序。作品的使用在事實上是不排他的,如果同樣從“避免資源閑置與爭奪”的目的出發(fā),允許無人繼承之著作財產(chǎn)權(quán)進入公有領(lǐng)域,恰恰是最好的安排?;谖锱c知識的區(qū)別,物權(quán)規(guī)則和知識產(chǎn)權(quán)規(guī)則可能為了相同的立法目的而采用不同的解決路徑。任何規(guī)則的具體表述都是有給定條件的,直接將具體表述套用新情況,必然會存在障礙。從目前的討論來看,法學界還不太擅長“從規(guī)則返回原理、還原隱含預(yù)設(shè)”,例如“淡化作品與主體的聯(lián)系”這一論斷的前提和有效范圍是什么?由此產(chǎn)生了一些過于簡單化的結(jié)論。對討論的方法本身進行研究也是很有必要的。
3. 目前在實踐中,人工智能并沒有給著作權(quán)法帶來明顯的挑戰(zhàn),也沒有太多的案例樣本可供研究,在技術(shù)假想之上做過于細致的制度設(shè)計,很可能成為屠龍術(shù)。法律不可能對社會關(guān)系的變化做出精準預(yù)言。有些問題未必會產(chǎn)生,有些問題可能被技術(shù)或市場手段解決,這些都是無法預(yù)知的。技術(shù)界可以大膽設(shè)想,而且有必要設(shè)想,以此激發(fā)創(chuàng)意。而法律只能以事實素材為基礎(chǔ),才能提出應(yīng)對的方案。視頻網(wǎng)站的出現(xiàn)導(dǎo)致了盜版光盤的絕跡,“免費加廣告”的商業(yè)模式使版權(quán)產(chǎn)業(yè)找到了生存的方式,這都不是二十年前可以預(yù)知的。在《鐵籠,還是烏托邦》一書中,作者憂慮人們會陷入“數(shù)字困境”,擔心技術(shù)保護措施會導(dǎo)致“數(shù)字內(nèi)容就變得密不透風了”,甚至認為“可信任系統(tǒng)有可能改變知識產(chǎn)權(quán)保護的基本原則”。如今看來,只是杞人憂天而已。因此,把現(xiàn)有理論架構(gòu)中應(yīng)對未來具體問題的潛力揭示出來,為個案解決提供思路,比設(shè)計過于具體的規(guī)則更有實踐意義。
在有關(guān)人工智能法律問題的討論中,從著作權(quán)角度開展的討論是比較充分的,主要涉及人工智能生成的“表達”是不是作品、對該“表達”應(yīng)否予以保護、采取何種保護模式、權(quán)利如何歸屬等,已經(jīng)涵蓋了權(quán)利對象、權(quán)利主體、權(quán)利內(nèi)容和權(quán)利歸屬等財產(chǎn)法的基本內(nèi)容。至少在當下,著作權(quán)是人工智能法學分析的理想模型。本文定位于法學分析方法,因此只選取了三個有一般性示范意義的角度:1. 主體的法律意義;2. 創(chuàng)造與主體的關(guān)系;3. 知識產(chǎn)權(quán)統(tǒng)合的邏輯基礎(chǔ)。這三個角度可以被提煉為:如何理解法律主體?在決定是否保護某個對象時,主體因素是否能夠完全忽略?如何發(fā)掘現(xiàn)有理論架構(gòu)的容納能力?以期為人工智能的一般法學分析提供參考。
一、主體的法律意義
人工智能可否成為法律主體,是法理層面的問題。人工智能可否成為著作權(quán)主體,是此一般問題的具體體現(xiàn)。因為“人是法律主體”這一前提是被廣泛接受的,這個問題又可分為兩個子問題:1. 人工智能能否作為人而成為法律主體?2. 人工智能能否作為非人被擬制為法律主體?如果純粹地從哲學上探討,可能會陷入見仁見智的價值爭議。例如,“人”的定義存在本質(zhì)主義與功能(行為)主義的對立。本質(zhì)主義認為可以找出人的某個本質(zhì)特征,以此區(qū)分人與機器。而功能主義則認為,只要人能做到的,機器也能做到,機器與人即無異。有觀點認為,主體性應(yīng)當包含“欲望”,即便人工智能可能具備“理性”,若缺乏欲望,也不應(yīng)成為法律主體。
為了把討論集中于法學角度,我們可以先考察法學中對主體的定義,并還原“主體”概念的法律功能。法學的主體概念是以意志自由為核心而建構(gòu)的。“意志是主體的依據(jù)、核心和靈魂?!边@個觀點首先是哲學的,“自由意志是人之為人的根本,是人與動物的分界線?!焙诟駹柕摹斗ㄕ軐W原理》就是以自由意志為起點展開的:“任何定在,只要是自由意志的定在,就叫做法?!狈ǖ闹饕δ苁钦{(diào)整人的行為,通過確認權(quán)利、義務(wù)和責任的歸屬,引導(dǎo)人的行為選擇。權(quán)利、義務(wù)和責任的承受,只有基于“人有行為的自由”這一前提,才具有正當性。德國學者指出,民法上的“人”是以倫理學上的人的概念出發(fā)的,“這一概念的內(nèi)涵是:人依其本質(zhì)屬性,有能力在給定的各種可能性的范圍內(nèi),自主地和負責地決定他的存在和關(guān)系、為自己設(shè)定目標并對自己的行為加以限制。這一思想既淵源于基督教,也淵源于哲學?!逼浯危杂梢庵緞澐至酥黧w與客體,使人不成為他人支配的對象,保證了“人是目的”這一倫理原則。“將兩個事物分別稱為主體和客體,理由只能是:其中一方能在另一方實現(xiàn)自己的意志?!币虼?,人在法律上的主體性至少基于以下三點而確立:1. 人具備自由意志。主體的依據(jù)不是客觀上有形成某種結(jié)果的能力,而在于有決定是否通過某種行為產(chǎn)生特定結(jié)果的自由,從而基于自由選擇,承受相應(yīng)的權(quán)利、義務(wù)、責任。2. 人具有自我意識。黑格爾有時在自我運動意義上使用“主體”概念,認為一切生命有機體都是主體。所以他在《法哲學原理》中特別強調(diào),“人是意識到這種主體性的主體,因為在人里面我完全意識到我自己,人就是意識到他的純自為存在的那種自由的單一性?!弊晕乙庾R除了能夠把自己作為意識的對象外,還能把別人當自己看,“把自己當作別人,又把別人當作自己,自我意識就是這樣一種雙重意識”。自我意識雙重性的法律意義在于,人不僅認識自己的自由,也能認識他人的自由,從而可以認識到自由的普遍性,建構(gòu)起權(quán)利與義務(wù)的一般性?!八苑ǖ拿钍牵骸蔀橐粋€人,并尊敬他人為人’?!?3. 人是目的,不能成為他人意志的對象。主體不受其他主體的支配。
認為人工智能可以成為主體的觀點,主要是從功能主義的立場論證的,即人工智能具有強大的智能,甚至可能超越人的智慧。就目前而言,人工智能只能模仿人的智力活動的某些方面,“真正意義上的人工智能,‘即能夠像我們?nèi)祟愐粯舆M行思考的計算機’,的確尚未實現(xiàn)?!鼻也徽摷夹g(shù)上的可行性,功能主義的論證既沒有抓住人的特質(zhì),也不符合法學思維。人的獨特性并不在于實際能做什么,而在于擁有自由意志,具有一種非現(xiàn)成性和自我決定性。正如皮科在其演說《論人的尊嚴》中借上帝之口所言:“我把你造成一個既不是天上也不是地上的、既不是與草木同腐的也不是永遠不朽的生物,為的是使你能夠自由地發(fā)展你自己和戰(zhàn)勝你自己?!挥心隳軌蚩恐阕约旱淖杂梢庵緛砩L和發(fā)展?!北辉O(shè)定為強大證明不了人性,自由地選擇脆弱卻反映出人的特質(zhì)。功能主義也脫離了法學思維,它沒有還原主體概念的規(guī)范功能,忽視了在法學意義上,人的哪些特質(zhì)對建構(gòu)主體性是有意義的。如果人工智能沒有自由意志、缺乏自我意識、是人類支配利用的對象,人工智能的能力(無論多么強大)與權(quán)利、義務(wù)、責任之間的聯(lián)系就無從建立。
當然,有觀點假定人工智能終會擁有自由意志和自我意識。例如有文章認為,“機器現(xiàn)在還不具有自我意識,并不等于將來也不具有自我意識”。這并不是真正的論證,故無從反駁,僅從邏輯上對這種樂觀表示一點懷疑:人只有完全認識自己的認識能力,才能把認識能力實現(xiàn)于人工智能。人認識“自我認識能力”,本身就是運用自我認識能力的過程。在人未能完全認識“自我認識能力”之前,能否完全充分地運用這種能力?如果不能,就很可能導(dǎo)致對“自我認識能力”的認識也是不完全的,也就不可能完全模擬出人的認識能力。日本人工智能專家松尾豐教授指出,“人們往往認為,人工智能發(fā)展到一定程度之后,將持有與人類相同的概念和思維方式,持有與人類相同的自我意識及欲望等,但實際并非如此。”他認為,意志、欲望是與生命相連的,智能加上生命才等于人?;诒灸苄纬傻恼J知則是長期生命進化的結(jié)果,計算機要實現(xiàn)與本能相關(guān)的認知也非常困難?!鞍炎约寒攧e人,把別人當自己”的雙重自我意識,是在人際交往中形成的自他關(guān)系的認識,也是與生命活動聯(lián)系在一起的。從智能直接推到人性,欠缺足夠的說服力。本文不想做過多的技術(shù)探討,只想指出:脫離規(guī)范目的,從功能的角度論證人工智能的主體性,在方法上是錯誤的。
另一種觀點認為,人工智能即使不是人,也可以成為擬制主體。這一觀點通常援引法人為例?!叭斯ぶ悄芗词共皇侨耍部赡艹蔀閿M制主體”,在邏輯上是成立的。但究竟能否成為擬制主體,還有賴于對擬制主體的規(guī)范目的進行還原。羅馬法最早確認的擬制私法主體是國家,目的是為了規(guī)定國家財產(chǎn)的歸屬,明確國家財產(chǎn)歸屬于國家,而不是全民共有。“在法理上,設(shè)定法人,實際上是規(guī)定一項財產(chǎn)或財產(chǎn)權(quán)的歸屬?!狈ㄈ司哂幸馑紮C關(guān),意思機關(guān)為法人提供意志,因此滿足法律上主體的本質(zhì)要求??梢姡瑪M制主體的確立有兩個前提:1. 必要性;法律希望擬制主體能獨立于自然人的意志支配財產(chǎn)。2. 可能性;通過意思機關(guān)使擬制主體具備意志。雙重自我意識(爭取自我利益與尊重他人利益)也是通過意志機關(guān)實現(xiàn)的。
主張人工智能成為法律主體的觀點中,讓人工智能支配財產(chǎn)也是主要的理由。例如,建立儲備基金,用以賠償人工智能運用中引發(fā)的損害。僅就必要性論證而言,這種觀點的說服力還不夠充分,還需論證人工智能獨立支配的必要,即為何要獨立于設(shè)計人或使用人支配財產(chǎn)。如果必要性得以論證,就要解決擬制意志的問題。既然人工智能沒有自由意志(擬制主體的討論是以“人工智能不是人”為前提的,否則就談不到擬制),也需要設(shè)立意思機關(guān)和代表人,那么這種運作與法人有何區(qū)別呢?前述觀點把設(shè)立人工智能儲備基金解釋為“人工智能支付賠償費用”,“通過建立儲備基金系統(tǒng),人工智能作為一個整體會擁有一個獨立單一的資金池,以備在承擔賠償責任時使用。所有結(jié)算支付款來源于該資金池,而不是直接來自所有權(quán)人或制造商?!边@種模式與現(xiàn)有的基金法人并無區(qū)別。按照李錫鶴教授的觀點,擬制主體的人身要素是名稱,“法人就是含法律上意志的名稱”。所以,對人工智能進行命名、確立一筆以人工智能名義支配的財產(chǎn),沒有超出法人的制度構(gòu)造。
在探討人工智能的主體性時,還需要厘清一些似是而非的說法。其一,娛樂性表述。例如,沙特阿拉伯為“索菲婭”賦予公民權(quán)。這與哆啦A夢被登記為日本川崎市的榮譽市民并無區(qū)別。主體性不是法律賦予本身就可以實現(xiàn)的,必須有自由意志的依據(jù)。同理,認為人工智能成為主體的障礙僅僅是現(xiàn)行法、批判現(xiàn)有法律是人類中心主義,也是不得法的。關(guān)鍵是現(xiàn)行法的理據(jù)能否成立。其二,未轉(zhuǎn)換成法律語言的通俗表述。有的作者說“人工智能承受權(quán)利義務(wù)時”,其真實含義是“人不應(yīng)當享有權(quán)利義務(wù)?!薄稒C器人是人嗎?》一書認為,當人工智能的監(jiān)控者和第三人都沒有過錯,設(shè)計、制造、交付、運輸都是正常,人工智能產(chǎn)品也沒有因為受損而存在瑕疵時,如果仍然造成損害,只有讓人工智能承擔責任。這一段話無非是表明了人沒有過錯,不能承擔過錯責任。接著此書在介紹“人工智能如何承擔法律責任”時,建議采用人工智能保險制度或者人工智能儲備基金制度。這與傳統(tǒng)的通過保險制度解決高度危險領(lǐng)域的無過錯責任有何本質(zhì)區(qū)別?此處的“讓人工智能承擔責任”不過是“人不承擔過錯責任”的通俗表達罷了。其三,自相矛盾的說法。有些文獻既不承認人工智能的主體地位,又把人工智能稱為“作者”或類比為“雇員”。作者和雇員都是法律上的主體,即使法律不把著作權(quán)賦予他們而是賦予法人或雇主,也是對主體之間關(guān)系的調(diào)整。法人作品和雇傭作品的作者不能取得著作權(quán),但依然是著作權(quán)法上的主體。著作權(quán)法要專門規(guī)定法人作品和雇傭作品的權(quán)屬,就是因為實際作者是有能力支配作品的主體之一,法律要明確利益在不同主體之間的分配。人工智能技術(shù)是人支配、利用的對象,而法人作品和雇傭作品的作者不是法人或雇主支配的對象。
二、創(chuàng)造的來源論與結(jié)果論
在關(guān)于人工智能生成的符號組合是否應(yīng)予保護的爭議中,有一個前提性的分歧:創(chuàng)作的主體是否必須是人。一派觀點認為創(chuàng)造者只能是人,另一派觀點則認為判斷作品應(yīng)采用客觀標準,只要客觀上與作品無異即可。本文把前者稱為“來源論”,把后者稱為“結(jié)果論”。結(jié)果論通常都援引了對“作品體現(xiàn)人格”的批判,認為堅持只有人才能創(chuàng)作是受到“作品體現(xiàn)人格”的束縛。本文作者在討論著作權(quán)的性質(zhì)時,對“作品反映人格”之說也提出過批判,但以此為據(jù)否定“作品是否應(yīng)源自人”的討論意義,值得商榷。任何理論的有效性都受制于適用的前提和語境。“當符號組合源自人”這一前提不言自明時,探討?yīng)殑?chuàng)性當然只能依據(jù)結(jié)果,此時結(jié)果論是有效的。當結(jié)果論者指出獨創(chuàng)性的判斷只能針對表達本身、“思想”或“人格”不具有規(guī)范意義時,忽略了“表達”一詞本身就隱含了主體的意向?!爱斪髌肥侨说谋磉_”作為一個無爭議的前提時,為了厘清作品本身是財產(chǎn)還是人格要素,或是探討著作人格權(quán)的保護尺度時,質(zhì)疑“作品反映人格”的預(yù)設(shè)是有意義的。這只是涉及人與作品的關(guān)聯(lián)性應(yīng)被重視到什么程度,并不意味著“作品是不是源自人”本身也是無所謂的。在討論一個不是源自人的符號組合的法律性質(zhì)時,采用結(jié)果論是不妥當?shù)摹<偈共捎媒Y(jié)果論,動物行為形成的符號組合、自然的美感形式也可以成為作品。無論“人工智能生成的符號組合”是否應(yīng)予保護,區(qū)分“人工智能生成的符號組合”與人創(chuàng)作品,都是有法律意義的。
創(chuàng)造本來就是一個與主體性相聯(lián)的概念,自由意志是創(chuàng)造的本源?!鞍凑毡疽?,‘自由意志’在概念上蘊含了無限性和開放性,能夠超出既有經(jīng)驗范圍而憑空產(chǎn)生新元素,構(gòu)成了創(chuàng)造性的根本來源。”從第一性的事實來看,人工智能生成符號的機制與人的創(chuàng)造有著質(zhì)的區(qū)別。人的創(chuàng)造力主要來源于隱性智能,“眾所周知,發(fā)現(xiàn)問題和定義問題的能力, 是人類創(chuàng)造力的第一要素。這種能力主要依賴于人類的目的、知識、直覺、臨場感、理解力、想象力、靈感、頓悟和審美能力等等內(nèi)秉品質(zhì),因此稱為‘隱性智能’?!庇捎陔[性智能非常復(fù)雜,對其運作機制尚不明確,目前的人工智能主要是模擬顯性智能,即解決問題的能力。“解決問題的能力主要依賴于獲取信息、提煉知識、創(chuàng)生策略和執(zhí)行策略等外顯能力”。人工智能對創(chuàng)作的模擬沒有超出解決問題的模式?!捌鋵嵎治鲞@些創(chuàng)作藝術(shù)品的智能程序可知,它們是利用了專家系統(tǒng)(Expert Database)和機器學習(Machine Learning)技術(shù),存儲并分析大量藝術(shù)家作品,尋找其中有規(guī)律性的特征,然后再加以重組,而基于神經(jīng)網(wǎng)絡(luò)的深度學習(Deep Learning)技術(shù)能夠讓計算機程序?qū)崿F(xiàn)不斷累積和更新,從而掌握更好的解決問題的方法……”例如寫詩機器人小冰的訓練樣本包含1920年以來519位中國現(xiàn)代詩人的幾千首作品,小冰的“詩作”基本上是對已有詩句的重組。解決問題是對既有經(jīng)驗的運用,這種模式用于模擬下棋、圖像語音識別,是非常有效的,而創(chuàng)新的本質(zhì)是對舊經(jīng)驗的突破,并非對舊經(jīng)驗的總結(jié)與運用?!八囆g(shù)概念本身蘊含著對既有藝術(shù)經(jīng)驗的突破,創(chuàng)作總意味著擴展了既有藝術(shù)作品的范圍,換句話說,一個藝術(shù)創(chuàng)作新樣本只有不能被深度學習算法根據(jù)藝術(shù)史經(jīng)驗建立起來的萬能函數(shù)所完全擬合,才算得上‘藝術(shù)創(chuàng)作’?!背饲笆鲭[性智能的復(fù)雜性外,模擬創(chuàng)造力還存在一個悖論?!皠?chuàng)造力就是指發(fā)現(xiàn)人們迄今還不知道的東西,或者就是發(fā)明新的東西。事實上,假若有人能夠說出如此這般就是創(chuàng)造力的本性,從而也就是我們?yōu)榱吮憩F(xiàn)創(chuàng)造力而必須做的事情,那倒是特別奇怪的了?!奔鏋樾睦韺W家和生物學家的法國哲學家亨利·柏格森認為,知性(即智能,對應(yīng)intelligence)的主要任務(wù)是使身體適應(yīng)環(huán)境,“知性常想重組,而且想用既有物重組……知性不允許有不能預(yù)測的東西存在。知性排斥一切創(chuàng)造,一定的前提可引出以前提函數(shù)計算出來的一定結(jié)論,這樣我們的知性即告滿足……”
由于海量數(shù)據(jù)的組合,僅從結(jié)果來看,人工智能生成的符號組合在差異性上與作品類似。但人工智能的生成機制是從符號到符號,而人的創(chuàng)作雖然也是以學習已有符號(知識)為前提,生成新作品卻是以意志為中介的。“即藝術(shù)行為總是一種意向行為,藝術(shù)品總是作為意向?qū)ο蠖嬖?。所以,僅僅根據(jù)第三人稱經(jīng)驗并不能判定一個物件是不是藝術(shù)品。有些奇石‘鬼斧神工’‘巧奪天工’,有足夠的審美價值,但本身卻不是藝術(shù)品……所以藝術(shù)品的認定是超越于第三人稱視角下的表面經(jīng)驗的,而取決于特定的藝術(shù)意向性?!蔽覀兛梢詰岩捎行┳髌肥遣皇钦娴姆从沉巳烁窕蛩枷耄欢ò藙?chuàng)作者的意向。即使作者刻意讓作品無意義,也包含了其追求無意義的意向?!斑_達”派的文學創(chuàng)作把報紙上的字句剪碎,再隨意拼接成不知所云的詩句,看上去與機器生成何等相似?!斑_達”運動反映了第一次世界大戰(zhàn)導(dǎo)致的厭世主義和虛無主義,貌似無意義的行為后面依然反映了人的心靈?!暗谌斯ぶ悄苣抢?,藝術(shù)家、作品與生活的這種關(guān)聯(lián)被割斷或取消,藝術(shù)創(chuàng)作直接演化為符號或語言的組合。換言之,藝術(shù)創(chuàng)作與主體、世界無關(guān),而僅僅是符號的自我組合與增生?!币虼瞬浑y理解,為何人工智能生成的“作品”主要有兩類,一是形式上高度模式化、以數(shù)據(jù)分析為主要價值的文本,例如體育賽事報道、財經(jīng)新聞、不動產(chǎn)行情分析等;二是抽象藝術(shù),例如詩歌、繪畫和音樂。這一類作品的意向比較隱晦,所以無意向的人工智能符號與其形似。綜上,人工智能對創(chuàng)造的模擬只能算一種“仿創(chuàng)”。
這些第一性上的區(qū)別是有法律意義的。首先,涉及人工智能生成符號的設(shè)權(quán)必要性。法律保護某種對象,目的是為了引導(dǎo)人的行為。之所以不保護動物或自然力產(chǎn)生的美感形式,是因為這種保護并不能促使人們從事法律鼓勵的行為。人的創(chuàng)造能力并不稀缺,對仿創(chuàng)結(jié)果有無保護的必要是一個值得討論的問題。由于仿創(chuàng)成果缺乏意向性,背離了作品的交流功能,客觀上此類成果的市場需求如何,也有待觀察。藝術(shù)創(chuàng)造源于人們情感交流的需要,盡管后現(xiàn)代美學反對以作者意圖統(tǒng)治讀者的詮釋自由,主張從作者中心主義轉(zhuǎn)向文本中心主義,這只意味著詮釋不以作者的主觀情感為唯一依據(jù),可以自由發(fā)掘作品中潛藏的意味,并不表明可以完全拋棄作品的交流本質(zhì)。人是追求意義的生物。作者表達自我,欣賞者在他人的自我表達中尋求共鳴、體驗個別自我與普遍自我(即人性)的統(tǒng)一,這不就是創(chuàng)作與審美的根本意義嗎?“審美活動就是借助一個對象在人與人之間傳達情感的活動?!币魳芳掖骶S·科普(David Cope)通過作曲程序艾美(EMI)生成了大量模擬巴赫風格的“作品”,并安排了一次演出,達到了以假亂真的效果。當有些觀眾最終得知并非巴赫的作品時,感到非常憤怒。這個看似支持結(jié)果論的例子恰恰說明,人們非常在乎作品是不是真正的精神交流。所以,在人類優(yōu)秀作品汗牛充棟的情況下,空洞的符號組合有多大的市場價值,有待時間檢驗。例如,有很多音樂家表示愿意演奏艾美的作品,最終因為“不夠特別”而作罷,“艾美的高產(chǎn)使得其作品平凡普通?!逼浯危词故聦嵶C明仿創(chuàng)成果有一定的市場價值,憑借人們對技術(shù)的好奇,能否通過物權(quán)交易或其他市場安排自然獲益?這種獲益程度與仿創(chuàng)的價值是否已經(jīng)相當而無須給予更高的保護?逼真的臨摹品和泰國旅游區(qū)的“大象畫作”沒有著作權(quán),但并非沒有交易市場。利用人工智能生成的畫作《愛德蒙·貝拉米肖像》在佳士得拍賣市場以43.25萬美元成交,盡管藝術(shù)評論人本·盧克(Ben Luke)稱之為“2018年最無聊的藝術(shù)作品”。再次,如果法律認為有必要設(shè)權(quán)保護人工智能的仿創(chuàng)成果,基于創(chuàng)造性上的差異、與作者意向的關(guān)聯(lián)度不同,在保護程度上是否應(yīng)與作品有所區(qū)別?例如能否納入狹義著作權(quán)?是否給予短期保護?權(quán)利內(nèi)容中是否包含人格權(quán)?
綜上,對作品的判斷不能完全采用結(jié)果論,并非出于人類中心主義的偏見,而是因為作品與人的關(guān)聯(lián)性具有法律意義。不少學者提到人工智能生成符號與作品難以分辨的問題,本文不想預(yù)測規(guī)則細節(jié),僅作一點粗疏的推理。公眾有知曉作品是否來源于人的需求。一是出于個體對作品的交流屬性的需求,即渴望透過作品與作者交流;二是出于社會文化發(fā)展的需要,藝術(shù)評論、藝術(shù)史研究不可能完全脫離作者分析。所以,對人工智能生成的符號組合進行來源標示,極有可能會成為一項法律義務(wù)。從市場驅(qū)動來看,純粹的人工智能生成成果的吸引力主要在于來源的新奇,利益主體通常不會隱瞞來源。從藝術(shù)驅(qū)動來看,用機器創(chuàng)作本身就帶有行為藝術(shù)的色彩,即便法律上認可藝術(shù)家是作者,藝術(shù)家都極有可能把作品來源彰顯出來。目前市場上銷售的人工智能“作品”已經(jīng)證明了這一點。作者為了避免公眾把自己的作品當成仿創(chuàng)“贗品”,也會盡力保存創(chuàng)作證據(jù)。所以“分辨不清”的問題很可能不如想象的那么嚴重。只要有法律和市場的動力,來源識別技術(shù)的產(chǎn)生與運用也應(yīng)該指日可待。
三、知識產(chǎn)權(quán)統(tǒng)合的邏輯基礎(chǔ)
上文為了質(zhì)疑結(jié)果論,從結(jié)果論的視角把人工智能生成過程與主體切斷來考察,預(yù)設(shè)了一個“與人毫無關(guān)聯(lián),但生成結(jié)果有差異性”的狀態(tài)。這是為了配合討論“不源自人的符號組合能不能叫作品”,避免把討論滑轉(zhuǎn)為“人工智能生成的符號組合到底是不是源自人”。事實上,“不源自人”這個判斷本身已是一種解釋。沒有自由意志的人工智能無法自己發(fā)動生成符號的過程,總是有一個主體的介入。結(jié)果論的本意是為了論證人工智能生成的符號組合應(yīng)該得到法律保護,既然要予以保護,利益就要歸屬一個主體(人)。如果拋開人承認創(chuàng)作,就等于把人工智能認定為作者,這就違反了法律的主體概念(前文已述,作者也是主體)。人基于何種依據(jù)取得利益,或者說,人對人工智能的介入具有何種法律性質(zhì),才是關(guān)鍵。要論證人工智能生成的符號組合應(yīng)當?shù)玫奖Wo,恰恰要去分析結(jié)果與人的關(guān)系。本文雖然批判結(jié)果論的方法,但并不斷然反對保護人工智能生成的符號組合。在第二部分,本文已經(jīng)列出了是否保護、如何保護等問題的不同考量因素,具體結(jié)論尚有待實證分析和社會合意。下文主要論證,如果實踐表明有必要保護人工智能生成的符號組合,根本不必切斷結(jié)果與主體的關(guān)聯(lián),不必違反法理地把人工智能當成作者,而是要從人與結(jié)果的聯(lián)系中證成保護。
人對人工智能生成結(jié)果的介入關(guān)系可分為兩種,或是創(chuàng)造,或是非創(chuàng)造。
先分析創(chuàng)造?!皠?chuàng)造”概念的重要規(guī)范功能是確立權(quán)屬。因此,法律上的獨創(chuàng)性要求很低,只要足以確立作品與主體之間的特定聯(lián)系,能夠表明作品源自主體即可。人在人工智能生成符號過程中作出的特有取舍,例如對樣本和特征量的選擇或其他干預(yù)行為,完全可能滿足“創(chuàng)造”的要件。技術(shù)的發(fā)展過程,就是把人的工作逐漸“外包”給機器的過程。攝影與錄像術(shù)誕生時,給人們帶來的沖擊與今日的人工智能非常相似。文藝批評家瓦爾特·本雅明曾言,“攝影術(shù)發(fā)明之后,有史以來第一次,人類的手不再參與圖像復(fù)制的主要藝術(shù)性任務(wù),從此這項任務(wù)是保留給盯在鏡頭前的眼睛來完成?!泵缹W與法律理論則通過調(diào)適,使“創(chuàng)造”概念繼續(xù)容納著技術(shù)的變革。圖像的精確復(fù)制交給機器,人類依然保有取景的自由,一切技藝都可能交出去,自由意志——這創(chuàng)造的核心,還與主體在一起??梢韵胍姡S著技術(shù)的發(fā)展,“創(chuàng)造”概念的調(diào)適還會繼續(xù)。但只要人的意志尚在概念之中,就沒有發(fā)生本質(zhì)的變化。雖然人工智能的符號生成沒有意向性,但人運用人工智能生成符號的行為,是具有意向性的。這不僅包括樣本風格的選定,甚至包括對人工智能的盡量放任?!斑\用機器創(chuàng)作”本身就是一種藝術(shù)態(tài)度,就像那些貌似取消自身獨創(chuàng)性的照相寫實主義藝術(shù)家一樣?!罢障鄬憣嵵髁x的真正意義也并不在于它的畫面本身,而在于藝術(shù)家們用行動所表明的態(tài)度或‘概念’,他們正致力傳達著一種關(guān)于工業(yè)社會和大眾文化的信息,他們的藝術(shù)作為一種現(xiàn)象在這個個人價值常?!毕沫h(huán)境中本來就具有特殊的意義。”人工智能生成的符號與人連接之后獲得了意向,正如杜尚把小便池送到展廳、并命名為“泉”一樣,是他的行為與命名使物變成了藝術(shù)品。從結(jié)果論來看,那就是一個物。
再分析非創(chuàng)造。如果隨著技術(shù)的進一步發(fā)展,社會觀念認為主體的意向性與人工智能的隨機性相比太過微弱,無法用創(chuàng)造性支撐保護的正當性,也還有一種保護的可能理由:人工智能的符號增生,客觀上提供了新的語料,豐富了藝術(shù)的語言。有可能隨機出現(xiàn)前所未有的語詞、色彩和音符的搭配,為人的創(chuàng)造提供了更多的素材,人工智能的設(shè)計者或訓練者在此方面的貢獻值得獎賞。只要實踐表明,這種符號組合之上的利益并非微不足道,且無法通過市場自行解決其分配問題,法律就可能予以保護。利益分配的行為依據(jù)可能建立在非創(chuàng)造性智力活動或投資之上。
無論采取哪一種方案,知識產(chǎn)權(quán)理論都可以容納。法所調(diào)整的社會關(guān)系是人的行為所引起的,類似的行為可以適用共同的規(guī)范。財產(chǎn)利用行為的相似性,主要是由財產(chǎn)形態(tài)的相似性決定的。知識產(chǎn)權(quán)法的基本功能是分配符號表達所形成的市場利益,其規(guī)范的財產(chǎn)在形態(tài)上屬于符號組合?!吨R產(chǎn)權(quán)法基本功能之重解》一文曾經(jīng)預(yù)測,知識產(chǎn)權(quán)會繼續(xù)以對象形態(tài)為統(tǒng)合基礎(chǔ),只要是符號表達上產(chǎn)生的市場利益,都會納入知識產(chǎn)權(quán)法調(diào)整。無論運用人工智能生成的符號組合能否被解釋為包含主體意向性的“表達”,如果實踐證明有保護的必要性,因其形態(tài)屬于符號財產(chǎn),完全可以納入知識產(chǎn)權(quán)法。即使該符號組合無法被解釋為作品,也不妨礙其保護。知識產(chǎn)權(quán)法保護的符號財產(chǎn)本來就包括創(chuàng)造性的和非創(chuàng)造性的。
技術(shù)有變,法理有常。日本學者中山信弘在《多媒體與著作權(quán)》一書中曾言,“讓法律領(lǐng)先于事實,特別是技術(shù),而以應(yīng)有的姿態(tài)進行引導(dǎo)是困難的。由于難以正確判斷社會發(fā)展方向,法律如果先行往往產(chǎn)生朝錯誤方向引導(dǎo)的危險……但應(yīng)注意至少要努力在最低限度上,不使法律成為多媒體發(fā)展的阻礙?!边@段論述可以適用于一切技術(shù)的法學分析。與其瑣細地想象和盲目地革命,不如認真探求規(guī)則原理,發(fā)掘現(xiàn)有制度的適應(yīng)力。
知識產(chǎn)權(quán)雜志|轉(zhuǎn)載