中共中央、國務(wù)院于2017年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出,“在大力發(fā)展人工智能的同時,必須高度重視其可能帶來的安全風(fēng)險挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險,確保人工智能安全、可靠、可控發(fā)展。”
本文以ChatGPT為切入點(diǎn),選取人工智能聊天機(jī)器人所引起的知識產(chǎn)權(quán)風(fēng)險進(jìn)行討論。一是因?yàn)镃hatGPT的高度智能性主要表現(xiàn)在其能夠模仿人類的表達(dá)邏輯,生成的文本內(nèi)容與人類創(chuàng)作的作品高度相近,并且在多數(shù)情況下可以為用戶直接采用,因而版權(quán)歸屬問題、用戶使用限度問題是強(qiáng)人工智能體對當(dāng)前法律體系帶來的最直觀沖擊。二是強(qiáng)人工智能的發(fā)展以龐大的數(shù)據(jù)集為根基,缺乏足量的數(shù)據(jù)就無法對人工智能進(jìn)行訓(xùn)練,而數(shù)據(jù)集的調(diào)用又涉及原始創(chuàng)作者的著作權(quán)與商標(biāo)權(quán)。
ChatGPT對當(dāng)前人工智能的突破
由于以往的人工智能在“類人性”方面總是有所缺憾,無論是繪畫創(chuàng)作AI“微軟小冰”還是蘋果智能語音助手Siri,都難以完整地復(fù)現(xiàn)人類心智,因此這一定義在提出時很大程度上只是對未來的超前設(shè)想,描述了人工智能的發(fā)展遠(yuǎn)景。而ChatGPT的出現(xiàn)使人工智能技術(shù)向“類人性表達(dá)”的目標(biāo)無限趨近,其生成文學(xué)作品、法律文書、案例分析的能力足以表明,當(dāng)前生成式AI正從“技術(shù)層”向“應(yīng)用層”突破,現(xiàn)實(shí)地完成人類的高難度工作。具體而言,ChatGPT至少在通用性、智能性與邏輯性3個方面大幅領(lǐng)先于現(xiàn)有生成式AI。
ChatGPT具有通用人工智能大模型的特征
以往的人工智能多屬于小語言模型,其應(yīng)用僅限于特定場景和專業(yè)范疇。ChatGPT則實(shí)現(xiàn)了“小模型”向“大模型”的突破,能夠回答法學(xué)、計(jì)算機(jī)、文學(xué)、經(jīng)濟(jì)學(xué)等多種專業(yè)領(lǐng)域的問題,這具有兩方面意蘊(yùn)。
一方面,通用性使人工智能的決策模式與人的相似性進(jìn)一步提高,與AlphaGo等小模型相比,克服場景限制后的ChatGPT很難再被單純地定義為一種專業(yè)輔助工具,至少從外觀上看ChatGPT更接近助手或顧問的角色。
另一方面,通用性也標(biāo)志著人工智能技術(shù)逐步走向普適化、平民化應(yīng)用。統(tǒng)計(jì)公司Similarweb數(shù)據(jù)顯示,2023年1月ChatGPT單日平均獨(dú)立訪客數(shù)量已達(dá)1300萬人次,而至2月初,單日用戶訪問量已達(dá)2500萬人次。在以往的小模型階段,人工智能的開發(fā)主要是為了解決特定領(lǐng)域的專業(yè)難題,因此在多數(shù)情況下只有特定行業(yè)的專業(yè)人員能夠接觸、使用AI。通用性人工智能的出現(xiàn),使AI的應(yīng)用正式從小范圍特定人群走向普羅大眾,與此同時也將潛在風(fēng)險向社會層面擴(kuò)散。
ChatGPT具有高度智能化的特征
OpenAI官網(wǎng)內(nèi)容顯示,ChatGPT的創(chuàng)新之處在于采用了RLHF(基于人類反饋的強(qiáng)化學(xué)習(xí))人工智能訓(xùn)練方法,該訓(xùn)練方法使得ChatGPT具有與以往人工智能不同的高度智能化特征。這一訓(xùn)練過程包含3個階段,首先是監(jiān)督學(xué)習(xí)階段,相比起AI無監(jiān)督自我學(xué)習(xí),監(jiān)督學(xué)習(xí)需要專業(yè)人員對ChatGPT待解決的問題進(jìn)行人工數(shù)據(jù)標(biāo)注,為ChatGPT人工書寫高質(zhì)量的答案。其次是訓(xùn)練獎勵模型階段,專業(yè)人員通過建立獎勵模型的方式對ChatGPT輸出的不同答案進(jìn)行打分,促使ChatGPT輸出高分答案。最后是強(qiáng)化學(xué)習(xí)階段,運(yùn)用PPO算法不斷強(qiáng)化ChatGPT的能力。
RLHF訓(xùn)練方法極大地提升了ChatGPT的智能性,強(qiáng)化了生成式AI的功能,這一提升主要體現(xiàn)在以下兩個方面。其一,ChatGPT能夠基于人類反饋模仿人類的表達(dá)方式和表達(dá)邏輯。以往生成式AI所輸出的文本存在邏輯性較差、語序混亂、表達(dá)生硬以及情感缺失等問題,與人類的表達(dá)方式相去甚遠(yuǎn),因此無法被用戶直接使用。而ChatGPT能夠?qū)W習(xí)、模仿人類的表達(dá)方式,輸出邏輯更嚴(yán)密、表達(dá)更健全的文本內(nèi)容,因此可以在不經(jīng)用戶改寫或少量改寫的情況下直接使用。其二,ChatGPT能夠精準(zhǔn)識別用戶指令,輸出與用戶需求高度匹配的答案。ChatGPT與之前的模型相比,其對話生成實(shí)現(xiàn)了從命令驅(qū)動到意圖驅(qū)動的轉(zhuǎn)換。ChatGPT在與用戶交流的過程中,用戶無需輸入繁瑣的要求和指令,僅需用日常語言輸入簡單的想法,ChatGPT即可“心領(lǐng)神會”,完成用戶所指定的任務(wù)。此種對用戶需求精準(zhǔn)識別的能力能夠有效降低AI產(chǎn)品的使用門檻,但同時也加劇了AI異化為違法犯罪工具的風(fēng)險。
ChatGPT具有記憶性
ChatGPT與當(dāng)前人工智能相比另一個重要突破就是能夠記住與用戶交流的內(nèi)容,并具有在前期對話的基礎(chǔ)上與用戶進(jìn)行持續(xù)交流的功能。使用者表示,ChatGPT能夠根據(jù)用戶的后續(xù)指令進(jìn)一步修正自己先前輸出的答案,也能夠質(zhì)疑不正當(dāng)?shù)奶釂枴S洃浶蕴卣魇笴hatGPT的運(yùn)用變得更加靈活多樣,用戶所獲得的答案并非一次性的,即使ChatGPT初次生成的內(nèi)容與用戶需求還存在一定的距離,用戶也無需親自進(jìn)行人工修改,而是可以逐步引導(dǎo)其增加、刪減部分內(nèi)容。
ChatGPT所涉知識產(chǎn)權(quán)風(fēng)險的應(yīng)對
人類技術(shù)發(fā)展史表明,新技術(shù)一旦在人類社會廣泛應(yīng)用,將不可避免地引發(fā)全新的法律風(fēng)險;ヂ(lián)網(wǎng)的普及引起了法學(xué)界對網(wǎng)絡(luò)暴力、通信信息詐騙、數(shù)據(jù)侵權(quán)、虛擬財(cái)產(chǎn)犯罪等風(fēng)險的警惕與慎思,相應(yīng)的,以ChatGPT為代表的通用性、高智能性、記憶性人工智能的廣泛應(yīng)用,也會對既有法律體系與法學(xué)理論提出全新的挑戰(zhàn)。作為文本生成式AI,目前ChatGPT尚不具有生成圖像、音視頻以及聯(lián)通多用戶交流的能力,因此其被利用成為智能化犯罪工具的可能性尚處于較低水平,現(xiàn)階段ChatGPT在法學(xué)領(lǐng)域引起的沖擊更多地集中于知識產(chǎn)權(quán)領(lǐng)域,包含在數(shù)據(jù)源獲取與內(nèi)容生成兩個運(yùn)行階段之中。
在數(shù)據(jù)源獲取階段,人工智能對數(shù)據(jù)集的使用可能涉及對原始作品權(quán)利人的侵權(quán)風(fēng)險。在內(nèi)容生成階段,ChatGPT將進(jìn)一步引起人們對AI主體地位、AI生成物法律權(quán)屬問題的反思。
ChatGPT在數(shù)據(jù)源獲取階段的侵權(quán)風(fēng)險
算法、算力、數(shù)據(jù)是人工智能開發(fā)的三大要素。ChatGPT的通用性、高智能性、記憶性除基于其特殊的訓(xùn)練方法外,更源于其所擁有的海量數(shù)據(jù)集。據(jù)統(tǒng)計(jì),ChatGPT背后所擁有的參數(shù)高達(dá)1750億個,遠(yuǎn)超現(xiàn)有的其他生成式AI。根據(jù)國外人工智能學(xué)者Alan D. Thompson的研究,ChatGPT的數(shù)據(jù)源包含維基百科、書籍、期刊、Reddit鏈接、Common Crawl等。ChatGPT是通過學(xué)習(xí)互聯(lián)網(wǎng)上的現(xiàn)有數(shù)據(jù),并在此基礎(chǔ)上加工整理形成答案的,而社交網(wǎng)站、書籍、網(wǎng)頁數(shù)據(jù)無不包含著大量原始創(chuàng)作者的作品,這一過程并未經(jīng)過版權(quán)人許可,可能構(gòu)成對原始作品權(quán)利人的侵權(quán)。
這一問題在實(shí)踐中已經(jīng)出現(xiàn),在Andersen et al v Stability案中,以Andersen為代表的3位藝術(shù)家對一款A(yù)I繪圖工具提起集體訴訟,認(rèn)為AI公司在未經(jīng)許可的情況下將多位藝術(shù)家所創(chuàng)作的50億張網(wǎng)絡(luò)圖片用于AI機(jī)器學(xué)習(xí),其行為侵犯了藝術(shù)家們的權(quán)利。與此相近的是,意大利個人數(shù)據(jù)保護(hù)局取締了一款名為“Replika”的人工智能聊天機(jī)器人,認(rèn)為其非法收集、使用原始數(shù)據(jù)。該案雖然并非知識產(chǎn)權(quán)侵權(quán),但也同樣表明目前AI抓取、使用數(shù)據(jù)可能侵犯原始數(shù)據(jù)源之上的各種權(quán)利。
對于數(shù)據(jù)源獲取階段的知識產(chǎn)權(quán)侵權(quán)風(fēng)險,筆者認(rèn)為,在解釋論上應(yīng)適度擴(kuò)張合理使用制度的范圍,以使其能夠適用于AI抓取公開數(shù)據(jù)的情形。
其一,數(shù)據(jù)抓取、分析是開發(fā)人工智能程序的必要條件,未來強(qiáng)人工智能的進(jìn)一步發(fā)展更需要海量的數(shù)據(jù)源支撐。相關(guān)研究表明,人工智能大模型的訓(xùn)練至少需要62億的參數(shù)量。此時要求開發(fā)者獲取全部產(chǎn)權(quán)人的許可并不現(xiàn)實(shí),知識產(chǎn)權(quán)法領(lǐng)域若不能弱化該風(fēng)險,將阻礙人工智能的技術(shù)創(chuàng)新。
其二,AI開發(fā)者利用數(shù)據(jù)集的行為具有合理使用的外觀。AI及其開發(fā)者使用數(shù)據(jù)集的行為包含復(fù)制導(dǎo)入數(shù)據(jù)和AI學(xué)習(xí)分析數(shù)據(jù)兩個過程,而知識產(chǎn)權(quán)法之所以對復(fù)制行為進(jìn)行規(guī)制,是因?yàn)樵趥鹘y(tǒng)的出版領(lǐng)域復(fù)制與發(fā)行具有密切相關(guān)性,控制復(fù)制行為能夠有效阻止其后的發(fā)行行為。而現(xiàn)代計(jì)算機(jī)技術(shù)的出現(xiàn)使復(fù)制行為和傳播行為發(fā)生分離,單純復(fù)制行為的規(guī)制必要性大大降低,多數(shù)個人復(fù)制行為都被納入合理使用制度的框架,互聯(lián)網(wǎng)傳播行為成為法律規(guī)制的重點(diǎn)。而人工智能對數(shù)據(jù)源的使用恰恰具有單純復(fù)制行為的特征,開發(fā)者所使用的數(shù)據(jù)源都是從互聯(lián)網(wǎng)上已公開的內(nèi)容中抓取的,其獲取行為不具有非法性,而且開發(fā)者利用數(shù)據(jù)訓(xùn)練人工智能,AI生成物在多數(shù)情況下不會復(fù)現(xiàn)原作品的內(nèi)容。
ChatGPT在內(nèi)容生成階段的權(quán)屬爭議風(fēng)險
如前所述,ChatGPT具有通用性、智能性及強(qiáng)大的人類模仿能力,這使得其生成物具有與以往人工智能生成物相比更高的價值。而且ChatGPT已經(jīng)在社會層面得以普及,除部分IP受限制的國家和地區(qū)外,普通民眾也能直接注冊、使用ChatGPT。上述兩點(diǎn)使AI生成物的權(quán)屬問題更實(shí)際地?cái)[在了知識產(chǎn)權(quán)法理論面前,如果說之前法學(xué)界對AI生成物權(quán)屬的探討是前瞻性的,那么現(xiàn)在的探討無疑具有現(xiàn)實(shí)性。
現(xiàn)有司法實(shí)踐對AI生成物權(quán)屬的判斷主要包含以下3個層面。一是從作品的角度入手,探討AI生成物是否符合著作權(quán)法理論中作品的含義。二是從創(chuàng)作行為的角度入手,探討AI的創(chuàng)作過程是否具有“獨(dú)創(chuàng)性”。三是根據(jù)智力成果的投入,確定作品應(yīng)歸屬于開發(fā)者還是用戶。持肯定態(tài)度的觀點(diǎn)認(rèn)為,AI生成物在外觀上具有獨(dú)創(chuàng)性,并且能夠體現(xiàn)創(chuàng)造者的個性化選擇、技巧、判斷等因素。持否定態(tài)度的觀點(diǎn)強(qiáng)調(diào)作品必須是人的智力成果,創(chuàng)作行為也必須是人的智力活動,AI生成物缺乏人的智力參與,沒有傳遞軟件使用者的思想,不能被認(rèn)定為作品。
事實(shí)上,從“獨(dú)創(chuàng)性”“作品”角度探討人工智能生成物的權(quán)利歸屬問題不具有現(xiàn)實(shí)意義,因?yàn)锳I生成物和人類作品的核心差異并不在于作品外觀上是否具有獨(dú)創(chuàng)性特征,而在于是否由人所完成。正如華東政法大學(xué)王遷教授所言,“只有當(dāng)源自人類的相同內(nèi)容屬于作品時,才有必要討論由人工智能生成的內(nèi)容能否被認(rèn)定為作品。”AI生成物的權(quán)屬問題在根本上要解決的是AI所輸出的內(nèi)容是否具有賦予其法律保護(hù)的必要性,或者說,AI生成物如果不受法律保護(hù)而成為人人可隨意使用的內(nèi)容,是否會導(dǎo)致學(xué)術(shù)不端、抄襲泛濫?
筆者認(rèn)為,在現(xiàn)階段有必要對AI生成物進(jìn)行法律保護(hù)。一是因?yàn)楫?dāng)前AI生成物已經(jīng)超出了對既有材料簡單復(fù)制、加工、改寫的階段,ChatGPT的高智能使其能夠輸出自身的觀點(diǎn),并且很難在互聯(lián)網(wǎng)上檢索到與輸出文本相似的內(nèi)容,換言之,ChatGPT將AI生成物的獨(dú)創(chuàng)性推到了一個前所未有的高度。二是由于AI生成物的隨意使用可能誘發(fā)學(xué)術(shù)不端。因此,在以ChatGPT為代表的具有一定程度獨(dú)立意識的高智能AI出現(xiàn)后,法律有必要對其生成物進(jìn)行保護(hù),以最大可能防止AI在學(xué)術(shù)科研中的濫用。
需要明確的是,對AI生成物進(jìn)行法律保護(hù)并不意味著需要承認(rèn)人工智能的權(quán)利主體地位。而應(yīng)當(dāng)采用行為規(guī)制的方法,從限制用戶對AI生成物的使用范圍出發(fā),一方面利用行業(yè)自治規(guī)則等軟法要求使用者在作品創(chuàng)作中明確披露其對AI的使用情況,在排除AI生成內(nèi)容后對作品的創(chuàng)新性、實(shí)用性進(jìn)行重新評估,根據(jù)作者自身創(chuàng)作的部分來判斷作品質(zhì)量。另一方面也要強(qiáng)化技術(shù)治理的作用,加大反AI檢測技術(shù)的運(yùn)用,提升人類對AI作品的識別能力,積極利用技術(shù)手段監(jiān)管、反制技術(shù)所引起的風(fēng)險。