武凡熙 作
生成式人工智能,作為人工智能技術(shù)的一個分支,是基于生成對抗網(wǎng)絡(luò)(GAN)、預(yù)訓(xùn)練大模型、多模態(tài)技術(shù)融合的產(chǎn)物,通過已有的數(shù)據(jù)尋找規(guī)律,利用泛化能力形成相關(guān)內(nèi)容。2022年底,隨著美國OpenAI公司推出的以通用大語言模型為底層技術(shù)的聊天機(jī)器人Chat?GPT在社交媒體上走紅,國內(nèi)各大科技企業(yè)也紛紛加入人工智能大模型技術(shù)競爭行列,開始加快相關(guān)產(chǎn)業(yè)布局,例如百度“文心”大模型、阿里巴巴“通義”大模型、騰訊“混元”大模型、華為“盤古”大模型、字節(jié)跳動“豆包”大模型等均是國內(nèi)人工智能大模型研發(fā)應(yīng)用領(lǐng)域的成功范例。2025年年初,由我國人工智能初創(chuàng)企業(yè)DeepSeek開發(fā)的大語言模型R1問世并迅速火爆全球,讓世界重新審視和理解中國創(chuàng)新模式與路徑。
人工智能是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),具有溢出帶動性很強(qiáng)的“頭雁”效應(yīng)。人工智能的“頭雁”效應(yīng)不僅有助于實(shí)現(xiàn)技術(shù)變革、推動產(chǎn)業(yè)深度轉(zhuǎn)型升級,更是當(dāng)前加快培育新質(zhì)生產(chǎn)力的重要抓手。當(dāng)前,生成式人工智能正在逐漸滲入傳統(tǒng)的文學(xué)藝術(shù)創(chuàng)作領(lǐng)域,極大增強(qiáng)了人類文藝創(chuàng)作實(shí)踐的深入程度、涉及廣度和具體內(nèi)容的復(fù)雜程度,在豐富人民群眾精神文化生活,促進(jìn)教育科學(xué)文化事業(yè)發(fā)展繁榮的同時,也帶來了一系列法律問題,對立法、司法提出了新挑戰(zhàn)。
一、生成式人工智能的可版權(quán)性
《最高人民法院關(guān)于審理著作權(quán)民事糾紛案件適用法律若干問題的解釋》第十五條規(guī)定,由不同作者就同一題材創(chuàng)作的作品,作品的表達(dá)系獨(dú)立完成并且有創(chuàng)作性的,應(yīng)當(dāng)認(rèn)定作者各自享有獨(dú)立著作權(quán)。司法實(shí)踐中,對該條要求的“創(chuàng)作性”的理解已基本達(dá)成一致,即對表達(dá)的安排是否體現(xiàn)了作者的個性化選擇、判斷。既有案件對生成式人工智能獨(dú)創(chuàng)性的認(rèn)定也遵循了這一標(biāo)準(zhǔn),重點(diǎn)考察用戶在使用生成式人工智能系統(tǒng)輔助創(chuàng)作過程中,是否對文字、線條、色彩等表達(dá)元素作出了選擇與安排;不因使用了人工智能工具而否定生成內(nèi)容的可版權(quán)性,但依然堅持“以人為中心”的基本理念,區(qū)分人的創(chuàng)造性智力貢獻(xiàn)與機(jī)器的智能功能,進(jìn)行個案認(rèn)定。
關(guān)于生成式人工智能獨(dú)創(chuàng)性認(rèn)定的寬嚴(yán)尺度,美國版權(quán)局近期發(fā)布的報告《著作權(quán)與人工智能(第二部分):可版權(quán)性》反映了從嚴(yán)把握獨(dú)創(chuàng)性標(biāo)準(zhǔn)的態(tài)度。該報告認(rèn)為,用戶反復(fù)修訂提示并不能改變輸出過程的工作原理,無論是一次還是多次,用戶都無法控制輸出中的表達(dá)元素;用戶最終確定選擇的輸出內(nèi)容只是其對人工智能系統(tǒng)解釋的接收,不是包含表達(dá)的創(chuàng)作。這與美國法院曾經(jīng)在涉及新技術(shù)的知識產(chǎn)權(quán)授權(quán)標(biāo)準(zhǔn)問題上走過彎路有關(guān)。其早期對待商業(yè)方法專利采取過度開放的政策,導(dǎo)致嚴(yán)重的不正當(dāng)競爭后果,甚至引發(fā)金融危機(jī)。
對我國法院而言,堅持既往案例衡量生成式人工智能獨(dú)創(chuàng)性的思路和基準(zhǔn),適當(dāng)收緊賦予生成式人工智能著作權(quán)保護(hù)的條件更為穩(wěn)妥。
二、生成式人工智能著作權(quán)的歸屬
若認(rèn)可具有獨(dú)創(chuàng)性的生成式人工智能能夠構(gòu)成法定作品類型,則作品原始權(quán)利歸屬是接下來需要解決的法律問題。司法實(shí)踐中,對此問題經(jīng)歷了從“研發(fā)者所有”到“使用者所有”的演變過程?!癉reamwriter”案系早期觀點(diǎn)的典型代表,該案判決認(rèn)為,案涉作品系軟件研發(fā)團(tuán)隊(duì)主持創(chuàng)作的法人作品。研發(fā)團(tuán)隊(duì)在數(shù)據(jù)輸入、觸發(fā)條件設(shè)定、模板和語料風(fēng)格取舍上的安排與選擇屬于與案涉文字作品特定表現(xiàn)形式之間具有直接聯(lián)系的智力活動,Dreamwriter軟件的自動運(yùn)行并非無緣無故或具有自我意識,其自動運(yùn)行的方式體現(xiàn)了研發(fā)者的選擇。這一時期,計算機(jī)軟件根據(jù)研發(fā)者預(yù)設(shè)的算法與模板,經(jīng)過數(shù)據(jù)篩選與函數(shù)計算自動生成內(nèi)容,決定其表現(xiàn)形式與表達(dá)元素的主要因素是研發(fā)者確定的軟件運(yùn)行規(guī)則。
近兩年來,引發(fā)著作權(quán)法律糾紛的生成式人工智能的技術(shù)原理顯然不同,以神經(jīng)網(wǎng)絡(luò)為核心的深度學(xué)習(xí)算法存在“黑箱”,并基于概率學(xué)知識增加了輸出內(nèi)容的隨機(jī)性,使模型研發(fā)者對生成內(nèi)容的支配力相對減弱。新技術(shù)背景下,當(dāng)使用者將人工智能模型作為創(chuàng)作工具,按照自己的審美標(biāo)準(zhǔn)和個性判斷,對表達(dá)細(xì)節(jié)進(jìn)行選擇和安排時,生成內(nèi)容體現(xiàn)了使用者的意志,司法裁判傾向于認(rèn)定生成式人工智能著作權(quán)歸屬于模型使用者。
三、生成式人工智能服務(wù)提供者的著作權(quán)侵權(quán)責(zé)任
民法典規(guī)定的網(wǎng)絡(luò)服務(wù)提供者間接侵權(quán)主體是技術(shù)提供者,而非內(nèi)容提供者。由于對侵權(quán)內(nèi)容生成和傳播的控制程度不同,生成式人工智能服務(wù)提供者既可能是技術(shù)提供者,也可能是內(nèi)容提供者,二者的區(qū)分需要根據(jù)技術(shù)支持模式和所處開發(fā)應(yīng)用階段進(jìn)行個案認(rèn)定。
生成式人工智能平臺提供相應(yīng)技術(shù)的支持模式主要有三種類型:第一,模型開發(fā)與應(yīng)用服務(wù)一體式平臺,基于自主開發(fā)的基礎(chǔ)模型部署具有集成功能的人工智能服務(wù),以Deepseek、ChatGPT等為典型代表;第二,先接入第三方技術(shù)提供的預(yù)訓(xùn)練大模型,再經(jīng)過自己的訓(xùn)練后,向特定市場提供執(zhí)行具體任務(wù)的生成式人工智能服務(wù)平臺;第三,直接調(diào)用第三方的大模型而不進(jìn)行自主性訓(xùn)練的服務(wù)平臺。對于具有網(wǎng)絡(luò)技術(shù)服務(wù)提供者和信息內(nèi)容提供者雙重身份的生成式人工智能平臺,需要區(qū)分不同的行為類型分別適用不同規(guī)定。第三種模式下的生成式人工智能平臺未參與模型訓(xùn)練階段,只是發(fā)揮了生成式人工智能網(wǎng)絡(luò)傳播媒介的作用,屬于技術(shù)服務(wù)提供者,可適用“避風(fēng)港規(guī)則”,存在主觀過錯的,應(yīng)承擔(dān)間接侵權(quán)責(zé)任。
在直接侵權(quán)語境下,生成式人工智能與人類創(chuàng)作的作品,或者受著作權(quán)法保護(hù)的生成式人工智能作品與被訴侵權(quán)作品,是否構(gòu)成實(shí)質(zhì)性相似的認(rèn)定,原則上適用傳統(tǒng)作品實(shí)質(zhì)性相似的判斷標(biāo)準(zhǔn)和判斷方法。在間接侵權(quán)語境下,生成式人工智能服務(wù)提供者主觀上知道或者應(yīng)當(dāng)知道用戶行為是侵權(quán)行為,客觀上為他人實(shí)施侵權(quán)行為提供了幫助,涉及服務(wù)提供者承擔(dān)的注意義務(wù)和主觀過錯、責(zé)任承擔(dān)方式的認(rèn)定,及“避風(fēng)港”規(guī)則的適用。
網(wǎng)絡(luò)服務(wù)提供者的主觀過錯包括對網(wǎng)絡(luò)用戶侵害信息網(wǎng)絡(luò)傳播權(quán)行為的明知或者應(yīng)知。在生成式人工智能應(yīng)用場景下,以深度學(xué)習(xí)算法為核心的大模型,可以在學(xué)習(xí)訓(xùn)練數(shù)據(jù)的基礎(chǔ)上,自我調(diào)整模型內(nèi)部參數(shù)或權(quán)重。該技術(shù)特性決定了即使參與算法設(shè)計和模型開發(fā)的團(tuán)隊(duì)也無法預(yù)見,包含具體作品的輸入數(shù)據(jù)對于輸出內(nèi)容是否有特別影響或特別價值。囿于人工智能系統(tǒng)有限的可解釋性和透明度,僅充當(dāng)信息通道的網(wǎng)絡(luò)服務(wù)提供者更加不具備能夠預(yù)見和控制系統(tǒng)運(yùn)行結(jié)果的信息管理能力,因此不能因未采取預(yù)防性的內(nèi)容過濾或屏蔽措施,就籠統(tǒng)認(rèn)定其具有主觀過錯。而且,“應(yīng)當(dāng)知道”主觀認(rèn)知狀態(tài)的認(rèn)定要與行業(yè)慣例及平臺信息管理能力相契合,這也是用于判斷網(wǎng)絡(luò)服務(wù)提供者主觀過錯標(biāo)準(zhǔn)之一的“紅旗標(biāo)準(zhǔn)”的內(nèi)在要求。
網(wǎng)絡(luò)服務(wù)提供者應(yīng)承擔(dān)的注意義務(wù),不僅來源于法律規(guī)定,也來源于網(wǎng)絡(luò)服務(wù)提供者與網(wǎng)絡(luò)用戶達(dá)成的服務(wù)協(xié)議?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《人工智能生成合成內(nèi)容標(biāo)識辦法》等對服務(wù)提供者應(yīng)盡的注意義務(wù)如建立健全投訴舉報機(jī)制、潛在風(fēng)險提示、顯著標(biāo)識等,作出了明確規(guī)定。此外,生成式人工智能服務(wù)提供者是否應(yīng)當(dāng)承擔(dān)一定程度的版權(quán)過濾義務(wù),是值得探究的議題。現(xiàn)階段,要求生成式人工智能服務(wù)提供者盡到輸入端和輸出端的主動過濾義務(wù),在技術(shù)上和經(jīng)濟(jì)上的可行性受到質(zhì)疑。更何況特定類型的輸入及其對應(yīng)的輸出是否構(gòu)成著作權(quán)侵權(quán),依然存在較大爭議。貿(mào)然就此為生成式人工智能服務(wù)提供者設(shè)定過濾義務(wù),會減損人工智能產(chǎn)業(yè)本應(yīng)發(fā)揮的社會福利增進(jìn)效應(yīng)。
生成式人工智能服務(wù)提供者原則上適用“通知-必要措施”一般規(guī)則,其特殊性主要體現(xiàn)在“合格通知”和“采取必要措施”要件的認(rèn)定方面。司法實(shí)踐經(jīng)驗(yàn)表明,通知書記載的信息足以準(zhǔn)確定位被訴侵權(quán)作品時,可認(rèn)定為有效的通知。人工智能技術(shù)原理中采納了概率學(xué)的知識,導(dǎo)致其輸出具有一定的隨機(jī)性,可重復(fù)性受到較大制約。向生成式人工智能系統(tǒng)輸入相同提示詞,很有可能會得到不同的輸出,特別是在輸入開放性極強(qiáng)的文學(xué)藝術(shù)內(nèi)容提示詞時,該特征體現(xiàn)得尤為明顯。故此,對于權(quán)利人提交的侵權(quán)通知,生成式人工智能服務(wù)提供者采取所屬領(lǐng)域的常規(guī)做法和普通技術(shù)手段可以確定被訴侵權(quán)內(nèi)容的生成原理的,則該通知屬于合格的通知。個案中,網(wǎng)絡(luò)服務(wù)提供者接到侵權(quán)通知后應(yīng)當(dāng)采取何種處理措施、履行何種注意義務(wù),是由案涉網(wǎng)絡(luò)服務(wù)平臺的技術(shù)原理所決定的。例如,以API調(diào)用模型方式提供技術(shù)服務(wù)的生成式人工智能平臺,對于從輸入指令轉(zhuǎn)化為輸出內(nèi)容的模型處理過程缺乏控制力,關(guān)于其接到侵權(quán)通知后應(yīng)當(dāng)采取的必要措施,平臺在盡到轉(zhuǎn)通知義務(wù)的同時,針對生成式人工智能包含的特定元素啟動輸出端過濾措施,可以獲得豁免侵權(quán)責(zé)任的機(jī)會。
生成式人工智能服務(wù)提供者版權(quán)間接侵權(quán)采取過錯責(zé)任原則。網(wǎng)絡(luò)服務(wù)提供者的主觀過錯是就具體侵權(quán)行為而言,基于“主客觀相一致”原則,其實(shí)施的幫助侵權(quán)行為以及承擔(dān)的“停止侵害”責(zé)任也應(yīng)當(dāng)是就具體侵權(quán)行為來說的。因此,生成式人工智能服務(wù)提供者只就訴訟中權(quán)利人舉證證明的利用平臺已生成的或者即將生成的侵權(quán)內(nèi)容,以刪除或斷開侵權(quán)內(nèi)容、關(guān)鍵詞過濾等技術(shù)手段承擔(dān)停止侵害責(zé)任。
四、模型訓(xùn)練的合法化路徑
關(guān)于生成式人工智能大模型語料訓(xùn)練是否構(gòu)成著作權(quán)侵權(quán),理論界及產(chǎn)業(yè)界圍繞合法化路徑展開討論,提出了不同的立法或法律解釋方案,主要包括以下幾種:
(1)機(jī)器學(xué)習(xí)、數(shù)據(jù)訓(xùn)練本質(zhì)上屬于非表達(dá)性使用,不構(gòu)成著作權(quán)法上的侵權(quán)行為。
(2)模型訓(xùn)練過程中對海量作品的使用,不會影響原作品的正常使用,也不會不合理地?fù)p害著作權(quán)人的合法權(quán)益,理論上應(yīng)當(dāng)屬于合理使用范疇。
(3)機(jī)器學(xué)習(xí)對他人作品的復(fù)制只是臨時復(fù)制,或者并非以傳播作品為目的,不侵犯著作權(quán)。然而,著作權(quán)直接侵權(quán)的歸責(zé)原則系無過錯責(zé)任,不考慮行為人的主觀過錯,因此模型訓(xùn)練者是否以傳播為目的復(fù)制作品不影響其侵權(quán)與否的認(rèn)定。在技術(shù)層面,人工智能模型訓(xùn)練對數(shù)據(jù)的使用,雖然多數(shù)情況下因節(jié)省存儲空間、提升數(shù)據(jù)安全、減少隱私風(fēng)險的需要,將在短期內(nèi)從本地或云端存儲設(shè)備上刪除,但不排除特殊情況下,為了模型持續(xù)優(yōu)化、再訓(xùn)練使用而將訓(xùn)練數(shù)據(jù)長期甚至永久保留的可能性??梢?,模型訓(xùn)練復(fù)制存儲訓(xùn)練數(shù)據(jù)的時間長短,視使用目的和管理策略不同而調(diào)整。具體案件中,不能將模型訓(xùn)練使用作品行為不加以技術(shù)區(qū)分,一概認(rèn)定為臨時復(fù)制而豁免侵權(quán)責(zé)任。
(4)相較于合理使用制度,法定許可制度的優(yōu)勢在于緩解產(chǎn)業(yè)矛盾和彌補(bǔ)市場失靈。著作權(quán)法規(guī)定了四種法定許可情形。在立法未新增法定許可情形的條件下,司法認(rèn)定機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘?yàn)榉ǘㄔS可沒有法律依據(jù)或者法律解釋的空間。此外,訓(xùn)練數(shù)據(jù)對模型性能的價值在于量而非質(zhì),一般的許可費(fèi)率計算方法和基準(zhǔn)可能無法充分補(bǔ)償作者,制約創(chuàng)新激勵效用的發(fā)揮。明確的付費(fèi)標(biāo)準(zhǔn)和可行的支付方法是法定許可制度順利實(shí)施的必要保障。
(5)無論是法定許可,還是一攬子許可,均需借助著作權(quán)集體管理組織配合執(zhí)行許可使用費(fèi)的收取與轉(zhuǎn)付等合同事項(xiàng)。生成式人工智能大模型技術(shù)的發(fā)展方向之一是多模態(tài),要求訓(xùn)練數(shù)據(jù)類型多樣化,包含文本、圖片、音頻、視頻等,它們對應(yīng)的作品類型將分別歸入不同的著作權(quán)集體管理組織職能范圍,海量訓(xùn)練數(shù)據(jù)“取得授權(quán)難、付費(fèi)使用難”問題是采納著作權(quán)集體管理路徑繞不開的障礙。即便針對模型訓(xùn)練數(shù)據(jù)這種特殊對象,成立專門的著作權(quán)集體管理組織,由于受到《著作權(quán)集體管理?xiàng)l例》第七條第二款第二項(xiàng)的限制,新成立的集體管理組織與既有集體管理組織各自的業(yè)務(wù)范圍仍需進(jìn)一步厘清。另外,因?qū)嶋H操作中難以就規(guī)模龐大的訓(xùn)練數(shù)據(jù)集取得事前授權(quán),若實(shí)施著作權(quán)集體管理延伸制度,或稱“選擇-退出”機(jī)制,可能會使其在運(yùn)作效率、透明度和壟斷嫌疑方面遭受更多非議,更重要的是該制度制約了著作權(quán)人原本應(yīng)當(dāng)享有的私權(quán)。因此,我國立法機(jī)關(guān)對此采取尤為謹(jǐn)慎的政策。
著眼于解決涉人工智能模型訓(xùn)練行為定性的法律依據(jù)問題。目前,司法實(shí)踐中可供選擇的路徑是認(rèn)定構(gòu)成非表達(dá)性使用或者合理使用。前者因人工智能模型訓(xùn)練將數(shù)學(xué)計算方法與表達(dá)元素處理交織在一起,模糊了“思想”與“表達(dá)”的界限,采取該路徑認(rèn)定模型訓(xùn)練行為的合法性對法官的技術(shù)知識儲備提出了較高要求。后者則聚焦于著作權(quán)法第二十四條第一款列舉的十二種使用情形,其中存在解釋空間的作品使用情形僅限于“科學(xué)研究”。雖然該項(xiàng)規(guī)定的復(fù)制行為只能是“少量復(fù)制”,但是基于目的解釋方法,此處的“改編、翻譯、播放、少量復(fù)制”行為以不超出科學(xué)研究需要為限。海量訓(xùn)練數(shù)據(jù)是人工智能模型訓(xùn)練的基石,預(yù)訓(xùn)練的通用模型可供各市場主體接入服務(wù),或經(jīng)微調(diào)后開發(fā)專業(yè)模型,應(yīng)用潛力巨大。數(shù)據(jù)輸入、模型訓(xùn)練階段的數(shù)據(jù)使用行為,比后續(xù)數(shù)據(jù)輸出和內(nèi)容生成傳播階段的行為具有更強(qiáng)的公益性。因此,筆者認(rèn)為可以考慮從寬解釋“科學(xué)研究”合理使用情形下“少量復(fù)制”的含義,并且對數(shù)據(jù)訓(xùn)練主體作擴(kuò)大解釋,不論模型部署、產(chǎn)業(yè)應(yīng)用落地后是否會帶來商業(yè)利潤,僅在模型訓(xùn)練階段將所有科技企業(yè)和研發(fā)團(tuán)隊(duì)均視作科研人員。
在我國新一代人工智能發(fā)展戰(zhàn)略的統(tǒng)領(lǐng)下,生成式人工智能著作權(quán)糾紛司法政策的確立是具體案件中明確裁判規(guī)則、統(tǒng)一裁判尺度的根基。強(qiáng)化原創(chuàng)作者的著作權(quán)保護(hù),激發(fā)全民創(chuàng)新活力、源源不斷產(chǎn)出優(yōu)質(zhì)的原創(chuàng)性內(nèi)容,不僅是社會主義精神文明建設(shè)的必要保障,更是新技術(shù)持續(xù)發(fā)展的基礎(chǔ)原料。在人工智能產(chǎn)業(yè)與原創(chuàng)內(nèi)容產(chǎn)業(yè)博弈中,通過法律解釋與法律適用,維系二者利益平衡,是司法機(jī)關(guān)服務(wù)保障新質(zhì)生產(chǎn)力發(fā)展、知識產(chǎn)權(quán)強(qiáng)國建設(shè)的重要內(nèi)涵??傊?,知識產(chǎn)權(quán)制度“以人為本”的基本理念從未發(fā)生改變,準(zhǔn)確把握生成式人工智能技術(shù)原理,理論堅守與規(guī)則調(diào)適并重,借鑒與整合傳統(tǒng)網(wǎng)絡(luò)著作權(quán)侵權(quán)判斷規(guī)則,是司法實(shí)踐直面技術(shù)挑戰(zhàn),推動著作權(quán)法治建設(shè)的理性探索。
(作者單位:國家法官學(xué)院)