【代表委員手記】 讓創(chuàng)作者的智慧結(jié)晶得到尊重
今年政府工作報告對發(fā)展人工智能作出具體部署。人工智能作為引領未來的戰(zhàn)略性技術,在為各行各業(yè)賦能的同時,也帶來了一系列法律、倫理和社會問題。生成式人工智能的發(fā)展和應用,一直是我重點關注的領域。2025年,我就整治不法分子利用生成式人工智能生成謠言、危害網(wǎng)絡生態(tài)的問題提出了相關建議,今年,我又關注到生成式人工智能的著作權(quán)保護問題。
當前,人工智能生成內(nèi)容能否構(gòu)成“作品”、權(quán)利如何歸屬,是該領域爭議最多的法律問題。根據(jù)絕大多數(shù)國家的著作權(quán)法,作品的作者必須為自然人,純粹由人工智能自動生成、無人為干預的內(nèi)容,因其缺乏人的創(chuàng)作思想與個性化表達,難以被認定為著作權(quán)法意義上的“作品”。然而,也有很多人工智能生成內(nèi)容是基于使用者獨創(chuàng)性的提示、選擇、篩選、修改以及編排而產(chǎn)生的,最終生成內(nèi)容體現(xiàn)了使用者的獨特思想與創(chuàng)作意圖,若全然否定這類生成內(nèi)容的智力成果屬性,勢必削弱使用者的創(chuàng)作動力,不利于促進人工智能技術的發(fā)展和文化產(chǎn)業(yè)繁榮。
因此,對于人工智能生成內(nèi)容的認定和保護,關鍵在于厘清其中是否存在“人的獨創(chuàng)性貢獻”。用戶輸入的提示詞越具體、越具創(chuàng)意,其對輸出結(jié)果的個性化調(diào)整越充分,越應主張著作權(quán)歸屬用戶。建議在司法實踐和政策指引中進一步明確這一標準,同時引導開發(fā)者在用戶協(xié)議中清晰告知人工智能生成內(nèi)容的權(quán)利歸屬,避免未來引起糾紛;同步推動內(nèi)容溯源技術的應用,通過數(shù)字水印、元數(shù)據(jù)記錄等方式為權(quán)屬爭議提供技術支撐。
與人工智能生成內(nèi)容的性質(zhì)界定和權(quán)利歸屬同樣棘手的,是人工智能訓練數(shù)據(jù)的版權(quán)侵權(quán)風險。人工智能模型多依賴海量互聯(lián)網(wǎng)數(shù)據(jù)進行訓練,其中包含大量受版權(quán)保護的作品。未經(jīng)許可使用這些內(nèi)容進行模型訓練,是否構(gòu)成侵權(quán),已成為全球范圍內(nèi)的法律焦點。一方面,人工智能訓練確實存在“非表達性使用”或“轉(zhuǎn)換性使用”的特征;另一方面,大規(guī)模復制行為又可能損害原作品的市場價值。
因此,針對訓練數(shù)據(jù)的版權(quán)侵權(quán)風險,有必要在著作權(quán)法框架下,適時通過立法或司法解釋明確人工智能訓練數(shù)據(jù)使用的法律邊界。在現(xiàn)行“合理使用”條款難以完全覆蓋人工智能訓練場景的情況下,探索引入“法定許可”加“報酬請求權(quán)”的模式,允許技術開發(fā)者在未獲逐一授權(quán)的情況下使用作品,但須向著作權(quán)集體管理組織支付合理費用,再由其分配給權(quán)利人,從而既保障數(shù)據(jù)的可獲得性,推動人工智能產(chǎn)業(yè)發(fā)展,也有效維護權(quán)利人的合法經(jīng)濟利益。
面對生成式人工智能的著作權(quán)保護這一新課題,單靠司法或行政手段難以全面覆蓋,必須構(gòu)建“政府引導—平臺履責—社會參與”的多元共治機制,同時壓實平臺主體責任,督促其建立健全內(nèi)容審核、版權(quán)過濾、侵權(quán)響應機制。科研機構(gòu)、行業(yè)協(xié)會、法律實務界也需參與其中,深入進行案例研究、加快相關標準制定,提升著作權(quán)保護的精準性與適應性。
期待今后在法治框架下,通過各方共同努力,生成式人工智能的著作權(quán)保護問題從爭議走向共識,每一位創(chuàng)作者的智慧結(jié)晶都能在人工智能時代得到應有的尊重與回報。
(作者萬立系全國人大代表、中華全國律師協(xié)會副會長)


