|
(承上期)
2. AI生成內容產生著作侵權爭議的原因
(1) 據前述AI生成圖像過程,從收集數據集、訓練到AI具有生成圖像能力,有以下兩階段涉及著作權爭議
a. 數據收集和預處理階段:是否涉及著作或資料庫侵權?
以Stable Diffusion為例,其訓練圖像之主要來源為德國非營利組織開發的LAION-5B圖像集,其中包含爬取自全球各地的圖像數據,包括來自Pinterest和Getty Images等。這些圖像被用於訓練AI,但其中某些圖像可能未經授權商業化使用。Stability AI公司使用這些圖像及其相關的「標籤」進行訓練,但未取得原創作者的授權,可能引發著作權問題。
b. 圖像生成階段:是否構成著作重製或改作侵權?
在前述第(一)項Andersen et al v. Stability AI Ltd. et al 案例中,原告聲稱Stable Diffusion本質上只是現代的「拼貼工具」,並質疑其是否真正擁有人工「智慧」。原告指出,Stable Diffusion技術實際上是將圖像拆分為多個小塊,然後重新排列以生成新圖像,類似於傳統的拼貼方法,只不過應用了現代計算機技術和複雜的數學演算法。原告認為Stable Diffusion未創造出新的、原創性的作品,而是在未經著作權人同意或授權的情況下修改了現有著作權圖像,創造了衍生作品。
(2) 生成式AI的開發商在訴訟中可能提出的抗辯
《關於第一階段訓練數據集的侵權爭議》
a. Stable Diffusion在訓練過程中使用LAION-5B子集LAION-Aesthetics中的圖像,但這些圖像未儲存在最終發布的版本中。因此,使用數據集來訓練AI本身不構成著作「重製」。
b. 訓練過程中的「暫時性重製」屬於美國判例法中被承認的技術操作或中介操作,類似於瀏覽網頁或使用搜尋引擎的行為,並不構成侵權。
c. 大數據資料探勘涉及的「資料庫」保護爭議仍待釐清。即使是未受著作權保護的大數據,由於各國法律規定不一,對於「文本和數據挖掘(text and data mining)」的合法性存在爭議(註23)。Stable Diffusion使用原始數據集訓練AI,是否構成著作權侵害,以及是否適用「合理使用」抗辯,需由法院進一步裁定。
《關於第二階段生成內容的侵權爭議》
a. 以Stable Diffusion為例,其雖使用LAION-5B中的圖像進行訓練,但生成的圖像並未直接複製原始資料庫的內容。生成的模型分析了無數圖像之間的相似性特徵,並根據「提示」創建新的圖像組合,類似於人類的記憶過程。因此,生成的圖像並不是直接複製原始資料庫中的圖像,
b. 再者,生成過程是由不特定的使用者操作,Stability AI等模型開發商未事先掌控。因此,Stability AI等被告可能主張未直接涉及著作侵權。
c. 「合理使用抗辯」可能適用:
(a) 以前述「電腦程式著作侵權爭議案(DOE 1 et al v. GitHub, Inc. et al )」為例,微軟和OpenAI提出了合理使用的辯護。引用「甲骨文訴GoogleJava侵權案(Google LLC v. Oracle Am., Inc.)」(註24),即使Google在其Android操作系統中使用Java程式語言的API時複製了約11,500行代碼,但這是出於技術需求和互操作性的考量。Google對Java API進行了重新改造,以適應Android操作系統的需求,並未對Java API的市場價值造成不利影響。因此,法院認定Google的行為符合合理使用原則。同樣地,在「作家協會訴Google圖書案(Authors Guild v. Google, Inc. )」(註25))中,Google掃描數百萬冊書籍以建立線上圖書資料庫,但因未提供完整內容,僅供關鍵字搜尋和部分文字摘要,而被認定為具有高度轉化性的合理使用行為。
(b) 然而,生成的圖像可能以近乎重製的方式呈現,是否符合合理使用的標準尚待進一步討論:
以著作權已到期的維尼為例,對Stable Diffusion提示「Winnie-the-Pooh in a suit, HD, dramatic lighting(穿著西服的維尼,高解析度,戲劇化燈光)」,可生成以下圖案(上排);普通人難以辨別此圖是否原創。若加上提示「in the style of ○○ artist (具有某知名藝術家的風格)」,例如林布蘭、莫內、梵谷,生成的圖案如下(下排),對原創者和被模仿風格的藝術家雙方都可能產生作品被用來訓練AI使其產生「改作」能力之疑慮。
(3) 總之,新技術手段所產生的爭議可能難以從過去的判例中得出確定的結論。法院需要釐清這些爭議,以確定是否存在侵權行為。
3. 臺灣智慧局近期函釋亦反映前述爭議焦點
臺灣智慧局於2023年6月16日以「經授智字第11252800520號令函」說明:
(1) 在蒐集資料訓練AI模型階段:訓練資料如受著作權法保護(下稱原始著作),會涉及「重製」原始著作之行為,除有著作權法第44條至第65條合理使用之情形外,應取得著作財產權人之同意或授權,否則即涉有侵權訟爭風險。由於臺灣尚未有類似訴訟案件,智慧局援引前述第(一)項案例,建議臺廠可持續觀察國內外之司法實務發展。
(2) 利用生成式AI模型生成內容者(以下稱「AI利用人」)部分:
a. AI利用人如係單純下指令,並未投入精神創作,由生成式AI模型獨立自主運算而生成全新內容,該AI生成內容不受著作權法保護。
b. 在AI模型依AI利用人指令自主運算生成內容之階段,如AI 生成內容僅係將訓練資料中之原始著作予以重製再現之情形,亦會涉及原始著作之「重製」等利用行為,建議AI利用人先向AI模型之開發或管理者釐清有無取得著作財產權人之授權及得否轉授權第三人進行商業利用,以免產生著作權糾紛。
(3) 上述函釋要旨顯示臺灣智財界主流對生成式AI涉及的著作權爭議,基本與歐美實務採相同立場。
五、對生成式AI的規範藍圖
(一) 美國:
目前正在商議如何立法監管AI。在此過渡期,各政府機構根據現有法律框架主動調查可能涉及重大違法行為。例如,FTC於今年7月對OpenAI展開調查,以確認其訓練模型過程是否符合有關隱私、個資保護和不實廣告的法規,是否以不公平的方式造成消費者損失(註26)。美國總統亦頃於2023年10月30簽署首件針對AI的行政命令,強調AI的發展應兼顧安全性及可靠性。為了保護創作和創新,並責成美國專利商標局對行政部門提出建議,以保護AI參與創作的作品及用作訓練AI的作品(註27)。
(二) 歐盟和英國:
1. 歐盟預計將在2023年底前敲定「AI法案」草案,依據使用AI產生的「風險程度」分為最低風險、有限度風險、高風險,及無法被接受的風險四類,對應不同應用AI的企業要求。考慮到生成式AI如ChatGPT和MidJourney的迅速發展,可能引發道德、經濟和侵權風險,特別針對通用人工智慧基礎模型和生成式AI增加規範,主要是修正案第28b條關於「基礎模型提供者」的規定(註28)。要求「基礎模型提供者」應:
(1) 採取適當措施(包括引入外部獨立專家、記錄和分析開發過程、保留技術檔 10年、提供易於理解的技術使用說明文件、建立品質管理機制)來減輕模型對公眾造成的風險,並記錄任何無法減輕的風險。
(2) 在歐盟高風險人工智慧資料庫註冊該基礎模型。
(3) 遵守「透明度義務」,防止生成內容違反歐盟法律。
(4) 在不損害歐盟或成員國或其聯盟版權法的情況下,記錄並公開使用受版權法保護的訓練數據的詳細摘要。
(5) 如未能遵守上述義務,將受到4千萬歐元或公司前一年全球營業額7%的巨額罰款(以較高者為準)。
(6) 無論基礎模型是獨立產品還是嵌入AI系統中應用,也無論基礎模型是否以開源或免費方式提供,基礎模型提供者都受以上規範約束。
「AI法案」草案所保護的權利範圍涵蓋了著作權等智慧財產權利,但尚未明確賦予智慧財產權人可根據該法案直接請求救濟的權利。因此,生成式AI衍生的具體著作等智慧財產侵權爭議案,在歐盟體系中仍依既有的法律規範加以解釋。例如,在歐盟體系內利用爬蟲機器人在網路挖掘大數據資料用以訓練、開發「大型語言模型」,擷取基礎模型訓練數據集的行為是否侵害著作權,仍依既有的歐盟「DSM 著作權指令」判斷,是否有該指令中的「大數據文字與資料探勘」例外不構成侵權條款之適用。
2. 英國政府今年3月發布了「促進創新的人工智能監管方法」白皮書(註29):
(1) 白皮書允許各現有部門在其管轄範圍內監管AI,並考慮特定AI技術(如基礎模型)根據應用方式可能產生不同風險等級(例如使用聊天機器人生成文章摘要與使用相同技術提供醫療建議存在截然不同的風險),英國政府將與AI創新者合作根據風險監控AI發展,以避免不必要的監管阻礙創新。對於快速發展的生成式AI,將透過透明度、責任、公平和創新的方式引導,預計將在前述基礎上擁抱更多發展機會,例如在加快發現新藥治療重疾方面的應用。
(2) 總體而言,白皮書顯示英國政府希望維持該國在AI領域的創新領導地位,避免過於嚴苛或僵化的法規阻礙可能的創新發展。
(三) 中國大陸
1. 中國大陸於今年7月發布了世界首部針對生成式AI技術的「生成式人工智慧服務管理暫行辦法」,規範「服務提供者」的行為,包括數據訓練階段舊資料來源合法性盡職監督、AI生成內容監控,並保護用戶個資。管理辦法強調深度合成技術等風險等級較高生成內容的標示及告知義務,同時排除在國內非公眾範圍的AI技術研究、開發和應用,顯示中國政府對生成式AI的發展呈現「包容審慎」的態度,並未直接給予強力的監管措施,反而提供靈活的觀察空間,展現鼓勵彈性發展的立法方向。未來中國大陸將採取行業導向監管,由不同政府部門「分類分級」監管生成式AI服務(註30)。
2. 在管理辦法出台前,已有針對特定產業應用生成式AI行為的子規範。例如,《互聯網資訊服務深度合成管理規定》對深偽技術,以及《互聯網信息服務算法推薦管理規定》對演算法推薦技術進行了管理。管理辦法是對這些子規範的補充。
3. 「分類分級」監管的用語遍及管理辦法架構,顯示生成式AI可應用於各產業,難以逐一列管。各主管機關將根據技術特點和行業制定相對應的「分類分級監管」規則,此部分與歐盟「AI法案」草案和英美的規範方向一致。因此,未來根據風險和產業等分類分級監管生成式AI應成為趨勢。
(四) 臺灣
1. 2023年8月31日行政院通過「行政院及所屬機關(構)使用生成式AI參考指引」(註31)。其中第七條強調,使用生成式AI時應遵守資通安全、個人資料保護、著作權及相關資訊使用規定,需注意潛在的智慧財產權和人格權侵權風險。指引前言明確表示,各機關可根據生成式AI的業務需求,制定適用規範或內控管理措施。
2. 金融監督管理委員會根據上述指引,亦於2023年10月17日公布「金融業運用人工智慧(AI)之核心原則與相關推動政策」(註32)。提出金融業運用人工智慧系統的六項核心原則:(1)建立內部治理及保護消費者權益的問責機制;(2)重視提供公平的金融服務,符合以人為本和可控原則;(3)保護隱私及客戶權益;(4)確保系統穩健性與安全性,對第三方業者進行適當的風險管理和監督;(5)落實透明性與可解釋性,使用生成式AI作為辦理業務或提供金融服務輔助工具時,應適當揭露;(6)促進可持續發展,維護員工工作權益。
3. 以上顯示,臺灣目前在生成式AI領域的發展與美國趨勢相近。相關行政機關根據現有法制提出了可能產生風險的概要,自行通過行政規範進行管制。尚無明顯跡象表明將會針對著作權等現有法律架構特別立法進行規範。
六、企業利用生成式AI的合規性策略
(一) 關於AI生成作品的可著作性及著作權歸屬:
1. 目前中、美案例顯示,主流意見承認AI生成作品可受著作權保護,美國進一步強調以「人類對整體作品貢獻程度」為判斷標準。但人類貢獻程度的具體標準因缺乏比例或衡量準則,迄未有定論。現階段擬在美國申請註冊的創作者,可採取強調人類對該作品的創作能力和誠實揭露AI生成部分的內容,以應對註冊審查。至於其他國家是否採取與美國類似的審查方式,仍有待觀察。
2. 生成式AI不僅適用於小說和圖像,也可生成其他媒介作品,如「電腦程式」。「黎明的查莉婭」案例顯示商業軟體被認定不具可著作性的機率提高。且該案例雖只是著作註冊申請案,或許也會影響未來法院類似案例的審查。涉及電腦程式開發的業者或可考慮重新檢視內部開發政策,詳細記錄開發歷程,作為「人類創作性」要求之佐證。
(二) 關於生成式AI的侵權風險:
1. 根據美國專利商標局「公眾對AI以及智慧財產政策的觀點」報告,倘若AI參與創作的資料涉及侵權時,AI之開發者、持有者或者使用者仍會因代理、可控制性以及可預見性等法理承擔侵權責任(註33)。
2. 雖然目前訴訟多針對生成式AI的開發商。但倘若相關訴訟判決確定生成式AI構成著作侵權,那麼不僅開發商,生成式AI軟體的所有者和用戶都可能面臨著作權侵權風險。因此,在相關法律侵權與否的界定仍不明確之情形下,企業計畫導入生成式AI之前宜進行智慧財產盡職調查,以降低法律風險。
3. 由AI造成的侵權責任,還可能受到AI開發商和用戶之間任何預先存在的協議/使用者條款等約束,因此用戶端宜留意相關約款已確認權利歸屬及合理分配未來可能承擔的風險。
(三) 生成式AI的跨國監管:
1. 監管方式多樣:不同國家對生成式AI的監管方式各不相同。歐盟的AI法案草案要求基礎模型開發商盡可能記錄並公開使用受著作權法保護之培訓數據的詳細摘要,以及自主註冊等制度,架構上有較明顯保護著作權人之傾向。美國以及臺灣目前仍由各該行政主管機關自主決定合規審查方式。英國和中國大陸則顯示較為彈性的管制方向,希望維持AI創新發展的領先地位。
2. 分級監管趨勢:不論監管方式如何,都顯示根據風險和產業類別進行分級監管的趨勢。企業在現階段可採取行動盤點和記錄營運行為中可能利用生成式AI的項目,將有助於具體識別對應在各司法體系規範的「風險級別」,以對應實施合規措施。
※ 註釋 ※
|