林誠夏顧問/CC Taiwan、鈞理知識產權事務所

坦白說,這取決於具體情境。隨著生成式 AI 工具愈來愈普及,大眾對於作品標示的態度,也已從早期強調 Built with AI(由 AI 生成)、Produced by AI(由 AI 產出),逐漸出現反向標示,例如 Built without AI(未使用 AI 生成)、Produced without AI(非 AI 產出),甚至進一步標示 100% human-created(百分之百人類創作)。不過,在某些特定情境下,仍建議進行明確標示,例如涉及學術倫理、深偽(deepfake)或選舉文宣等高風險領域。這些領域的規範要求,各國法制亦正逐步強化,例如美國加州相關 AI 透明規範、歐盟《人工智慧法》(AI Act),以及中國大陸發布的《人工智慧生成內容標識辦法》。

所謂 AI 防偽標示,目前許多生成式 AI 工具業者已開始進行技術布局。例如 Adobe 參與推動 C2PA 標準、OpenAI 在影像生成工具 DALL·E 上進行相關設計、Stability AI 採用隱形浮水印(invisible watermark),以及 Google 推動的 SynthID 方案等。然而,這些技術方案目前仍面臨幾項限制:一是需額外投入資源進行儲存與版本校對;二是部分方案仍處於試行階段;三是尚未形成具體且普遍的業界標準。因此,在現階段,有些實務使用者會採用新聞媒體常見的 IPTC 標籤進行 AI 標示;亦有透過著作權(copyright)欄位,將 AI 生成狀態嵌入於權利聲明或授權條款資訊中,一併記載,這些方式在實務上均能達到一定效果。

從學術倫理的觀點來看,以 Elsevier 為例,其對於透過平台發表之論文與期刊內容,基本要求作者揭露 AI 工具的使用情形,包括:(1)模型或工具名稱及其提供者;(2)AI 工具的使用方式;以及(3)保留未經 AI 調整前的原始素材版本,以供必要時查驗比對。此外,我國《人工智慧基本法》已於 2025 年底三讀通過,並於 2026 年初公布施行。該法指出,若 AI 應用涉及資訊誤導或造假等違反相關法規之情形,應由政府統籌防範。因此,數位發展部近期亦針對 AI 生成影像及相關素材,進行政策層級的共識溝通,預期未來將提出具體的 AI 標示指引。

在相關指引尚未正式發布之前,仍建議從既有法律規範出發進行判斷。例如,醫療行為與附隨的醫囑文書須由具資格之醫師執行,廣告與選舉文宣則涉及實名與溯源要求;在此類高風險或受管制領域中,如涉及 AI 應用,仍應由專業人員負責標示與揭露,以避免資訊混淆或違法風險。另一方面,若發布者有意強化其著作權保護,也建議主動將 AI 使用情形納入權利聲明中進行標示。不論是透過顯性浮水印,或隱性的詮釋資料(metadata)註記,均有助於後續權利主張,本文附圖即為此一實踐的範例。當這些資訊構成「權利管理電子資訊(Digital Rights Management Information)」的一部分時,依著作權法若他人無正當理由加以移除或變更,並因此損害著作權人權益,則相關資訊的不當移除者或變更者,便可能需負擔相應之損害賠償責任。