20萬本盜版書都在「book 3」,AI巨頭從這偷數據!這是什麼?上傳者為何沒在怕?
20萬本盜版書都在「book 3」,AI巨頭從這偷數據!這是什麼?上傳者為何沒在怕?

為了訓練大型語言模型,OpenAI、Meta、谷歌、微軟等公司未經許可,從網路上收割了數百萬受版權保護的作品,在版權法的灰色地帶中遊移。

如今,OpenAI 目前正面臨大量的官司,原告稱該公司訓練數據集中的大多數書籍來自盜版來源和非授權網站。一旦被判侵權,公司有可能將面臨巨額罰款或重構算法的局面。這也導致,如今 AI 公司越來越不願意分享 AI 訓練數據的詳細訊息。

但一些公開的盜版語料庫已經被盯上。

近日,有人發現一個叫Book3 的數據集,包含近20 萬本書籍,囊括村上春樹、史蒂芬·金等暢銷書作家的著作,這個數據集被用在了訓練AI 模型上,最近遭到反盜版組織的攻擊。

版權問題這把利刃,正懸在 AI 公司們的頭上,有搖搖欲墜之勢。

Books3,AI 公司的秘密

一直以來,對於 AI 模型的訓練數據並不完全透明。今年,多名美國作家針對 OpenAI 提起了集體訴訟,指控其使用盜版書籍來訓練語言模型,侵犯版權並違反了多項法律。

這些作家主張的證據很簡單,因為些他們從未同意 OpenAI 使用他們的作品,然而 ChatGPT 卻能提供他們作品的準確摘要,這讓他們認為這些訊息肯定是從某個地方獲取的。

根據早期 GPT 版本的研究論文,其訓練數據集有部分來自於「兩個基於網路的書籍語料庫」,它們被簡單地稱為「Books1」和「Books2」,這些數據集具體包含哪些作品比較含糊。 Books1 似乎是 bookcorpus,裡面有數百本書明確聲明「不得以商業或非商業複製和分發」。 Book2 則成為一個謎團,大多人猜測它們來自於「臭名昭著的影子圖書館網站」,如 Library Genesis、Z-Library、Sci-Hub 和 Bibliotik。

其中,Z-Library 成立於 2008 年,是網路最大的盜版電子書庫之一。2022 年 11 月,美國政府起訴兩名運營該網站的俄羅斯公民,這兩人在阿根廷被逮捕。

至於 GPT-4 的 45TB 訓練數據,其中包含什麼內容的訊息更加有限,OpenAI 多年來逐漸減少了其訓練數據的披露。

儘管目前沒有直接證據證明OpenAI 使用盜版網站來培訓 ChatGPT,但一些 AI 模型此前已經明確在盜版書籍上進行了訓練,包括使用「Books3」數據集的 AI 模型。

EleutherAI 的 Pythia 研究論文中提到,Pythia 是使用 Pile 數據集進行訓練的,而 Pile 數據集包含多個英語文本集,其中之一就是名為「Books3」的數據集。

Books3 是用於訓練 AI 的最著名的盜版書籍庫之一,最初是由 AI 開發人員和知名開源 AI 支持者 Shawn Presser 於 2020 年上傳。它包含 37 GB 的文本,包括 196640 本純文本格式的書籍,並在盜版網站 bibliotik 上託管。

「假設你想訓練一個世界級的GPT 模型,就像OpenAI 一樣。怎麼做?你沒有數據。現在你可以做到,現在每個人都這樣做。為你呈現『books3』,又名『all of bibliotik』」。 Shawn Presser 最早在社交平台上寫道。

開源AI支持者Shawn Presser於2020年上傳「books3」
開源AI支持者Shawn Presser於2020年上傳「books3」。
圖/ X(Twitter)

反盜版組織出手,Books3頻被下架

然而,反盜版組織也在採取行動,代表相關利益群體,試圖限制未經授權的 AI 訓練數據的使用。

這段時間,反盜版組織 Rights Alliance 發送刪除通知後,相關網站已將 Books3 數據集下線,導致嘗試訪問該數據集的用戶會看到 404 錯誤。 Rights Alliance 還聯繫了 AI 模型託管平台 Hugging Face(該網站託管了 Books3 下載連結)以及 EleutherAI。然而,儘管一些連結被下架,該數據集的副本並未消失,仍然在其他地方出現。

遭到針對後,Shawn Presser 繼續發布新的下載連結,他稱,除非反對者打算讓ChatGPT 下線,或者通過訴訟將其告到滅亡,否則,他希望每個人都能夠製作自己的ChatGPT,他還稱自己 「很樂意入獄10 個月(海盜灣創始人服過的最高刑期),因為我推動了科學進步並賦予了你們複製ChatGPT 的能力。」

「複製ChatGPT這樣的模型的唯一方法,是建立像Books3 這樣的數據集。」Shawn Presser 稱:「每個營利性公司都會秘密地這樣做,不會將數據集發布給公眾。」「沒有Books3,我們就生活在一個只有OpenAI 和其他兆元等級公司才能訪問這些書籍的世界中,這意味著你不能製作自己的ChatGPT。沒有人能。只有巨頭公司才有資源做到這一點。」

包括 Meta 在內的一些公司曾經使用過 Book3,另外,Meta、谷歌都使用過的 C4 訓練數據集也被詬病過,現在這些公司對其語言模型中的內容更為保密。

Meta 的Llama 2 增加了40%的數據,但在其白皮書中,該公司對其最新的大語言模型使用了什麼數據更為猶豫,唯一提到的是「一個新的混合的公開可用在線數據」。隨著 AI 和版權之間的摩擦升溫,公司越來越不願意分享 AI 訓練數據的詳細訊息。

萬名作家聯名反對

超過一萬名作家已經在敦促 AI 公司停止未經許可使用其作品,他們不希望 AI 模仿其作品並學會寫作,除非科技公司為此付費。

美國的作家協會已經向巨頭們發了一封公開信,包括OpenAI、谷歌、Meta、Stability AI、IBM 和微軟公司的各大CEO,要求他們停止未經許可使用他們的作品,或對使用作品進行補償。

其中包括《達文西密碼》作者丹·布朗、《飢餓遊戲》作者蘇珊·柯林斯、《使女的故事》作者瑪格麗特·阿特伍德、《自由》作者喬納森·弗蘭岑等人都簽署了這封公開信,簽署的作家名單長達100 多頁。

目前,該作家協會正嘗試先在不提起訴訟的情況下解決爭端,因為「訴訟需要大量的資金,而且需要很長時間。」

作家連署抗議
作家連署抗議。
圖/ 美國作家協會

但也有一些文學界人士願意直接在法庭上與科技公司對抗,控訴 Meta 或 OpenAI 等使用盜版來訓練他們的 AI。此外,文學經紀人們正在與出版商商討,要更新出版合約條款,禁止未經授權的 AI 訓練用途,大部分出版商都願意限制 AI 使用他們的出版物。

根據美國作家協會的調查,90% 的作家認為,作家應該獲得對其作品用於訓練生成式人工智慧的補償,65% 的作家支持建立一個集體授權制度,以補償作者的作品被用於訓練生成式AI。

此外,69% 的作家認為他們的職業受到生成式 AI 的威脅,70% 的作家認為出版商將開始使用 AI 來完全或部分生成書籍,取代人類作者。

作家們要求立法,保障哪些權益?

除了發公開信、打官司、完善合約,出版業還在進一步尋求立法。

美國作家協會的人正在遊說制定相關法律、法規和政策:在同意方面,要求在生成式人工智慧中使用作家作品時獲得許可;在補償方面,為那些希望允許其作品用於生成式人工智慧培訓的作家提供補償;在透明度方面,要求人工智慧開發者透明披露他們用於培訓其人工智慧的作品。

他們也期望,生成式 AI 的輸出使用到作家的作品時,要獲得許可並建立相應的補償機制,或者當在提示中使用作家的姓名、身份或作品標題時,也應獲得許可。此外,他們要求作者、出版商、平台和市場標明 AI 生成的作品,並在作品很大一部分(例如超過 10-20%)由 AI 生成時進行標識。

「我們需要確保人類創作者得到補償,這不僅是為了創作者本身,而是為了確保我們的書籍和藝術繼續反映出我們的真實和想像的經驗,開拓我們的思維方式,教導我們新的思維方式,並推動我們社會的發展,而不是重複舊觀念。」該作家協會在官方聲明中稱。

NYT VS OpenAI

除了作家和藝術家,其他類型的內容創作者,也紛紛加入起訴 AI 公司的行列,一些新聞機構批評科技公司未經授權或補償,就使用他們的內容。

比如,紐約時報正在考慮對 OpenAI 提起訴訟,稱 OpenAI 的ChatGPT使用了該報的數據進行訓練,而未經紐約時報許可。在過去的幾個月裡,OpenAI 和紐約時報一直在試圖達成一項有關紐約時報內容的許可協議。但談判還未有結果,存在破裂的可能。

在最近對其服務條款政策的更改中,紐約時報明確禁止將其龐大的媒體檔案用於訓練「任何軟件程序,包括但不限於訓練機器學習或人工智慧(AI)系統」的目的。該政策適用於紐約時報的文本內容、照片、影片和數據,並明確禁止網絡爬蟲訪問,來訓練專有產品。

這裡做一個假設,如果法院判定OpenAI 等AI 公司的訓練行為屬於侵權,OpenAI 可能會被迫停止使用受版權保護的數據,並在不使用受版權保護的數據的前提下,重新構建其算法,這會引發多大的麻煩?

科技公司也試圖與新聞媒體建立關係。谷歌曾試圖爭取像紐約時報、華盛頓郵報等新聞機構的支持,向他們推銷 AI 工具。還有 AI 公司向新聞非營利機構提供微薄的慈善捐款。

期間,也有新聞機構不那麼強硬。美聯社今年就與OpenAI達成了一項為期兩年的許可協議,同意將美聯社的內容授權給 OpenAI 使用訓練。作為回報,OpenAI 提供了美聯社訪問「OpenAI 的技術和產品專業知識」的權利。

《紐約時報》
圖/ 《紐約時報》

懸在AI公司們頭上的利刃

AI 公司抓取海量網路數據,已經導致法律問題的出現,起訴 AI 公司的人正在變得越來越多。

今年,美國一間律師事務所相繼對 OpenAI、Meta 等巨頭提起訴訟,指控他們未經同意、未經授權或未經補償地佔用成千上萬名作家的作品,來訓練他們的大語言模型。行業預計訴訟規模將很龐大,因為其他內容創作者也有可能受此啟發採取法律行動。

其他生成 AI 公司,如 AI 圖像生成工具 Stable Diffusion 背後的 Stability AI,也惹上版權官司。 Stable Diffusion 是在 LAION-5B 數據集上進行訓練的,數據集包含 58.5 億個圖像文本對,大多數都受版權保護。 Getty Images 正在起訴 Stability AI,指控其未經授權在超過 1200 萬張 Getty Images 上訓練 AI 圖像生成模型。

許多藝術家和利益相關者也表示不滿,對 Stability AI、DeviantArt 和 Midjourney 等公司提起訴訟,指控他們侵犯版權、侵犯肖像權、不正當競爭和不正當獲利,尋求賠償和禁令。

微軟推出的編碼工具 Copilot 也面臨集體訴訟。 Copilot 是 GitHub 與 OpenAI 合作開發的基於人工智慧的自動編碼產品,主要利用 GitHub 上的公共代碼庫,在數十億行公開可用的代碼上進行了訓練,能通過簡單提示替用戶編寫代碼。開源程式設計師和律師指控他們從事開源軟件盜版,被告包括 GitHub、微軟及其人工智慧技術合作夥伴 OpenAI。

AI公司的利器:公平使用原則

如果要打官司,AI公司可能會援引所謂的「公平使用原則」來為其辯護,該原則允許在某些情況下,無需許可即可使用作品,包括教學、批評、研究和新聞報導。問題是,AI 訓練是否適用「公平使用原則」。

幾年前,美國作家協會也曾起訴谷歌,理由是谷歌未購買「圖書館」項目中收錄的書籍,當時,聯邦上訴法院判決認為,谷歌為其圖書館項目掃描了數百萬本書的數字副本,是合法的「公平使用」,而非侵犯版權。關鍵在於,谷歌的數字圖書館並沒有為這些書創造出「重大市場替代品」,這意味著它與原作並無競爭關係。

目前,各國政府正努力將生成式 AI 納入立法範疇。歐盟也在制訂一項 AI 法案,該法案將迫使公司將訓練模型訊息透明化。上半年,美國作家協會已兩次訪問國會山莊,討論生成式 AI 和作家保護措施的問題,涉及的問題包括集體授權和版權保護、反壟斷豁免權以及 AI 標籤和透明度要求。

「除非國會採取干預措施,以確保生成式人工智慧技術的開發和使用受到監管,否則驅動原創表達並豐富我們文化交流的重要版權激勵,將變得毫無意義。 」該作家協會在官方聲明中稱。

從現有輿論看,雖然一些人擔心訓練AI 可能會引發版權問題,但也有人認為,OpenAI 等AI 公司不需要特別許可來訓練模型,版權擔憂不利於AI 發展進步;有人則認為,取得作者的同意是至關重要的,創作者應該有拒絕的權利,或者,AI 公司至少應該購買訓練數據的書籍。

技術正在做人類歷史上從未發生過的事情,AI 訓練數據方面的開源精神應該有底線嗎?未來的法律是掣肘還是保護?如何平衡 AI 的發展與尊重人類創作權益,可能是和「通用人工智慧何時到來」是同樣重要的問題。

延伸閱讀:《紐約時報》擋OpenAI爬蟲,8千作家也怒討版權費

本文授權轉載自:極客公園

責任編輯:錢玉紘

關鍵字: #openai
往下滑看下一篇文章
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路

「代理式 AI 」(Agentic AI)的創新服務正在重新塑造企業對AI的想像:成為內部實際運行的數位員工,提升關鍵工作流程的效率。代理式AI的技術應用清楚指向一個核心趨勢:2025 年是 AI 邁向「代理式 AI」的起點,讓 AI 擁有決策自主權的技術轉型關鍵,2026 年這股浪潮將持續擴大並邁向規模化部署。

面對這股 AI Agent 浪潮,企業如何加速落地成為關鍵,博弘雲端以雲端與數據整合實力,結合零售、金融等產業經驗,提出 AI 系統整合商定位,協助企業從規劃、導入到維運,降低試錯風險,成為企業佈局 AI 的關鍵夥伴。

避開 AI 轉型冤枉路,企業該如何走對第一步?

博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題、生成內容的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工,應用場景也從單一任務延伸至多代理協作(Multi-Agent)模式。

「儘管 AI 前景看好,但這條導入之路並非一帆風順。」博弘雲端技術維運中心副總經理暨技術長宋青雲綜合多份市場調查報告指出,到了 2028 年,高達 70% 的重複性工作將被 AI 取代,但同時也有約 40% 的生成式 AI 專案面臨失敗風險;關鍵原因在於,企業常常低估了導入 GenAI 的整體難度——挑戰不僅來自 AI 相關技術的快速更迭,更涉及流程變革與人員適應。

2-RD096270.jpg
博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工。面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時加速 AI 落地。
圖/ 數位時代

正因如此,企業在導入 AI 時,其實需要外部專業夥伴的協助,而博弘雲端不僅擁有導入 AI 應用所需的完整技術能力,涵蓋數據、雲端、應用開發、資安防禦與維運,可以一站式滿足企業需求,更能使企業在 AI 轉型過程中少走冤枉路。

宋青雲表示,許多企業在導入 AI 時,往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。

轉換率提升 50% 的關鍵:HAPPY GO 的 AI 落地實戰路徑

博弘雲端這套導入方法論,並非紙上談兵,而是已在多個實際場域中驗證成效;鼎鼎聯合行銷的 HAPPY GO 會員平台的 AI 轉型歷程,正是其最具代表性的案例之一。陳亭竹說明,HAPPY GO 過去曾面臨AI 落地應用的考驗:會員資料散落在不同部門與系統中,無法整合成完整的會員輪廓,亦難以對會員進行精準貼標與分眾行銷。

為此,博弘雲端先協助 HAPPY GO 進行會員資料的邏輯化與規格化,完成建置數據中台後,再依業務情境評估適合的 AI 模型,並且減少人工貼標的時間,逐步發展精準行銷、零售 MLOps(Machine Learning Operations,模型開發與維運管理)平台等 AI 應用。在穩固的數據基礎下,AI 應用成效也開始一一浮現:首先是 AI 市場調查應用,讓資料彙整與分析效率提升約 80%;透過 AI 個性化推薦機制,廣告點擊轉換率提升 50%。

3-RD096215.jpg
左、右為博弘雲端事業中心副總經理陳亭竹及技術維運中心副總經理暨技術長宋青雲。宋青雲分享企業導入案例,許多企業往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。
圖/ 數位時代

整合 Databricks 與雲端服務,打造彈性高效的數據平台

在協助鼎鼎聯合行銷與其他客戶的實務經驗中,博弘雲端發現,底層數據架構是真正影響 AI 落地速度的關鍵之一,因與 Databricks 合作協助企業打造更具彈性與擴充性的數據平台,作為 AI 長期發展的基礎。

Databricks 以分散式資料處理框架(Apache Spark)為核心,能同時整合結構化與非結構化資料,並支援分散式資料處理、機器學習與進階分析等多元工作負載,讓企業免於在多個平台間反覆搬移資料,省下大量重複開發與系統整合的時間,從而加速 AI 應用從概念驗證、使用者驗收測試(UAT),一路推進到正式上線(Production)的過程,還能確保資料治理策略的一致性,有助於降低資料外洩與合規風險;此對於金融等高度重視資安與法規遵循的產業而言,更顯關鍵。

陳亭竹認為,Databricks 是企業在擴展 AI 應用時「進可攻、退可守」的重要選項。企業可將數據收納在雲端平台,當需要啟動新型 AI 或 Agent 專案時,再切換至 Databricks 進行開發與部署,待服務趨於穩定後,再轉回雲端平台,不僅兼顧開發效率與成本控管,也讓數據平台真正成為 AI 持續放大價值的關鍵基礎。

企業強化 AI 資安防禦的三個維度

隨著 AI 與 Agent 應用逐步深入企業核心流程,資訊安全與治理的重要性也隨之同步提升。對此,宋青雲提出建立完整 AI 資安防禦體系的 3 個維度。第一是資料治理層,企業在導入 AI 應用初期,就應做好資料分級與建立資料治理政策(Policy),明確定義高風險與隱私資料的使用邊界,並規範 AI Agent「能看什麼、說什麼、做什麼」,防止 AI 因執行錯誤而造成的資安風險。

第二是權限管理層,當 AI Agent 角色升級為數位員工時,企業也須比照人員管理方式為其設定明確的職務角色與權限範圍,包括可存取的資料類型與可執行的操作行為,防止因權限過大,讓 AI 成為新的資安破口。

第三為技術應用層,除了導入多重身份驗證、DLP 防制資料外洩、定期修補應用程式漏洞等既有資安防禦措施外,還需導入專為生成式 AI 設計的防禦機制,對 AI 的輸入指令與輸出內容進行雙向管控,降低指令注入攻擊(Prompt Injection)或惡意內容傳遞的風險。

4-RD096303.jpg
博弘雲端技術維運中心副總經理暨技術長宋青雲進一步說明「AI 應用下的資安考驗」,透過完善治理政策與角色權限,並設立專為生成式 AI 設計的防禦機制,降低 AI 安全隱私外洩的風險。
圖/ 數位時代

此外,博弘雲端也透過 MSSP 資安維運託管服務,從底層的 WAF、防火牆與入侵偵測,到針對 AI 模型特有弱點的持續掃描,提供 7×24 不間斷且即時的監控與防護。不僅能在系統出現漏洞時主動識別並修補漏洞,更可以即時監控活動,快速辨識潛在威脅。不僅如此,也能因應法規對 AI 可解釋性與可稽核性的要求,保留完整操作與決策紀錄,協助企業因應法規審查。

「AI Agent 已成為企業未來發展的必然方向,」陳亭竹強調,面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時,加速 AI 落地。在這波變革浪潮中,博弘雲端不只是提供雲端服務技術的領航家,更是企業推動 AI 轉型的策略戰友。透過深厚的雲端與數據技術實力、跨產業的AI導入實務經驗,以及完善的資安維運託管服務,博弘雲端將持續協助企業把數據轉化為行動力,在 AI Agent 時代助企業實踐永續穩健的 AI 落地應用。

>>掌握AI 應用的新契機,立即聯繫博弘雲端專業顧問

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓