不用Obsidian也能建AI知識庫!Karpathy同款「說明書」設定,4.1萬人超人氣方法完整拆解
不用Obsidian也能建AI知識庫!Karpathy同款「說明書」設定,4.1萬人超人氣方法完整拆解

OpenAI 共同創辦人卡帕西(Andrej Karpathy)在 X 上分享了他用 AI 管理個人知識庫的做法,獲得超過 4.1 萬次收藏。

AI 工具內容創作者 Nick Spisak 隨後拆解了這套方法的完整步驟,引發新一輪討論。不需要 Obsidian,不需要 Notion,不需要任何資料庫,只要三個資料夾加一份文字檔。

多數人的知識管理是這樣的:花三天挑選筆記工具,再花一週設定分類標籤和外掛,然後把素材丟進去之後再也沒打開。卡帕西的做法反過來:你只管把東西往裡丟,整理是 AI 的事。

開始之前:你需要一個能讀本地檔案的 AI 工具

這套方法的前提,是你手邊有一個能讀取本地資料夾的 AI 工具。本文以 Anthropic 的 Claude Code 為例,它是目前最直覺的選擇之一。

最簡單的上手方式是下載 Claude 官方桌面 App(Mac/Windows),登入後在介面內切換到 Claude Code 功能即可開始使用,不需要另外安裝 CLI 或配置開發環境。訂閱上,每月 20 美元的 Claude Pro 方案已經包含 Claude Code 使用額度,對個人使用者綽綽有餘。

如果你用的是 Cursor、Windsurf 或其他能讀本地檔案的 AI 編輯器,原理相同,差別只在於介面操作。接下來的步驟都是基於「AI 工具已能讀取你的專案資料夾」這個前提。

兩條路線:要不要搭配 Obsidian?

打造這套 AI 知識庫,實務上有兩條路線可以選:一條是純粹的「三個資料夾+一份設定檔」,不依賴任何筆記 App;另一條是把這個結構放進 Obsidian 這類筆記工具裡,額外得到全文搜尋、筆記互連、圖譜視覺化等功能。

本文介紹的是前者,也就是卡帕西原版的極簡做法,適合想最快跑通流程、不想先花時間學筆記軟體的人。如果你已經是 Obsidian 使用者,或希望知識庫長期累積後有更完整的檢索與視覺化能力,可以參考我們先前的教學:《用Claude Code管理100篇研究筆記!OpenAI共同創辦人公開LLM知識庫系統,貼一段指令就能建起來》。

兩條路線的核心邏輯一樣,差別只在於最上層多不多一個筆記 App 當介面。

為什麼「不整理」反而有效?

傳統知識管理的瓶頸不在收集,在整理。人不擅長預先分類,你今天存的一篇文章,可能三個月後才發現跟另一個主題相關。手動整理,本質上是用存入當下的理解去限制未來的使用方式。

卡帕西的做法把整理權完全交給AI。AI 能在秒級完成人類需要數小時的交叉比對,而且每次新增素材都能重新建立連結。知識庫不是靜態檔案櫃,而是隨素材累積自動演化的系統。

開始動手之前,先看看你要蓋出來的系統全貌:

第1步:建立三個資料夾(2分鐘)

建一個專案資料夾,裡面放三個子目錄:

my-knowledge-base/
  raw/       ← 原始素材(文章、筆記、截圖、PDF)
  wiki/      ← AI 整理後的知識庫(你不動,AI 維護)
  outputs/   ← AI 產出的回答、報告、分析

不需安裝軟體,不需建帳號。卡帕西自己就是用這個結構。

第2步:把所有素材倒進 raw/(10分鐘)

網頁文章存成 .md 或 .txt、會議紀錄、研究報告、書籤、截圖,全丟進 raw/。

不要整理、不要改名、不要分類。 那是 AI 的工作(當然想整理也是沒問題)。

Spisak 的內容產製流程中放了 17 個原始素材檔,全部沒有手動分類。

加速收集:用 agent-browser 自動擷取(選配)

Vercel Labs 開源的 agent-browser 是一款讓 AI 代理控制瀏覽器的 CLI 工具,GitHub 上已累積超過 2.6 萬顆星。安裝只需兩行指令:

npm install -g agent-browser
agent-browser install

裝好後,你可以直接讓 AI 開啟網頁、擷取文章內容,再存進 raw/。它能處理 JavaScript 動態載入的頁面、需要捲動或點擊「載入更多」的內容,甚至登入後才看得到的頁面。

《數位時代》以 Wikipedia 與 Vercel 官網兩個頁面實測,agent-browser 回傳給 AI 的頁面結構比 Playwright MCP 少了約五到六成字元量,主要省下的是 cursor 狀態、完整連結 URL、hover 效果等 AI 通常用不到的 metadata。擷取頁面越多,token 優勢累積越明顯。

這一步不是必要的,手動複製貼上一樣能運作。但如果你的素材來源以網頁為主,自動化收集能大幅降低「懶得存」的摩擦力。

第3步:寫一份 Schema 設定檔(5分鐘)

在專案根目錄建一個 CLAUDE.md,告訴 AI 知識庫的主題和規則。這是整套系統最關鍵的一步。以下是可直接複製使用的中文模板:

# 知識庫規則說明

## 這個知識庫是什麼
一份關於 [你的主題] 的個人知識庫。

## 資料夾結構
- raw/:原始素材暫存區,AI 不得修改此資料夾內的任何檔案。
- wiki/:整理後的知識庫,由 AI 全權維護,使用者不手動編輯。
- outputs/:AI 產出的報告、回答、分析歸檔。

## Wiki 維護規則
- 每個主題建立一份獨立的 .md 檔案,放在 wiki/
- 每份 wiki 檔案開頭必須有一段摘要
- 相關主題之間用 [[主題名稱]] 格式互相連結
- wiki/ 中維護一份 INDEX.md,列出所有主題
- 當 raw/ 新增素材時,主動更新相關 wiki 文章

## 我的關注方向
[列出 3 到 5 個你希望知識庫聚焦的方向]

用中文或英文寫都可以,現在的 AI 模型兩種都讀得懂。英文是國外社群的慣例用法,中文讓你日後微調規則時更順手。如果你到處看到的範例都是英文,不用擔心要跟著照做。

卡帕西形容他的 schema「超級簡單扁平」,就是一份告訴 AI 規則的文字檔。這份文件的品質直接決定 AI 整理出來的品質。

這個 .md 檔要怎麼存?(Mac 操作指南)

如果你沒寫過 Markdown 檔,第一次做可能會卡在這裡。以下提供三種方法,由簡至繁排列:

方法一:直接請 Claude Code 幫你建(最推薦)

打開 Claude 桌面 App,切到 Claude Code,把工作目錄指向你剛建立的 my-knowledge-base 資料夾,輸入:

「請在這個資料夾建立一份名為 CLAUDE.md 的檔案,內容如下:[貼上上面的模板]」

按 Enter,Claude Code 會幫你建好檔案。不需要懂副檔名、不需要開其他編輯器。

方法二:用 TextEdit 手動建立

  1. 打開 Mac 內建的 TextEdit(文字編輯),按快捷鍵 Shift + Cmd + T 切成純文字模式(選單「格式 → 製作純文字格式」也可以)
  2. 把模板內容貼進去
  3. Cmd + S 存檔,檔名打 CLAUDE.md,存放位置選你的專案資料夾
  4. 若跳出「確定要用 .md 副檔名嗎?」的提示,選「使用 .md」

方法三:用 VS Code 或其他程式碼編輯器

如果你已經裝過 VS Code、Sublime Text 之類的編輯器,新建檔案、貼上內容、存成 CLAUDE.md 即可,操作最單純。

無論哪種方法,檔名必須是 CLAUDE.md(全大寫加 .md 副檔名),放在專案根目錄,AI 才讀得到。

第4步:讓 AI 編譯知識庫(15分鐘)

打開 Claude Code、Cursor 或任何能讀取本地檔案的 AI 工具,指向專案資料夾,輸入:

「讀取 raw/ 裡所有內容,按照 CLAUDE.md 規則在 wiki/ 中編譯知識庫。先建 INDEX.md,再為每個主題建獨立 .md 檔,串聯相關主題,為每份素材寫摘要。」

完成後,wiki/ 裡會出現整理好的文章、你沒注意到的主題連結、你忘記存過的內容摘要,以及一份讓所有筆記都能秒搜的索引。

關鍵原則:不手動編輯 wiki/。讀和提問是你的事,維護是 AI 的事。

第5步:提問,然後把答案存回去(持續進行)

當 wiki/ 累積超過 10 篇筆記,開始對知識庫提問:

「根據 wiki/ 內容,我對 [主題] 的理解有哪三個最大盲點?」

「比較來源 A 和來源 B 對 [概念] 的說法,哪裡有矛盾?」

把回答存進 outputs/,或讓 AI 更新對應的 wiki 文章。每次提問都讓下一次回答更精準,這就是知識複利。

第6步:每月跑一次健康檢查

「檢查整個 wiki/。標記文章間的矛盾、找出被提及但沒解釋的主題、列出缺乏 raw/ 來源支持的論點,建議三篇能填補缺口的文章。」

有人在卡帕西貼文下提醒:「當產出被存回去,錯誤也會複利。」AI 寫了一個小錯存回知識庫,下次回答就建立在錯誤之上。定期健康檢查是防止知識腐敗的唯一方法。

有哪些注意事項?

Schema 品質決定一切。 如果 CLAUDE.md 寫得模糊(例如只寫「幫我整理好」),AI 輸出也會模糊。花時間寫清楚規則和聚焦方向,是這套系統唯一需要的前期投入。

錯誤會複利累積。 AI 整理的內容不完美,不檢查就全部存回去,小錯會滾雪球。健康檢查不是選配,是必要步驟。

工具不是重點,資料夾結構和設定檔才是。4.1 萬人收藏了卡帕西的方法,但真正受益的只有動手建了資料夾的人。

延伸閱讀:AutoResearch一夕爆紅!GitHub破4萬顆星,這630行程式碼如何讓AI自己做研究?

資料來源:Nick Spisak (@nickspisak_) X 貼文

本文初稿為AI編撰,整理.編輯/ 李先泰

關鍵字: #Anthropic #Claude
往下滑看下一篇文章
從會員數據到 AI 行銷:Vpon 打造零售業 AI-Ready 數據中台,提升決策效率
從會員數據到 AI 行銷:Vpon 打造零售業 AI-Ready 數據中台,提升決策效率

在 AI 快速進入企業營運核心的時代,數據不再只是被動的分析素材,而是 AI 模型運作與決策優化的重要基礎。

零售品牌積極累積大量第一方數據,例如會員資料、交易紀錄以及線上與線下行為數據,但因這些數據分散於不同系統,缺乏統一的身分識別機制以及明確的元數據(Metadata)定義,導致難以整合與分析,同時,也影響 AI 對這些數據資產的理解與應用。

為解決上述挑戰,Vpon 威朋將累積十餘年的實務經驗轉化為產品與服務,如 Audience Center 與 AI Agent 等解決方案,並透過專業顧問團隊協助企業完成數據收集、清理、整合與分析等關鍵流程,從資料清理到 AI-Ready 再到落地應用,讓行銷與業務團隊能以自然語言將數據查詢與分群受眾逐步自動化,大幅縮短過去仰賴技術與分析團隊溝通需求與開發分析邏輯的時間。

Vpon 助零售業打造 AI-Ready 數據基礎,以 Audience Center 驅動業務商機

如何建立 AI Ready 數據基礎建設?

Vpon 威朋數據科學經理廖宜楷指出,在 AI 驅動的時代,數據的品質決定模型價值。其中四個關鍵分別是:建構標準化的數據採集與處理管線,透過統一的工程規範,確保所有進入系統的數據在格式、維度與質量上具備高度一致性;其次是定義語義清晰的元數據(Metadata)體系,確保數據能夠被 AI 理解與使用,從而產出具備可靠性的產出結果;再來是打破企業內部的「數據孤島」, 透過完整整合線上(Web/App)行為與線下(POS/CRM)會員資訊,建構全方位的會員數據輪廓,精準捕捉消費者的跨通路行為軌跡。最後,數據的價值隨時間遞減,AI 的決策品質取決於數據的「新鮮度」,因此,數據的持續更新與自動化維護,不僅能讓企業在動態市場中保持敏銳,還可進一步深化會員輪廓分析的即時性。

舉例來說,在 Vpon 團隊的協助下,台灣百貨零售龍頭透過整合 Web 與 App 行為資料,並將線上與線下數據集中於數據中台進行分析,將傳統耗時數小時的複雜資料庫分析工作縮短至秒級回應,並基於此高效率基礎,進一步開發不同業務主題的預測與分群模型,提升行銷精準度與營運決策的敏捷性。

扎實數據基礎的價值落實:Audience Center 如何賦能企業實現「數據即戰力」?

有了堅實的數據底座後,下一步是透過 Audience Center 將數據資產轉化為商業動能。

廖宜楷指出,在變化快速的零售與數位行銷市場中,速度就是競爭力。然而,仍有許多企業在數據應用上面臨嚴重的溝通與技術斷層。過去,當行銷或業務人員需要數據支持時,通常得花費繁複的內部流程申請需求、討論需求,才會進到後續的資料清理、建模與分析,最後才能得到想要的分析結果或行銷名單。這種以「週」為單位的進程,不僅拖慢了決策效率,更讓企業在競爭激烈的市場中錯失先機。

Audience Center 的核心價值在於徹底翻轉上述流程,將數據處理轉化為數據服務,透過直覺的介面與背後扎實的數據基礎支撐,讓非技術人員不用編寫程式碼,即可自行組合維度,大幅縮短從需求到執行的距離,將原先需要耗時數週的作業流程優化成秒級產出。

「Audience Center 的導入,不僅有助於提升效率,更賦予企業快速試錯與精準捕獲趨勢的能力,讓數據真正成為驅動業務增長的引擎。」廖宜楷如此總結。

#1 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋數據科學經理 廖宜楷
圖/ 數位時代

以 AI Agent 重塑數據使用方式,讓數據更貼近決策流程

「Vpon 除提供 Audience Center 協助品牌發揮第一方數據資產價值、提供豐沛的第三方數據助品牌深化對客戶輪廓的掌握度,更推出 AI Agent 服務讓品牌與行銷人員能更直覺地使用數據。」Vpon 威朋數據科學資深總監陳文謙表示,在數位轉型的過程中,許多企業面臨的挑戰不僅是數據整合,更包括如何讓不同部門的人員都能更即時協作與應用數據,有鑑於此,Vpon 推出四種 AI Agent 協助企業分析與應用數據,極大化第三方數據成效:

第一,以 Reporting Agent 讓高階主管或行銷人員可以自然語言查詢數據與生成報表,即時掌握市場動態,加速決策下達與決策品質。

第二,透過 Insight Agent 確保數據分析不受分析人員的主觀意識或產業知識侷限,可以輕鬆完成跨領域數據分析、快速挖掘潛在市場機會與消費者洞察。

第三,藉由 Audience Agent 將客戶分群方式從規則導向(Rule-based)轉變為關聯導向,以關聯分析擴大受眾範圍,協助品牌找出更多潛在客群。

第四,推出 Creative Agent 協助行銷人員分析廣告素材表現的根本原因,釐清受眾喜歡的素材跟不喜歡的素材,藉此優化廣告投放內容,持續提升轉換率。

陳文謙表示:「透過 AI Agent 的輔助,品牌不僅能更快完成數據分析,也能將分析結果直接轉化為行銷策略與創意建議,降低跨部門溝通成本,讓數據真正參與決策流程。」

#2 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋數據科學資深總監 陳文謙
圖/ 數位時代

鏈結數據生態夥伴,以跨境數據放大行銷效益

除了協助品牌主建立 AI Ready 的數據基礎環境並提升數據使用效率,Vpon 也持續拓展數據生態圈,協助零售品牌更精準布局海外市場。

Vpon 威朋產品行銷資深經理邱心儒表示,跨境行銷過去多仰賴經驗與市場直覺,但透過數據整合與 AI 分析,品牌能更精準理解海外消費者的旅遊與消費行為。

以 Vpon 與日本 Loyalty Marketing Inc. 合作為例說明,透過雙方的獨家合作,企業可以結合 Ponta 超過一億的會員數據、問卷調查結果以及 Vpon 的七大數據來源,深入分析日本消費者的消費偏好與購買力——包括哪些日本族群對台灣品牌最感興趣、最受歡迎的台灣商品類型,以及不同客群的價格敏感度與回購行為等,將行銷決策從過往的經驗判斷轉變為精準的數據洞察,成為品牌出海的重要工具。

簡言之,對零售品牌而言,跨境數據是理解海外旅客真實樣貌的一大利器,也能進一步優化廣告投放、內容策略與商品布局,讓品牌在拓展國際市場時,可以更有效率地接觸潛在客群,放大行銷效益。

#3 從會員數據到AI行銷:Vpon打造零售業AI-Ready數據中台,提升決策效率
Vpon 威朋產品行銷資深經理 邱心儒
圖/ 數位時代

展望未來,Vpon 將持續擴展數據生態圈並優化產品服務,幫助零售品牌從數據整合、AI 分析到市場決策建立完整的數據應用循環,希望以數據夥伴的角色與品牌共同成長,打造互利共贏的數據生態。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
AI全球100+台灣20
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓