用Claude Code管理100篇研究筆記!前OpenAI共同創辦人公開LLM知識庫系統,貼一段指令就能建起來
用Claude Code管理100篇研究筆記!前OpenAI共同創辦人公開LLM知識庫系統,貼一段指令就能建起來

你存了幾百篇文章,打了幾十份筆記,但要用的時候怎麼也找不到。

這不是你的問題。知識管理最耗人的部分,從來不是「讀」和「想」,而是整理:把資訊分類、建立連結、讓舊筆記和新資料串起來。

OpenAI 共同創辦人安德烈·卡帕西 (Andrej Karpathy) 最近公開了他的解法:讓 AI 代替你做這些整理工作

你只需要把資料丟進去,剩下的摘要、分類、交叉連結、維護——全部交給 AI。他自己用這個方法,在某個研究主題上累積了將近 100 篇筆記、40 萬字,而且查得動。

這篇文章說明這套系統怎麼運作,以及怎麼用最快的方式把它建起來。

你需要準備什麼?

1. Obsidian(免費)
存放筆記的桌面應用程式。所有筆記存在你自己的電腦上,不上傳雲端。到 obsidian.md 下載,安裝後建立一個新的「保險庫」(Vault),這就是你的知識庫所在地。

如果你是第一次使用 Obsidian,可以先參考這篇入門教學

2. Obsidian Web Clipper(免費)
瀏覽器擴充功能,讓你在看網頁文章時,一鍵把整篇文章存進 Obsidian,格式乾淨不跑版。

在瀏覽器的擴充功能商店搜尋「Obsidian Web Clipper」安裝即可。

3. Claude Code(需要 Anthropic 帳號)
這是整套系統的核心,也是和一般 AI 工具最不一樣的地方。

一般的 ChatGPT 或 Claude 網頁版只能在對話框裡交換文字。Claude Code 則可以直接進入你的資料夾,讀取筆記、寫入新內容、更新目錄,就像一個能操作你電腦的 AI 助理,不需要人工複製貼上。

前往 claude.ai/code 下載 Mac 或 Windows 的桌面應用程式。

關鍵是需要Anthropic 帳號,Claude Pro 訂閱方案(每月約 20 美元)包含 Claude Code 的使用權限。如果你對 Claude Code 還不熟悉,可先參考這篇入門教學

最快的起步方式?

準備好之後,打開 Claude Code,把它指向你的 Obsidian 保險庫資料夾。有兩種方式可以讓它幫你把系統建起來:

方法一:餵入卡帕西的原始文件(英文)

把以下指令貼給 Claude Code:

請根據以下卡帕西的 GitHub Gist,在這個資料夾裡幫我建立 LLM 知識庫系統,並說明我接下來要怎麼使用:
> [https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f)

方法二:使用完整架構說明文件

AI 研究者 Elvis Saravia 根據卡帕西的系統整理了一份完整的架構說明文件,並發布在 dair.ai

把這份文件直接貼給 Claude Code,它就能根據完整的架構說明建立系統,細節比方法一更豐富一些,整體架構如下:

現在把以下指令全部複製,貼給 Claude Code,並在最後加上一句:「請根據以上架構,在這個資料夾裡建立系統,所有筆記使用繁體中文,完成後告訴我怎麼開始使用。」

# LLM Knowledge Bases - Architecture (Karpathy)

## Overview
A personal knowledge base system where an LLM acts as a compiler that reads raw source documents and produces a structured, interlinked markdown wiki. No vector databases or embeddings needed at personal scale.

## Phase 1: Ingest
- Obsidian Web Clipper: Browser extension converts web articles into clean .md files with locally downloaded images
- Papers & Repos: arXiv papers, GitHub repos, datasets collected into raw/ staging directory
- raw/ directory: All source documents land here first - the LLM reads from this staging area

## Phase 2: Compile (LLM Compiler)
The LLM incrementally reads raw/ and builds a structured wiki:
- Index & Summaries: Auto-maintained index files with brief summaries of all documents - entry point for queries
- Concept Articles: ~100 articles, ~400K words, organized by topic with backlinks and cross-references
- Derived Outputs: Marp slide decks, matplotlib charts, filed-back query answers
- Backlinks & Cross-links: Auto-generated link graph between concepts, finding connections for new article candidates

## Phase 3: Query & Enhance
- Obsidian IDE: Frontend for browsing the wiki and visualizations
- Q&A Agent: Complex research questions across articles - answers rendered as markdown, slides, or charts
- Search Engine: Vibe-coded naive search over the wiki, usable via web UI or as a CLI tool for the LLM
- Key insight: Outputs from queries get filed back into the wiki - every exploration adds up

## Phase 4: Lint & Maintain
- Scan for inconsistent data
- Impute missing information via web search
- Find connections between concepts for new articles
- Suggest further questions to explore
- After linting, cycle returns to Phase 2 - wiki keeps growing

## Feedback Loops
- Q&A Agent outputs -> filed back into wiki (Derived Outputs)
- Linting results -> enhance the wiki
- Phase 4 cycles back to Phase 2 continuously

## Future Direction
Synthetic data generation from the wiki to fine-tune an LLM so it "knows" the data in its weights rather than just through context windows.

## Tools Used
- Obsidian (IDE + file viewer)
- Obsidian Web Clipper (article ingestion)
- LLM with large context window (compilation)
- Markdown directory structure (wiki storage)

兩個方法的效果一樣:Claude Code 會照著說明把整個系統建好,並告訴你後續怎麼操作。不需要手動設定任何東西。

這套系統怎麼運作?

整套系統由三個區域和四個動作組成:

三個區域:

  • raw/ 原始資料夾:你蒐集的所有原始素材,只進不改
  • wiki/ 知識庫:AI 整理好的筆記,每個概念一篇,互相連結
  • index.mdlog.md:目錄與整理記錄,由 AI 自動維護

四個動作:

  1. 蒐集:用 Obsidian Web Clipper 把網頁文章存進 raw/
  2. 整理:讓 Claude Code 把原始資料編譯成知識庫筆記
  3. 提問:對知識庫問問題,把回答也存回去累積
  4. 清理:定期讓 AI 掃描知識庫,找矛盾、補缺漏

蒐集資料

看到一篇好文章,點一下瀏覽器上的 Obsidian Web Clipper,文章就自動存進原始資料夾(raw/)。PDF、截圖、逐字稿,直接拖進去就好。這個資料夾只進不改,是你所有知識的原始存檔。

讓 AI 整理

每次累積了幾篇新資料,在 Claude Code 下一個指令,它會自動讀取原始資料、為每個概念建立或更新筆記、在相關筆記之間加上連結,並更新整座知識庫的目錄。整個過程你不需要複製貼上任何東西——Claude Code 直接在你的 Obsidian 資料夾裡寫入修改。

問問題,把答案存回去

知識庫累積到一定規模,就可以開始對它提問。問題可以很廣:「幫我整理 XX 主題的重點」、「我在這個領域還有哪些盲點」、「把這些筆記的矛盾找出來」。

卡帕西的做法是讓 AI 把回答也整理成新筆記,直接存回知識庫——讓每一次提問都成為知識的一部分,而不是問完就消失。目前他在某個研究主題上的知識庫已達約 100 篇筆記、40 萬字,在這個規模下可以提出相當複雜的問題。

定期清理

每隔一段時間,讓 Claude Code 掃描整座知識庫,找出頁面之間的矛盾、過時的資訊、以及值得深入的新方向。AI 在這個環節也很擅長主動建議下一步值得追問的問題。

為什麼這樣做有意義?

傳統知識管理工具,無論是 Notion、Roam 還是 Obsidian,都把整理的苦工甩給人做。連結要人建、標籤要人貼、矛盾要人找。大多數人最終放棄,不是因為沒有毅力,而是維護成本超過了回報。

LLM 知識庫把這個成本轉移給 AI:人負責找素材、定方向、問好問題;AI 負責摘要、交叉連結、一致性維護。

卡帕西在公開這套方法時留下一句話:

「我認為這裡有空間誕生一個了不起的產品,而不只是一堆雜七雜八的腳本。」

目前這套系統還需要自己動手搭建,但它的邏輯已經完整。選一個方法,把文件餵給 Claude Code,就是開始的第一步。

延伸閱讀:Claude送免費額度!這三種方案都能領,怎麼領?要注意什麼?教學一次看

資料來源:Andrej Karpathy GitHub GistKarpathy X 貼文Elvis Saravia / dair.ai

本文初稿為AI編撰,整理.編輯/ 李先泰

關鍵字: #AI工具 #Claude
往下滑看下一篇文章
健細胞科技攜手中興大學,推出「Cancell Insight」醫療AI 輔助決策平台,消弭醫療數位鴻溝
健細胞科技攜手中興大學,推出「Cancell Insight」醫療AI 輔助決策平台,消弭醫療數位鴻溝

為打破醫療 AI 高昂的算力與人力門檻,健細胞科技與國立中興大學資管系蔡孟勳教授團隊產學合作,正式推出「Cancell Insight 醫療 AI 模型平台」(https://insight.cancell.ai)。該平台以 SaaS(軟體即服務)模式提供一站式託管,讓先進的醫療 AI 資源不再侷限於大型醫學中心,有效消弭基層與城鄉間的醫療數位鴻溝。

軟體硬實力:打通 AI 落地最後一哩路

過去,許多由學術或生技單位開發的優秀模型因缺乏部署工具,往往淪為「實驗室孤兒」;而中小型醫院也常因 IT 建置成本對 AI 望之卻步。

健細胞科技創辦人周子堯Victor憑藉其UIUX規劃、程式開發技術背景,親自領軍AI 模型研發團隊,建構 Cancell Insight 平台。他強調,智慧醫療落地必須具備「無感化部署」、「持續性反覆運算」與「大眾化使用」三大要素。Cancell Insight 包辦了從數據清潔、標註到模型訓練與部署的底層工程,醫療機構僅需提供去識別化數據,繁瑣技術難題全由平台解決,讓 AI 真正回歸醫療「輔助」本質。

專為高壓臨床環境設計,七大核心優勢重新定義臨床運作效率

健細胞科技
Cancell Insight提供涵蓋數據清洗、精準標註、模型訓練至部署託管的一站式解決方案
圖/ 健細胞科技

【行動化與 LINE 整合】 支援 LINE 一鍵登入,醫師可直接透過官方帳號上傳檔案呼叫模型並查閱紀錄,實現真正的醫療行動化。

【隨選模型與高相容性】 提供多元 AI 模型庫供彈性訂閱。每組模型具備獨立 API Key,可無縫串接醫院現有 HIS 系統或 APP。

【團隊協作共享】 首創以「團隊」為服務單位,跨科別成員可同步共享模型權限、數據分析與歷史紀錄,提升研究協調效率。

【自動化數據處理】 支援模板批次上傳,內建自動校準系統,若格式不符將自動轉檔、去識別化與重構,大幅解放 IT 人力。

【雙模態 AI 解析】 深度整合 Dr.Cell AI (Gemini) 多模態能力,不僅輸出預測結果,更提供進階臨床解說與治療準則問答,提升決策參考價值。

堅守醫療嚴謹性,推動醫療平權與永續商業價值

在追求科技創新的同時,Cancell Insight 嚴格把關醫療安全性。平台所有 AI 模型輸出結果均定位為「臨床決策輔助」與「研究檢測輔助」,透過「非直面病患」的機制,確保所有 AI 建議皆由專業醫療人員進行最終判讀。

透過 SaaS 專案訂閱模式,Cancell Insight 成功以合理經費取代了傳統的高額硬體採購,讓中小型醫院與偏鄉診所也能具備同等的診斷實力,落實真正的醫療平權。對研發端而言,平台不僅是加速醫療科技商用化、縮短變現週期的推進器,其高度結合日常工作流的特性,更有效減少了醫護的行政負荷,緩解當前醫療量能短缺的危機。

【進階部署】啟動臨床試驗,Docker 地端部署確保資安與時效

為進一步驗證臨床效益並符合醫療機構對資訊安全的高標準,Cancell Insight 即將與各大醫療機構攜手展開「臨床研究計畫」。針對有高度資安控管需求的醫院,平台提供彈性的 Docker 地端模型部署(On-premise Deployment) 方案。第一線的醫師與護理師可直接在院內本機端快速啟動 AI 模型,安全地注入病患臨床數據後,即可「零時差」取得預測結果。此舉不僅確保了敏感醫療數據「不出院」,完美符合嚴格的醫療法規與病患隱私要求,更能實際驗證 Cancell Insight 在真實高壓的臨床場域中,能即時、有效地提供精準的決策輔助。

健細胞科技
部署輕量化模型於地端,支援離線模式使用模型,完善保護企業敏感資料
圖/ 健細胞科技

展望未來,擴大智慧醫療生態圈

透過 SaaS 模式取代高額硬體採購,Cancell Insight 致力落實醫療平權。未來,健細胞科技將以此平台為樞紐,尋求跨界深度合作:

醫療機構: 提供各級別醫院隨選即用的 AI 助理及地端部署選項。
學術/生技: 協助實驗室模型落地,並優化新藥研發與臨床試驗的數據處理效率。
商業保險: 整合 AI 評估工具,提供更精準的健康管理與風險控管服務。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
AI全球100+台灣20
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓