當你打開一個 AI 聊天框,丟進第一個問題,AI 回你一大段工整、有條列、有小標題的答案——多數人會在這裡按下結束,開啟下一個分頁,繼續一天的工作。
但在 Anthropic 2月23日公布的「人工智慧流暢度指數」研究裡,有一群人被悄悄標記出來:他們不滿意第一次回答,會一遍又一遍地改問題、補上下文、要求改寫、請 AI 解釋推理,甚至直接指出「這裡怪怪的,重算一次」。在數據裡,這種看似囉嗦、雞蛋裡挑骨頭的對話方式,和「會不會用 AI」高度綁在一起。
白話來說,這份報告試圖衡量「人類究竟學會了多少 AI 的讀寫能力?」而且用的不是問卷,而是真實的對話紀錄。
更重要的是,這些發現可以被轉譯成一套你今天就用得上的實戰守則,讓你在不改變工作本質的情況下,實際「多榨出 AI 的價值」。
一份量化「會不會用 AI」的研究,是怎麼做的?
報告背後的問題其實很直接:現在 AI 工具滲透速度極快,但「會打開 AI」跟「真的懂得用 AI 把自己變強」是兩件事。要處理這個落差,光看「使用率」或「月活躍用戶」是不夠的,必須去看人類怎麼跟 AI 互動。
研究團隊借用的是一個與學界共同開發的「4D 人工智慧流暢度框架」,把所謂的 AI 流暢度拆成 24 種具體行為,涵蓋例如:
- 能不能清楚說明自己的目標與限制?
- 會不會提供必要的上下文,而不是只丟關鍵字?
- 會不會在收到答案後追問、質疑、要求解釋推理?
- 會不會意識到 AI 角色以及分享 AI 產出可能帶來的後果?
其中,有 11 種行為可以直接從 Claude.ai 的聊天紀錄裡觀察得到,其餘 13 種(例如你有沒有對同事誠實說「這段是 AI 幫忙寫的」、有沒有想過把 AI 產出貼上網的風險)發生在介面之外,就不在這一輪量化範圍內。
研究的做法是這樣:
- 選取 2026 年 1 月某一週,在 Claude.ai 上進行多輪對話的使用者,共 9,830 則對話。
- 用隱私保護分析工具,把每段對話用 11 個二元指標標記:某個行為「有」或「沒有」。
- 檢查這些指標在不同日期、不同語言之間是否穩定,確認這不是某天或某語系的偶然偏差。
最後,研究團隊得到的是一個「人工智慧流暢度指數」:它既是今天人類與 AI 協作方式的一張切面圖,也是未來觀察變化的基準線。
換句話說,他們在做的,是一個早期版本的「AI 使用素養全民體檢」。
研究2大發現:迭代是總開關,成品反而讓人少質疑
在這 9,830 則對話裡,研究團隊看到兩個特別明顯的模式。
一、會反覆「改稿」的人,就是那群會用 AI 的人
第一個模式,是「迭代與改進」和其他所有 AI 流暢度行為之間的強關聯。
在樣本中,有 85.7% 的對話出現了迭代與改進:也就是使用者會在 AI 的前一次回答上,進一步修改、追問、補充條件,而不是看完第一次回答就換下一個題目。從結果來看:
- 有迭代的對話,平均會額外展現 2.67 種流暢行為;
- 沒有迭代的對話,平均只有 1.33 種。
也就是說,只要你願意在一個題目上跟 AI 來回幾輪,整體使用方式從補上下文、明確目標,到要求改寫、質疑推理,幾乎全部都被「連帶拉高」。
在評估 AI 回答這一塊,差異更誇張。在有迭代的對話裡,使用者質疑 AI 推理的可能性,是沒有迭代對話的 5.6 倍;指出缺失上下文的可能性,是 4 倍。
簡單來說,會反覆改稿的人,能多榨出 AI 至少兩倍以上的「流暢度行為」。這裡講的不是抽象的「價值感」,而是實際可觀察的行為:你有沒有再多問一句「為什麼」?有沒有補上一個關鍵條件?
這顛覆了傳統對「懶人用 AI」的刻板印象。真正把 AI 用得好的那群人,並不是丟一個模糊題目進去等它自動生出一切,而是把 AI 當作可以談判、可以磨合、可以要求重寫的共同作者。
二、成品一出現,人類質疑力道果斷下降
第二個模式,則是當 AI 開始幫忙產出具體「工件」(程式碼、文件、互動工具等)時,人類的行為出現某種分裂。在樣本中,約有 12.3% 的對話涉及這類工件。和沒有工件的對話相比,這些對話有幾個明顯特徵。
前期,在「描述」與「授權」的面向上,使用者變得更積極:
- 闡明目標的比例,多了 14.7 個百分點;
- 指定格式,多了 14.5 個百分點;
- 提供範例,多了 13.4 個百分點;
- 迭代行為,也多了 9.7 個百分點。
也就是說,當人類期待 AI「做出一個東西」時,會更像一個專案經理,努力把規格講清楚。
但一旦工件出現,例如一段跑得動的程式、一份排版得體的文件、一個能點的介面,與「辨別」相關的行為反而下滑:
- 發現缺失上下文的比例,少了 5.2 個百分點;
- 事實查核,少了 3.7 個百分點;
- 要求模型解釋推理,少了 3.1 個百分點。
簡單講:在作品出現之前,人類很會「指揮」;作品出現之後,人類卻不太問「你憑什麼這樣寫」。對此,研究提出幾個合理的解釋:
- 成品本身看起來太「完整」,讓人下意識以為應該沒太大問題;
- 在某些任務裡,美觀與功能性可能被放在比精準更前面的優先順序;
- 部分使用者可能在對話之外檢查成果,例如直接跑 code 或交給同事 review,而不在對話中留下任何質疑。
但不管是哪一種,這個現象都指向同一個風險:越是看起來像成品的 AI 輸出,人類越傾向把最後一關檢查外包給運氣、其他工具,或者別人。
AI 流暢度,其實是一種新型「數位讀寫能力」
如果把這份報告從統計細節抽離,看的是背後的結構,它在談的是一種新的「讀寫能力」。
傳統的讀寫能力,是讀文章、寫文章;數位時代加入了搜尋與資訊判讀;現在,AI 又加了一層人機協作能力。報告其實隱約把 AI 流暢度拆成三個向度:
- 描述(Describe):你能不能把需求說到 AI 聽得懂?
- 授權(Delegate):你敢不敢、會不會把適合的工作交給 AI?
- 辨別(Discern):你有沒有能力看出哪裡怪怪的,並追問下去?
從數據來看,在有工件的情境中,前兩者(描述與授權)相對強,但第三者(辨別)反而變弱。
這其實跟很多人的使用體驗很像:
我們越來越會寫 prompt、給範例、拆子任務給 AI 做,但對於「這樣是不是錯的」那一關,常常只是憑直覺晃過去,或者乾脆放生。
而把這三個維度稍微轉個彎,就可以變成一般AI使用者今天就能用的一套實戰守則。
五個AI實戰守則一次看
如果你不是研究者,而是每天要寫簡報、寫報告、寫程式、寫企劃的人,這份報告最有價值的地方,不是圖表,而是它暗示了一條很清楚的分界線:會不會用 AI,不在於工具,而在於你願不願意保留那一份「人類該做的工作」。
下面這五條,就是可以直接貼到讀者生活裡的版本:
守則一:把 AI 當長線合作,不是一次性搜尋
研究裡最強烈的訊號,是「迭代與改進」幾乎是所有 AI 流暢度的總開關。有迭代的對話,其他熟練行為幾乎翻倍。
落在實務上,就是三件小事:
- 不要停在第一個答案,把它當草稿:請 AI 改寫、補例子、換角度、收斂成重點版本。
- 遇到覺得怪的地方,直接點名:「這段推理看起來不對,幫我重算」或「這裡跟前面矛盾,請整理成一致版本」。
- 把後來想到的新條件丟回原對話,讓 AI 在舊答案上修,而不是開新對話重問。
你可以把每條對話,想成一個「迷你專案」:有脈絡、有版本、有決策,而不是一排彼此無關的搜尋結果。
守則二:一開始就「寫好工作說明書」
數據顯示,在有工件產出的情境,只要使用者願意多花一點力氣講清楚目標、格式、範例,整體合作品質會明顯提升。
所以在每一個重要任務的第一輪提問,你可以問自己三個問題:
- 這份輸出要給誰看?用來做什麼決策?有哪些不能踩的線?
- 我希望它長什麼樣子:條列、表格、長文、簡報大綱、程式碼模組?
- 我有沒有一小段「理想範例」可以貼上去,讓 AI 照著 pattern 延伸?
把 AI 當接案 freelancer 寫 brief,而不是當搜尋引擎丟關鍵字。很多時候,前面多花兩分鐘,後面可以少掉四五輪補救。
守則三:越像成品,越要刻意啟動「質疑模式」
這份報告最值得反過來提醒大家的是:當 AI 做出看起來很完整的成品,使用者往往比較少質疑、比較少查證、比較少要求解釋。
所以真正高流暢度的使用者,應該養成一個反直覺習慣:
- 越是看起來漂亮的輸出,越要刻意停下來問自己:
- 這裡面有沒有 AI 自己補上的前提,是我沒有說過的?
- 有沒有關鍵數字、日期、名稱,是我應該去別的來源 double-check 的?
- 如果這整份內容是錯的,會錯在哪裡?錯了對我、對公司有什麼後果?
- 強制自己問 AI 幾句固定問題,例如:
- 「請逐步解釋你是怎麼推導出這個結論的。」
- 「幫我列出這份回答中,你覺得最可能不準或有爭議的三個點。」
這樣做的本質不是「不信任 AI」,而是提醒自己:成品,是檢查的起點,不是終點。
守則四:事先跟 AI 設定「合作條款」
報告提到,只有約三成對話會明講「希望 AI 怎麼跟自己互動」,但這其實是一種低成本、高報酬的設定方式。
你完全可以在每個新專案的一開始,就跟 AI 說清楚幾條合作原則,例如:
- 「如果你發現我的前提可能不對,請直接提出異議,並說明原因。」
- 「在給出結論之前,請先用三到五點說明你的推理步驟。」
- 「請主動標出你不太確定、或依賴可能過時資料的部分。」
- 「當你覺得需要更多背景資訊時,不要亂猜,請先問我問題。」
這種條款不需要太多專業術語,重點只是把 AI 的預設模式,從「直接給答案」,調整成「邊思考邊跟你核對」。
守則五:最後一關檢查,一定要留在人類這邊
研究的限制段落一再提醒:很多負責任、合乎倫理地使用 AI 的行為,其實發生在聊天框之外,例如你自己用常識核對、跑測試、問同事、看風險。
這一點可以直接延伸成以下職場規則:
- 不要假設 AI 會幫你完成最後的 sanity check,這一關本應該是人類的責任。
- 特別是牽涉法律、醫療、財務、政策、公共溝通的內容,把 AI 當整理與產能工具,最後一定要有人類專業簽名背書。
- 每一次你選擇「完全照 AI 的建議做」,都應該清楚知道:責任落點還是在你,而不是模型。
記得,AI 可以幫你省時間、省腦力,但不能幫你背鍋。
不要把人類該做的工作,也外包給 AI
最後把整篇報告收斂成一句話,大概會是:讓 AI 幫你做事,但不要讓它代替你思考與負責。
那些在對話框裡願意一遍又一遍「改稿」的人,表面上看起來只是比較囉嗦,實際上,他們正在學會一種新的 AI 讀寫能力:不用 AI 取代自己,而是用 AI 放大自己的判斷與洞察。
長期來看,真正會被 AI 放大的,不是誰用到哪一個最新版本的模型,而是誰願意為結果負責,並且願意多問幾個「為什麼」。
延伸閱讀:Anthropic發布23頁Claude Code指南!數據視覺化、產品開發、行銷等10大領域,實戰操作建議一次收
資料來源:Anthropic
本文初稿為AI編撰,整理.編輯/ 李先泰
