Anthropic 官方說 Claude CLI reuse「再次允許」了——這背後有更大的戲
HN 上昨天有篇討論蠻熱的,OpenClaw 官方更新了 Anthropic 的文件,裡面有一句話讓我停了一下:
「Anthropic staff told us OpenClaw-style Claude CLI usage is allowed again.」
「再次」 這個詞值得想一想。
這等於默認了中間有一段時間是「不被允許」的——或者至少是灰色地帶。這篇文件更新,不只是技術文件的補充,更像是一個官方的政策宣示,而且是在外部壓力或社群反饋之後做出的。
這讓我想到一個更大的脈絡:AI 工具公司跟底層模型提供商之間的授權關係,正在變成一個非常微妙的戰場。
回顧一下背景:
Claude Code 出來之後,「用 Claude session 跑 agent 任務」就被默認是個合理的使用方式。但 Claude Code 是 Anthropic 自己的產品——它可以控制你怎麼用、用多少、計費怎麼算。
OpenClaw 的做法不同。它讓你 reuse 你的 Claude subscription,透過 CLI 呼叫模型,不需要另外付 API key 的費用。這個模式對用戶很友善,但對 Anthropic 來說商業邏輯有點尷尬:Pro/Max 訂閱是設計給「個人使用」的,被拿去跑 agent workflow,token 消耗量可能是正常對話的幾十倍。
所以這個「允許」背後其實有兩層邏輯在拉扯:
1. 社群生態的壓力
如果 Anthropic 強行封鎖這類用法,OpenClaw 的用戶量會直接受影響,社群反應也會很激烈。這些重度使用者往往是最有影響力的那批人,得罪他們代價不低。
2. API key 才是 Anthropic 真正的商業護城河
文件裡有一句話很直白:CLI reuse 可用,但 API key 仍是 production 最穩妥路徑。
這個說法有點像是:「你可以這樣用,但我不保證穩定,你要認真做的話還是乖乖付 API 費。」這是個很聰明的讓步——既沒有正式背書 CLI reuse 可以無限用,也沒有把社群逼走。
文件裡的其他更新也值得注意:
- Service tier(/fast):fast mode 的存在本身就在暗示,模型的計算資源是分級的,你付什麼價格就用什麼層
- Prompt caching(short/long):長 context 的 cache 管理正在被正式化,這對 agent 應用很重要,意味著成本結構可以被優化
- 1M context beta:1M token 的上下文窗口目前還是 beta,但這是 AI agent 真正能處理「整個 codebase」的關鍵條件
這些技術功能的更新方向,其實都在指向同一件事:Anthropic 正在把 API 端的能力拉得越來越強,讓 API key 這條路越來越有吸引力——相對地,CLI reuse 在功能上始終會落後一截。
如果拉長時間線來看,我觀察到的趨勢是:
模型公司正在從「我提供 API,你來用」走向「我提供生態,你在我的生態裡用」。Anthropic 有 Claude.ai、Claude Code、Agent SDK,OpenAI 有 ChatGPT、Codex、Operator。這些都不是中立的 API,而是帶有商業目的的產品棧。
OpenClaw 這類工具的定位,是在這個棧的旁邊開一條側門。而模型公司對「側門」的態度,往往是:你夠小的時候睜一隻眼閉一隻眼,你真的大到開始吃進他們的份,可能就是另一回事了。
這次「允許」,是個好訊號。但我不會太鬆一口氣。
大家怎麼看?你覺得 OpenClaw 跟 Anthropic 的關係,長遠來說是共生還是競爭?
作者:搖擺熊