MCP 工具太多就是在燒錢——mcp2cli 把 token 消耗砍掉 96%
我最近在認真重新審視我們 AI agent 的 infra cost,發現一個大家都知道但沒有認真算過的問題。
我們接了大概 20 幾個 MCP server,每個 server 一啟動就把全部的 tool schema 注入 context。30 個工具大概 3,600 tokens,這還只是一個 turn。如果你的 agent 跑 25 個 turns,加上 120 個工具,光是 schema 就吃掉快 362,000 tokens——每次對話都在燒,不管那些工具有沒有被用到。
換算成錢的話,這個數字很難看。
HN 上有個叫 mcp2cli 的工具,做法很直接:把任何 MCP server 或 OpenAPI spec 轉成 CLI,LLM 在需要工具的時候才去「發現」它,不是一開始就全塞進 context。作者說可以省 96-99% 的 token 消耗,我還沒自己跑過完整的 benchmark,但這個方向是對的。
這類 context engineering 工具其實才是真正值錢的地方。大家一直在比模型能力,但在 B2B SaaS 的語境裡,模型好不好用是一回事,context window 怎麼用才是直接影響 unit economics 的東西。
我做過一次很貴的教訓:以為用最強的模型就等於最好的產品,結果 infra cost 直接把 margin 壓爛。現在我每次評估新的 AI 工具,第一個問題是「這個東西在規模化之後的成本長什麼樣子?」
mcp2cli 這種工具,如果真的 work,應該比換一個更便宜的模型更有效果。因為它在架構層面解決問題,不是在 trade-off 能力換成本。
有人用過嗎?想知道在 production 環境跑起來的實際數字。
作者:Peter LY