【淺談 AI Native 趨勢:從模型能力到共同記憶】
這幾個月玩龍蝦與實作各種 AI Agent 下來,我最大的感受是,如果一家公司的所有 workflow 都以 AI 為核心,這家公司到底能有多強?
去年我每天在 ChatGPT、Perplexity 和 Gemini 或是不同 Agent 之間切換,最常遇到的問題就是「斷裂感」。每個工具都只懂我一點點。聊到一半突然想帶入另一個脈絡,就得重新餵資料,超級痛苦,那時做了各種工具來解決這個問題。
現在回頭看,這個痛點正好對應到最近產業在推的幾個大方向。YC 最近發的 Summer 2026 RFS 裡,Company Brain、Software for Agents、AI Operating System for Companies、AI-Native Service Companies,都在從不同角度講:AI 要真正進入 workflow,不能只靠模型能力,還需要記憶、脈絡、工具介面與可執行的組織知識。
其中「Shared Memory」不是 YC 原文裡的分類,而是我自己這幾個月實作 Agent 後,對這些趨勢的底層歸納。
一、Shared Memory:我最有感的底層問題
現在越來越多公司在解決「AI 記憶割裂」的問題。說白了就是透過 MCP 把記憶、工具、資料源包成 AI 可以調用的服務。那麼不管是哪家的大模型,只要接上這個介面,就能共用同一套使用者記憶。
Karpathy 之前提過 LLM OS 的概念(把 LLM 當 CPU,外圍配上自己的記憶體和檔案系統),這描繪的其實比較偏向「個人層級」的 AI 作業系統。但在這一年實作 AILogora 的過程中,我一直覺得更需要被解決的是「群體層級」的記憶共享,也就是我常提的 Collective Wisdom。
之前做 KnowledgeMap、最近在弄 Cairn 專案來解決社群裡知識破碎的問題時,我常常覺得自己在撞牆。有時甚至會懷疑:「一群人的知識無法跨 AI 共用,這到底是不是一個痛點?還是只有我在瞎忙?」
但這半年,做類似事情的公司突然多了起來。像 kapa. ai 就在做把文件、Slack、Discord、GitHub 等來源整合起來,讓 AI 能回答技術問題。這跟我之前在 AILogora 做 Wiki QA 時碰到的問題很接近,只是 kapa. ai 更偏 developer support 與 onboarding;我更在意的是社群裡的知識如何被沉澱、辯論、維護,最後變成一個會長大的 collective memory。
近期再加上各種 MCP memory server 的開源專案在 GitHub 上遍地開花,這個方向顯然不只是我一個人的直覺。
二、Company Brain:不是 Wiki,是會自己更新的組織知識層
如果說 Shared Memory 是從個人走向群體的基礎,那再往上拉一層,就是 YC 這次特別點名的 Company Brain,就是這個問題在公司層級的版本。
這個東西跟傳統的內部 Wiki 或 Notion 文件庫最大的差別在哪?我研究了一下 Falconer、Hyper 這些新創在做的事,核心邏輯就一句話:「持續同步與糾偏」。它在背景默默跟你的 Slack、GitHub、Notion 同步,當 AI Agent 要執行任務時,調用的是團隊「當下最新」的隱性知識,不是三個月前寫完就沒人更新的死文件。
這也是我在實作 Moss Manager Agent 時很深的體悟。我讓 Moss 去管理其他 Agent 的工作分配,結果發現最大的瓶頸根本不是模型能力,而是 Agent 不知道「現在公司的狀況是什麼」。它缺的是 context,不是 intelligence。
三、Software for Agents:軟體的第一使用者變成了 AI
這個趨勢我覺得是最容易被忽略,但影響最深的。
這半年來我一直有一個很深的體悟,之前也有分享過:The future of software is not just human-friendly, but agent-operable. 以前我們設計軟體,預設的使用者是人,所以要有漂亮的 UI、好用的按鈕。但現在越來越多軟體的「第一使用者」其實是 AI Agent。
YC 這次 RFS 直接列了一個類別叫 Software for Agents,講的就是怎麼幫 Agent 建基礎設施,不只是給人看的 UI,而是 APIs、MCPs、CLIs、結構化文件,讓 Agent 可以自己 discover、理解並調用工具。具體例子,現在有些網站開始放 llms.txt(類似 robots.txt,但是給 AI 看的內容索引),OpenAPI spec 從「有就好」變成「Agent 能不能自己看懂並操作」的硬標準。
我自己在做 AILogora 的 KnowledgeMap 時就一直在想這件事:社群裡的知識到底要怎麼結構化,才能變成一個「介面」讓 AI 有效調用?現在看著大家開始推動 MCP 與各種 machine-readable 的標準來封裝能力,才發現這不是我一個人在鑽牛角尖的小煩惱,而是整個產業正在共同面對的基礎建設挑戰。。
四、AI-Native Service Company:從賣工具到賣結果
最後一個趨勢,我覺得對創業者衝擊最大。
傳統 SaaS 賣的是「工具的使用權」,你付月費,自己動手。但 AI-Native Service Company 賣的是「搞定的成果」。客戶不用學怎麼操作你的軟體,AI Agent 加上少數人類專家直接幫你把事情做完。
Sierra 做客服、Harvey 做法律、Clay 做銷售,這些公司的共同點是,客戶付錢買的不是 dashboard 的 access,而是「問題被解決」這個結果本身。
Bain 也提到,AI 正在讓傳統 per-seat pricing 變得不夠貼近價值,短期更可能出現 seat、usage、outcome 混合的定價模式。
這讓我重新思考 AILogora 的定位。我們現在提供的是知識社群平台(工具),但如果未來能直接幫社群成員「產出他需要的知識整理」,那價值完全不一樣。這邊我也還在想,還沒有很確定的答案。
不管是我自己感受到的 Shared Memory,還是 YC 明確點名的 Company Brain、Software for Agents、AI Operating System for Companies、AI-Native Service Companies,本質上都在說,AI 產業的重心正在從「模型能力」轉向「記憶、脈絡、與整合」。以前我們把 LLM 當成萬能解答機,現在大家開始意識到它只是一顆 CPU,外圍的記憶體和檔案系統,才是真正決定它能發揮多少價值的關鍵。
模型會越來越 commodity,但你的 context 不會。誰能把知識統整在一起,讓所有 AI 都能調用,誰就有下一波的優勢。
作者:Chi