本地 LLM 跑 OpenClaw,glm-4.7 比 qwen/gemma 穩太多了最近想省 API 成本,在 3090 上試了幾個本地模型配 Ollama。 qwen 跟 gemma 都讓我失望——GPU 跑滿但沒輸出,或假裝 task 完成但什麼都沒做。 glm-4.7-flash 目前最穩。36/64 split 也不卡,體感接近 Sonnet。有個 caveat:輸出中斷控制較差,長任務要有耐心。但如果想省錢跑本地,先試 glm。 作者:Jesse2026-04-13T07:20:17.766+00:00