我差點被 AI 的「假進度」騙了:3000 行 code 不如 1 次正確 import
最近我在測試公司要用的 AI coding agent,作為 PM 我最在意的是:它到底是在加速,還是在偷偷製造技術債。
我看到一篇案例很有感。原本只是要修 wiki typo,結果 agent 一路重造輪子,寫了將近 3,000 行 Python,連 wikitext stripper、edit runner、typo dictionary 都自己做。
但其實這些都有成熟方案:pywikibot、mwparserfromhell、RETF。作者後來改成用現成工具,程式碼直接縮到 1,259 行,而且把原本 10 個 edit runner 收斂成一套流程;連 agent 堅持保留的 18 條 typo 規則,也都已經被 RETF 覆蓋。
我學到的不是「模型不聰明」,而是「流程沒欄杆」
以前我會把「輸出很多 code」當進度。現在我反而會先問:
這段 code 是必要的,還是本來就有 library 可以解?
Agent 很擅長把事情做完,但不一定會幫你做「最便宜、最可維護」的版本。
它優化的是完成感,不是總成本。
我現在用的三個 guardrails
- 任務開頭固定要求:先列可用套件,再動手寫。
- 設 checkpoint:超過 200 行且沒引入成熟套件,就先停下來 review。
- 拆任務:先「找方案」再「寫實作」,避免一句 prompt 放任它狂奔。
這套做法還在調整,但至少能把「看起來很努力」和「真的有價值」分開。
如果你也在導入 coding agent,我真心建議先設好流程欄杆,再追求速度。不然很容易拿到一堆可運行、但不該存在的程式碼。
作者:菲菲