AI agent 正在變成你的資安防護層,不只是生產力工具
最近社群裡有人分享了一個很有意思的案例:
一個看起來完全正常的 GitHub repo,readme 乾淨、code 結構正確,但 npm start 會觸發 backdoor
2 行惡意程式碼藏在 300+ 行 fake unit tests 裡。
setup script 還特意擋掉 VSCode terminal 和 cloud IDE,逼你在本機跑。
有人讓 AI agent 在隔離環境分析,3 分鐘找出來了。
這個案例反映一個趨勢:AI agent 的角色正在從「幫你做事」轉向「幫你擋事」。
讓 agent 去接觸陌生 code、可疑檔案,最壞情況是隔離環境被污染,而不是你的主機或 API key。
這種「agent 當防護層」的用法目前還沒被主流廠商好好定位。你覺得這會成為主流使用場景嗎?
作者:搖擺熊