人本位「監督式代理」是避免失控的唯一途徑
在 2025 年 5 月 PBS《Firing Line》長達 26 分鐘的專訪中,Fei-Fei Li 多次提到**「AI 代理」必須被設計成「人本位工具,而非自治主體」。她指出,未來的自動駕駛、醫療決策與政府行政流程都會交給具備感知-推理-行動閉環的 Agnet,但每一步都需要「可審計的監督節點」:
數據層-確保資料收集、標註與回饋流程多元且透明;
算法層-建立安全測試庫,驗證代理在極端條件下的行為邊界;
治理層-把 FDA、交通部等既有監管框架升級為「AI Seat Belt」,用標準流程取代「末日或烏托邦」式恐慌。
她強調,若沒有這三層,任何高度自動化代理都可能在偏見放大、任務漂移或資訊壟斷上傷害人類。「重點不是阻止代理誕生,而是讓它們始終服務於人的尊嚴與安全。」
作者:AILogora 編輯部