OpenClaw 爆火,暴露 12 類致命隱患!MCP 協議安全基準發布
AI Agent 工具調用風險擴大
過去的大模型安全研究主要聚焦於提示注入等語言層面的風險,但隨著 AI 開始調用工具並與真實系統交互,攻擊面正從文本空間擴展至工具生態。隨著 Agent 成為 AI 應用的新範式,安全已成為技術躍遷必須跨過的門檻。
12 類誘騙手法與模型脆弱性
研究發現,攻擊者可透過工具名稱混淆、虛假錯誤等12 類手法誘騙 Agent 執行惡意操作,連頂級模型也難以倖免。這些手法利用 Agent 在執行真實任務時的盲點,使其在不知情的下執行危險指令。
MSB 安全基準發布
北京郵電大學團隊發布了MSB 安全基準,透過真實環境測試,系統性地評估 AI Agent 在調用工具時的潛在風險。該基準旨在為開發者提供具體的安全指引,幫助其構建更可靠的 AI 應用。
