開源AI開發框架LangChain修補高風險漏洞,未更新恐導致敏感資料外洩

開源AI開發框架LangChain修補高風險漏洞,未更新恐導致敏感資料外洩

漏洞詳情與風險

LangChain是一個用於開發大型語言模型應用的開源框架,近日發布安全公告,修補高風險漏洞CVE-2026-34070,該漏洞屬於路徑遍歷類型,攻擊者可透過特製提示模板(prompt template)在未通過身分驗證的情況下,從遠端任意讀取系統檔案。

資安研究人員指出,若此漏洞與先前揭露的SQL注入或反序列化漏洞結合,可能形成完整攻擊手法,導致開發環境中的金鑰與工作流程資料外洩,建議用戶盡速更新至最新版本以避免風險。

相關技術與影響範圍

此漏洞影響LangChain核心功能,特別是與提示工程(prompt engineering)相關的模組,可能對使用該框架開發AI應用的開發者造成重大安全風險。

雖然部分資訊來源提及CVE-2025-68664,但該漏洞與本則公告的CVE-2026-34070為不同編號,且評分與風險類型有所差異,需以官方公告為準。

建議與行動

  • 所有使用LangChain的開發者應立即檢查並更新至最新版本。
  • 建議加強對提示模板的驗證機制,避免惡意輸入導致系統檔案被讀取。
  • 在開發環境中,應嚴格限制對敏感檔案的存取權限,並實施最小權限原則。

來源:https://www.ithome.com.tw/news/174763

返回頂端