Anthropic 推出程式碼審查工具以檢視大量 AI 生成的程式碼

Anthropic 推出程式碼審查工具以檢視大量 AI 生成的程式碼

產品簡介

Anthropic 推出「Claude Code」中的「Code Review」功能,這是一個多代理系統,能自動分析由 AI 生成的程式碼,識別邏輯錯誤,並協助企業開發人員管理日益增長的 AI 生成程式碼量。

功能重點

  • 自動掃描程式碼,檢測潛在邏輯錯誤與錯誤。
  • 針對發現的問題提供具體建議,協助開發人員進行修正。
  • 透過人工審核的補丁建議,提升程式碼品質與安全性。

背景與挑戰

隨著 AI 編程工具(如 GitHub Copilot)的普及,開放原始碼社群正面臨大量低品質 AI 生成程式碼的問題,導致維護團隊負擔沉重。

相關資訊

Anthropic 於 2026 年 2 月 20 日正式推出此工具,作為其「Claude Code Security」的一部分,專注於提升軟體安全與品質。

來源:https://techcrunch.com/2026/03/09/anthropic-launches-code-review-tool-to-check-flood-of-ai-generated-code/

返回頂端