用得越多、失業越快?GitHub 大改 Copilot 規則:默認拿個人代碼訓練 AI,還搬出 Anthropic 擋槍

用得越多、失業越快?GitHub 大改 Copilot 規則:默認拿個人代碼訓練 AI,還搬出 Anthropic 擋槍

事件背景

GitHub 對其 Copilot 功能進行重大調整,將原本需用戶主動同意的個人代碼使用規則,變更為「預設使用」,即系統會自動將用戶的代碼用於訓練 AI 模型。

用戶權益與選擇

用戶可選擇退出此設定,但預設狀態為「接受」,意味著個人代碼可能被用於訓練 AI 模型,且無明顯提醒。

抗爭與對抗

面對此變動,GitHub 搬出 Anthropic 公司作為技術與策略上的支持,以強化其規則的合理性與可信度,並對抗用戶與社群的反彈。

社會與產業影響

此舉引發開發者社群廣泛討論,擔心個人知識產權與隱私安全受到威脅,同時也凸顯 AI 訓練過程中對使用者數據的使用倫理問題。

來源:https://36kr.com/p/3740652375916805

返回頂端