中國 AI 聊天機器人如何自我審查
研究發現:中國 AI 模型更傾向迴避政治問題
斯坦福大學與普林斯頓大學的研究人員發現,中國 AI 模型比其西方對照組更有可能迴避政治問題或提供不準確的答案。這項研究揭示了中國 AI 聊天機器人在面對敏感議題時的自我審查機制。
數據分析顯示訓練數據與人工審查的影響
研究指出,訓練數據在決定 AI 模型如何回應方面所扮演的角色,可能小於人工審查的介入。這意味著中國 AI 的審查機制不僅源於訓練數據,更受到人為因素與政策導向的深刻影響。
政治敏感問題的應對策略
測試結果顯示,中國 AI 模型在面對可能觸犯北京審查標準的問題時,會選擇拒絕回答或提供不完整的資訊。這種現象反映了中國在數位空間中對資訊控制的嚴格執行。
未來趨勢與挑戰
隨著 AI 技術的普及,如何平衡資訊自由與國家審查成為重要議題。研究建議未來需進一步探討如何改善 AI 模型的透明度與準確性,同時尊重用戶的資訊需求。
來源:https://www.wired.com/story/made-in-china-how-chinese-ai-chatbots-censor-themselves/
