中國 AI 聊天機器人如何自我審查

中國 AI 聊天機器人如何自我審查

研究發現:中國 AI 模型更傾向迴避政治問題

斯坦福大學與普林斯頓大學的研究人員發現,中國 AI 模型比其西方對照組更有可能迴避政治問題或提供不準確的答案。這項研究揭示了中國 AI 聊天機器人在面對敏感議題時的自我審查機制。

數據分析顯示訓練數據與人工審查的影響

研究指出,訓練數據在決定 AI 模型如何回應方面所扮演的角色,可能小於人工審查的介入。這意味著中國 AI 的審查機制不僅源於訓練數據,更受到人為因素與政策導向的深刻影響。

政治敏感問題的應對策略

測試結果顯示,中國 AI 模型在面對可能觸犯北京審查標準的問題時,會選擇拒絕回答或提供不完整的資訊。這種現象反映了中國在數位空間中對資訊控制的嚴格執行。

未來趨勢與挑戰

隨著 AI 技術的普及,如何平衡資訊自由與國家審查成為重要議題。研究建議未來需進一步探討如何改善 AI 模型的透明度與準確性,同時尊重用戶的資訊需求。

來源:https://www.wired.com/story/made-in-china-how-chinese-ai-chatbots-censor-themselves/

返回頂端