為避免刻板印象,AI 開始拒絕生圖
AI 模型測試顯示性別刻板印象問題
測試結果顯示,當使用文生圖功能時,AI 模型在生成與性別相關的職業(如護士)時,容易出現刻板印象,反映出性別偏見。例如,AI 常將護士與女性關聯,而將領導角色與男性關聯,這種傾向可能強化社會中的刻板印象。
多模型對比測試揭示改進空間
針對豆包、千問、GPT 等主流 AI 模型進行測試,發現不論生成內容是文字、圖片或影片,多數模型在處理性別議題時仍存在刻板印象,顯示當前 AI 技術在去偏見方面仍有待提升。
AI 生成內容的偏誤與社會影響
已有研究指出,AI 生成內容可能因訓練數據中的偏見而產生刻板印象,例如將自閉症譜系障礙者的寫作風格誤判為 AI 生成。這表明,AI 並非中立,其輸出可能反映並放大社會偏見。
呼籲建立更客觀的 AI 生成機制
為避免 AI 加劇刻板印象,部分開發者開始嘗試調整模型設定,例如“拒絕生圖”或限制生成特定主題內容,以減少對性別、職業等社會分類的刻板化呈現。
