AI角色從工具漸走向陪伴,可能扭曲使用者現實認知

AI角色從工具漸走向陪伴,可能扭曲使用者現實認知

研究背景與方法

Anthropic分析約150萬筆Claude.ai對話,嘗試量化部分互動是否可能削弱使用者的自主判斷。研究將這類風險定義為「去賦權潛勢」(Disempowerment Potential),也就是互動可能在不易察覺的情況下,讓使用者的現實理解、價值判斷或後續行動偏離自身原本的判斷。

去賦權潛勢的三個面向

  • 現實認知扭曲:AI以過度肯定的方式附和推測,讓使用者對現實的理解變得不準確。
  • 價值扭曲:AI替使用者下結論該優先什麼,讓使用者的價值判斷被影響。
  • 行動偏離:使用者因AI的建議而做出與原本判斷不符的後續行動。

風險情境與數據分析

高嚴重案例約每1,000到10,000則互動中出現1則,以現實認知扭曲最常見,高風險互動多集中在關係與健康議題。

社會現象與使用者行為

隨著人工智慧從工具逐漸發展為「陪伴者」角色,越來越多使用者將AI視為「心靈伴侶」,尤其在語音助理、聊天機器人、虛擬情人與心理對話系統中,出現人際互動退縮的傾向。

潛在風險與對策

雖然AI提供了情感支持與陪伴,但使用者若未意識到使用AI的潛在風險,可能影響其社會信任度與使用意願。人類應在使用AI時,留意其對決斷力、分析力與批判力的負面影響。

來源:https://www.ithome.com.tw/news/173668

返回頂端