AI醫生:聊天機器人給的健康建議能被相信嗎?
阿比親身體驗AI健康建議的兩面性
阿比也親身體驗過,用AI聊天機器人尋求健康建議的好壞兩面。有一次,她懷疑自己感染了泌尿道感染。ChatGPT在詢問症狀後,建議她前往藥局。經過諮詢,她確實確認了症狀,並獲得正確治療。
專家警告AI醫療建議可能導致誤導
一項最新研究揭示,目前市面上常用的人工智慧(AI)聊天機器人,約有半數的醫療相關回覆可能對使用者造成誤導,甚至導致無效或有害的醫療決策。這項由美國倫奎研究團隊進行的調查顯示,使用者若單靠AI建議,可能錯過正確就醫時機。
使用者易誤判症狀與醫療需求
研究發現,與不使用聊天機器人的人相比,使用聊天機器人的人比較不可能辨識出正確的症狀,也比較沒有能力決定可以尋求醫療協助的正確地點。換句話說,與聊天機器人互動的人,可能更難判斷何時該尋求專業醫療協助。
專家建議:AI僅作為參考,不可取代專業診斷
專家指出,AI聊天機器人雖然能提供初步的健康建議,幫助使用者在「不覺得浪費醫療資源」的情況下獲得初步照護,但其回答可能缺乏深度與情境判斷力。使用者應將AI視為一個「不錯的搜尋工具」,而非醫療決策的依據,並務必多方求證,必要時仍需尋求專業醫師協助。
相關討論與政策發展
- 英國正考慮禁止16歲以下青少年使用AI聊天機器人,以避免年輕人接觸錯誤醫療資訊。
- 有專家強調,AI傾向於提供錯誤訊息給病人,導致醫生面臨「收爛攤子」的風險。
- 醫療領域正積極推動AI監管與使用者教育,以確保技術應用的安全性與倫理。
