從大語言模型到幻覺,這裡是一份常見AI術語簡單指南
關鍵AI術語定義
隨著人工智慧的發展,新術語與俚語不斷湧現。以下是一份常見詞彙與短語的定義清單,幫助讀者理解關鍵概念。
- 大語言模型(LLM):一種能夠理解與產生人類語言的深度學習模型,能根據輸入內容生成自然語言文本。
- AI幻覺(Hallucination):當大語言模型產生看似合理但實際上錯誤或無根據的資訊時,稱為「幻覺」。這仍是當前AI技術中重要的品質挑戰。
- 思考鏈(Chain of Thought):人類常透過分解複雜問題來思考,AI模型也採用類似方式逐步推理,以提升回答的邏輯性與正確性。
- 深度學習(Deep Learning):一種機器學習技術,透過多層神經網絡模擬人腦運作,用以識別模式與做出預測。
- 擴散模型(Diffusion):一種生成模型,透過逐步添加噪點與去噪來產生高品質的圖像或資料。
- AI代理(AI Agent):能自主執行任務、與環境互動並做出決策的智能系統。
- 上下文窗口(Context Window):模型能處理的輸入資料長度限制,影響其理解與回應的範圍。
- 嵌入(Embeddings):將文字或資料轉換為數值向量,以便模型進行比較與分析。
- RAG(Retrieval-Augmented Generation):結合資訊檢索與生成模型,讓AI能從外部知識庫中獲取事實,減少幻覺風險。
技術挑戰與未來發展
AI幻覺問題持續影響模型的可信度與應用場景。研究指出,模型因獎勵機制會傾向「猜測」而非「查證」,導致產生錯誤資訊。為改善此問題,學界正發展多種緩解策略,例如透過訓練強調事實一致性與引入外部知識檢索。
隨著技術進步,未來AI系統將更強調「事實正確性」與「透明度」,以提升使用者信任與應用價值。
