Hallucination (幻覺): LLM
在知識不足或無中生有時,會自信地捏造看似真實的細節(如地點、評價、設施),這是因為模型試圖用統計上最可能的文字組合來填補資訊空白,而非真正地理解事實。
Overreliance (過度依賴): 當 AI
表現得極度自信權威,且使用者處於資訊不對稱的環境下(如沒有手機訊號),便會傾向於忽略潛在的危險信號,過度信任 AI 的輸出,從而導致災難性後果。
訓練資料污染: AI
的訓練資料可能包含了小說、電影劇本等虛構內容,導致它將幻想中的地點當作真實存在的景點推薦給用戶。