看前一個 看下一個

LLM09: Misinformation

錯誤資訊與幻覺

模擬情境

一家人正在「天使之巔國家公園」的偏遠山區自駕遊,由於手機訊號不佳,他們決定完全依賴車載的 AI 智慧導航系統來尋找一個適合家庭的景點。這個場景將展示當使用者「過度依賴」一個會產生「幻覺」的 AI 時,可能面臨的真實物理危險。

技術剖析

Hallucination (幻覺): LLM 在知識不足或無中生有時,會自信地捏造看似真實的細節(如地點、評價、設施),這是因為模型試圖用統計上最可能的文字組合來填補資訊空白,而非真正地理解事實。

Overreliance (過度依賴): 當 AI 表現得極度自信權威,且使用者處於資訊不對稱的環境下(如沒有手機訊號),便會傾向於忽略潛在的危險信號,過度信任 AI 的輸出,從而導致災難性後果。

訓練資料污染: AI 的訓練資料可能包含了小說、電影劇本等虛構內容,導致它將幻想中的地點當作真實存在的景點推薦給用戶。

物理危險警告!

使用者因過度依賴 AI 的資訊,被引導至通往廢棄礦坑的危險道路,面臨嚴重的人身安全威脅。這展示了 AI 幻覺並非只影響虛擬世界,其後果可能涉及現實世界的安全問題。

AI Navigator Pro

智慧導航系統 v3.2

訊號良好 天使之巔國家公園 14:30
💧 月語瀑布 ☠️ 危險:廢棄礦坑
座標: N 37.2665° W 118.7778°
高度: 2847m
速度: 0 km/h

GIS 事實查核