- 當模型自信地產生錯誤或捏造的資訊時,就會出現 AI 幻覺,這是由於資料品質不佳、過度擬合或模糊的提示所造成的。
- 幻覺的範圍從事實錯誤到虛構內容,可能會損害信任、使企業損失數以億計,或散播有害的錯誤資訊。
- 主要的預防步驟包括選擇可靠的 AI 平台、增加檢索增強世代 (RAG)、製作精確的提示,以及加入人工監督。
如果 Joaquin Phoenix 問 Scarlett Johansson草莓有幾個R,你覺得他會愛上 Scarlett Johansson 嗎?如果你在 LinkedIn 上,你就知道答案是 3。(或者,你知道,如果你能讀的話。)

但對於人工智能聊天機器人來說,事情並不總是這麼簡單。
您可能已經看過有人嘲笑 AI 幻覺的荒謬性。平心而論,一個擁有看似無窮無盡的知識、類似人類的推理能力,以及快如閃電的任務執行能力的人工智慧模型,在幼稚園程度的數學問題上失敗,是有點荒謬。
但在這些有趣的遊戲背後,卻隱藏著更嚴重、更潛在的現實。
在這篇文章中,我會談談人工智慧幻覺 - 什麼是幻覺、造成幻覺的原因、為什麼會出現幻覺,以及您可以採取的預防措施。
什麼是 AI 幻覺?
AI 幻覺是指 AI 模型呈現不準確、誤導或完全捏造的資訊。這些虛假資訊可能看似可信,而且在許多情況下都不會被發現。
由於LLMs的廣泛採用,幻覺最常見於產生式文字模型中。實際上,它們對於任何產生式人工智慧的應用都會造成風險。
人工智慧產生幻覺的原因是什麼?
當模型學習到錯誤的模式時,AI 幻覺就會發生。

在人工智慧的範疇中,模式是指其使用個別訓練範例來概括未見資料的能力。這可以是一連串的單字來組成文字的延續,或是對應於狗的圖像像素分佈。
在LLM 幻覺的案例中,模型已經將一連串的字詞視為使用者提示後最有可能的後續,儘管這是假的。
這可能是由於以下一個或多個原因:
低品質訓練資料

ChatGPT和類似的LLMs 是在大量資料上訓練出來的。這些資料雖然豐富,但卻不完美,原因如下:
- 某些主題的缺口
- 反映現實世界的偏見
- 故意提供錯誤資訊或未加標示的諷刺
- 有偏見,如不平衡或「偏斜」的資料。
考慮一個情況,模型是根據所有希臘神的資訊訓練出來的,只有一個希臘神除外。
它有能力在希臘神話般的主題(愛情、倫理、背叛)之間建立統計關係,這可能會讓它根據自己的統計模型,串起一些它認為「可能」的虛構神話。
這一點在圖像製作中也很明顯,大部分以女性為主題的提示都會產生過度性化的圖像。對於某種特定類型的描述的偏見,決定了所產生的影像種類。
草莓 (strawberry) 的拼法很可能是在討論雙重R 時出現在訓練資料中,而雙重R 是母語非英語人士臭名昭著的痛點。在這種情況下,數字2或單字「double」很可能與這個單字的拼法有關。
另一方面,資料也不太可能提到它有 3 個R。
輸出是荒謬的,因為提示是:在什麼情況下會有人寫一個字,然後詢問它的拼法?
模型架構與產生方法
這些模型是由複雜得令人咋舌的神經網路架構所建立。細微的變化會影響模型與訓練資料和輸入提示的 互動方式。模型減緩幻覺的能力會透過嚴謹的研究和測試 逐步改善。
最重要的是如何實現生成。模型會逐字(實際上是逐詞)預測最有可能出現的詞。所以:
「敏捷的棕狐跳過懶惰的____」

會判斷下一個字最有可能是「狗」。但也有可能是其他字。而只根據單一最有可能的下一個字來產生,會產生無趣、可預測的結果。
這意味著我們必須使用創新的取樣方法,以保持令人興奮且連貫的回應。如此一來,事實有時會被遺漏。
過度擬合

過度擬合是指模型被訓練得太接近於預測資料,以致於無法泛化到新的輸入。
所以,如果我是一個模特兒(就像我媽說我應該是的),那麼如果我要認出狗是,我就是一個經過適當訓練的模特兒:
毛茸茸的,耳朵下垂,愛玩,還有一個棕色的小鈕扣鼻子。
但如果我只認得他們是,那就太不適合了:
它的下巴下有一個棕色的小點,名字叫 "Frank",還咬壞了我的一雙好耐克鞋。
在 LLM的情況下,它通常看起來像是重複訓練資料中的資訊,而不是在不知道答案的地方退縮。
假設您向聊天機器人詢問公司的退貨政策。如果它不知道,應該會通知您。不過如果它過於適應,它可能會返回類似公司的政策。
提示不佳
各家公司在頒發提示工程證書時,都知道人工智慧的優劣取決於其投入的資源。
完整的提示會表達精確,避免使用小眾術語,並提供所有必要的背景。
這是因為幻覺發生在許多低概率輸出的邊緣。
如果你問 「鯊魚女孩的劇情是什麼?」現在,人類會想 「啊,鯊魚女孩」在統計的世界裡,可能性有:
- The Adventures of Sharkboy and Lavagirl- 2005 年的一部相當受歡迎的兒童電影,名字也很相似。
- 2024 年的恐怖/驚慄電影《鯊魚女孩》(Shark Girl)- 雖不太受歡迎,但比較新也比較準確。
- 今年較早時的一本同名兒童書- 該書款可能有也可能沒有索引。
這些都不是顯而易見的選擇,造成「較扁平」的機率分佈,對某一主題或敘述的承諾較少。更有效的提示會提供上下文,也就是闡明使用者所指的是哪個範例。
這種含糊不清和切題相關性的湯水可能會產生這樣的回應:對鯊魚相關故事的虛構一般情節。
降低產生幻覺的機率就是降低不確定性。
AI 幻覺的種類
到目前為止,我已經概括地談過了幻覺。實際上,它幾乎觸及 AI 的所有層面。不過為了清楚起見,最好還是考慮不同的類別。
事實錯誤
這就是草莓的例子。事實陳述的細節有錯誤。這些錯誤可能包括某一事件發生的年份、某一國家的首都或某一統計數字。

在一個原本很好的回應中,微小的細節可能會特別隱晦,尤其是涉及到人類不常記得的細節時,例如精確的數字。
製造內容
2023 年,Google 的 Bard 虛假地聲稱James Webb 望遠鏡被用來拍攝第一張系外行星的照片。這並非技術上的錯誤,而是純粹的謊言。
這些可能是如上所述的大膽聲明,但更常出現的是不知去向的 URL,或是捏造的程式碼庫和函式。
值得注意的是,事實錯誤與捏造內容之間的界線並不總是很清楚。
假設我們在討論一位研究人員。如果我們引用了他們的一篇論文,卻弄錯了年份,這就是事實錯誤。如果我們弄錯了名字,那又如何?名字和 年份怎麼辦?
錯誤資訊
這可以歸類於前兩個類別中的任何一個,但指的是來源較為透明的虛假資訊。
Google AI 以推薦膠水披薩和吃石頭而聞名,就是一個很好的例子;資料來源顯然是諷刺性且普遍無傷大雅的 - The Onion 所寫的 Reddit 評論,但模型的訓練並未考慮到這一點。

AI 幻覺的風險
1.失去信任
我們很欣賞將任務交由人工智能處理的自由,但不能以犧牲我們的信任為代價。
Cursor AI 最近的失誤 - 客服機器人發明了限制性政策 - 導致許多使用者取消訂閱,質疑其可靠性。
2.成本
AI 已經在許多企業中佔據領先地位,雖然這是一件好事,但一失足成千古恨。
Google 的 James Webb 幻覺導致 Alphabet 的股票在幾個小時內下跌了 1000 億美元。這還未計算重新訓練模型的費用。
3.安全性與惡意軟體
如前所述,AI 經常捏造程式庫的名稱。當您嘗試安裝不存在的程式庫時,什麼都不會發生。
現在想像一下,駭客將惡意軟體嵌入程式碼中,並以一個常見的函式庫名稱上傳。您安裝這個函式庫,然後 💨噗💨:您被駭客入侵了。
這種情況存在,稱為slopsquatting。
撇開粗俗的名稱不談,對於您所安裝的軟體進行嚴格的檢查,並再次確認任何聽起來很奇特的函式庫名稱,永遠都不會有壞處。
預防 AI 幻覺的步驟
如果您沒有訓練模型,您在資料和架構端就沒有什麼可以做的。
好消息是,您仍然可以採取一些預防措施,這些措施可以讓您的 AI 在運送過程中不會出現幻覺。
選擇值得信賴的機型與平台
您並非孤立無援。AI 公司對於維護信任有著極大的興趣,這意味著不會出現幻覺。
根據您使用 AI 所做的事情,您幾乎總是有至少幾個選項,而一個好的AI 平台可以讓您輕鬆取得這些選項。這些平台應該透明說明他們如何減緩幻覺。
使用 RAG(Retrieval-Augmented Generation)。

不要讓模型依賴自己的知識。為您的模型配備RAG會讓您清楚瞭解可用的資訊,以及在哪裡可以找到這些資訊。
最好是在有簡單說明如何執行有效 RAG 的平台上執行 AI。
新增詳盡說明
如果你聽過一次,你就會聽過一千次:垃圾進,垃圾出。
「回答使用者的問題」並不能保證成功。但是,類似這樣的內容
# 說明
請完全參閱常見問題文件。如果答案沒有出現:
* 有禮貌地告知使用者該資訊不可用。
* 提出將對話升級至人工代理。
會讓您的代理保持克制。清晰的提示加上堅定的防範措施,是您對付惡意經紀人的最佳防線。
人體驗證
在升級的議題上,要有一個人隨時準備好檢查、評估和壓縮 AI 的缺點。
升級或追溯驗證對話的能力可讓您找出哪些是有效的,哪些是可能產生幻覺的。Human-in-the-loop - 人工智能驅動的工作流程的人工監督 - 在此是必須的。