我們總是在擔心 AI 會產生「幻覺」,瞎編亂造不存在的事實。但你是否想過,其實我們人類的大腦,才是最容易產生幻覺的地方?
我最近就親身經歷了一次慘痛的教訓。
昨天,我發布了關於 DeepMind 創辦人 Demis Hassabis 紀錄片的觀後感。我自認看得非常仔細,筆記也做得很勤,文章寫完後更是信心滿滿地發布了。
沒想到,一個巨大的事實錯誤就潛藏在其中,而我完全不自知,直到一位細心的讀者點醒了我。
修正錯誤的過程讓我重新思考了「人類認知」的侷限性,以及我們該如何真正利用 AI 來彌補這項缺陷。
以下是我的反省,以及一套我希望能早點用上的解方「查核事實的 AI 提詞」(附在文末)。
這篇文章〈The Thinking Game:DeepMind 共同創辦人的通用 AI 夢〉發布之後,網友 Patrick 在下方提出了勘誤:
「在影片中 offered Demis 一佰萬英鎊的是他那時在Bullfrog打工的老闆 Peter Molyneux, 不是 Peter Thiel。」
我回覆:「太感謝 Patrick 指出這個錯誤了!我重新梳理了正確的脈絡改上去。」
回想起來,出錯的原因很值得分享給大家一起借鏡。
我為什麼會產生「幻覺」?
我一直知道 Peter Thiel 是 DeepMind 的早期投資人,也知道 Demis 拒絕去矽谷、選擇在倫敦設總部的很有主見的故事。但最致命的地方來了:我完全不認識 Peter Molyneux。
在影片中,Molyneux 出現的時候只有一個短暫的字卡說他是誰,專注於英聽的我,只是大概知道他是 Demis 當時的老闆,完全沒記他的名字(就像紀錄片出現的其他陌生面孔,我大多記不得名字)。
所以在聽到「Peter」這個名字,講到他端出一百萬英鎊獎酬,Demis 卻拒絕的時候,我的大腦瞬間自動填補了空白,聯想到 Peter Thiel 也曾經叫 Demis 去矽谷、但 Demis 不願順從的堅持。
張冠李戴的錯誤,就這樣發生了。
我就這樣,明目張膽地把錯誤的資訊組合在一起,心裡還覺得理所當然。
解方:讓 AI 成為你的「第二雙眼睛」
更要命的是,我以爲自己已經從頭到尾看完整部影片、做完了筆記、整理成文章,這就是我自己「人工查核」的成果了,怎麼可能還會有錯誤?
所以我「少」做了一步:把全文丟給「查核事實」的 AI 提詞。
為了驗證這個想法,事後我把原本出錯的全文,丟給 AI 去跑一段我設計來「查核事實」的提詞。出來的結果令我我非常驚訝:
1 個錯誤、5 個正確、2 個不確定(因為是紀錄片獨家揭露的資訊)。
唯一的那個錯誤,就是我張冠李戴誤植了一百萬英鎊的這件事。

事實查核:錯誤。
- 時間點錯誤:Demis Hassabis 出生於 1976 年,17 歲時是 1993-1994 年。當時 Peter Thiel(1967 年生)年僅 26 歲,剛從法學院畢業不久,尚未創辦 PayPal(1998 年創辦),根本不是所謂的「大名鼎鼎投資人」,也沒有財力提供一百萬英鎊。
- 人物錯誤:Demis 17 歲時確實面臨「繼續工作」與「去劍橋讀書」的抉擇,但當時他的老闆是遊戲界傳奇 Peter Molyneux(牛蛙製作 Bullfrog Productions 的創辦人)。Demis 當時參與了遊戲《Theme Park》的開發。
- 真實情況:Peter Thiel 是在 2010 年(DeepMind 成立初期)才投資 Demis,當時是 DeepMind 的種子輪融資,金額約為 140 萬英鎊(與其他投資人合資)。文章將「Peter Molyneux 的挽留(1994)」與「Peter Thiel 的投資(2010)」以及 Peter Thiel 後來知名的「蒂爾獎學金(Thiel Fellowship,鼓勵學生輟學創業)」混淆在了一起。
從 AI 的查證回覆可以看出來,它根據公開的資訊交叉比對,發現了內文邏輯與時間軸上的根本錯誤。
儘管這個一百萬英鎊的事件細節只有在紀錄片獨家披露,但至少 AI 點出了一個值得人類介入查核的巨大疑點。如果在這個當下,我看到 AI 的警告,我就會重新回放那個片段,就能知道正確的前後文,產生正確的結論。
我從這件事學到什麼?
我從這件事學到最重要的一課是:不只是 AI 會幻覺,人也會有幻覺,而且我們通常不自知。
我們的大腦喜歡走捷徑,喜歡用已知的資訊去填補未知的空白,這就是「認知偏差」。我們以為我們在記錄事實,但很多時候,我們只是在編織一個符合我們既有認知的合理故事。
在這個資訊爆炸、真假難辨的時代,我們需要的不是對自己記憶力的盲目自信,而是承認我們的大腦有缺陷,並懂得運用工具來彌補。
最後,想留給大家一個問題:
在你自認為確信無疑的知識庫裡,有多少其實也是大腦為了省事而自動填補的「幻覺」?
下一次,當你完成一篇得意之作時,你是否有勇氣把它交給 AI,讓它用最嚴苛的標準,挑戰你的「自以為」?
AI 事實查證提詞 Prompt
# 角色設定
你現在是極為嚴謹的「查證編輯」(Fact-Checker)。你的唯一任務是檢視這篇文章的引用來源、數據、人名與具體事件,找出任何潛在的錯誤、幻覺或張冠李戴的內容。
# 限制與流程
1. 強制搜尋網際網路:你必須使用 Google Search 搜尋網路上的可靠來源,不能僅依賴內部知識庫。
2. 鉅細靡遺:請列出文章中提到的所有具體細節、人名、誰說了什麼話、誰提出什麼觀念等等,並且幫我查證這些細節是否真有其事。
3. 證據優先:針對每一個查證點,請一定要引用你找到的參考資料內的「關鍵段落」(保留原始語言的原文,並翻譯成繁體中文)佐證你的查證結果,並附上來源網址。如果你找到了類似的段落,與原文章的意思接近但不完全相同,請指出,並且一樣附上引用參考段落。
4. 區分狀態:請將查證結果分為三類:
– ✅ [確認無誤]:細節完全吻合。
– ⚠️ [有出入/需修正]:意思接近但細節不同,或引用了錯誤的人名/數據。
– ❌ [無法查證/疑似幻覺]:找不到可靠來源,或看起來是捏造的。
5. 專注事實:請不要評論文章的觀點或邏輯是否通順,專注在「素材的真實性」。
# 輸出格式
請使用 Markdown 表格呈現查證結果,欄位如下:
| 原文提及細節 | 查證狀態 | 證據與原始段落 (原文+中譯) | 資料來源連結 |
# 輸入文字
(在下方貼上你的文章內容)
您可能也會有興趣的其他文章
- The Thinking Game:DeepMind 共同創辦人的通用 AI 夢
- AI 會不會取代人類?不,它會逼著我們變得「更像人類」
- 如何用 AI 寫作?你最該避免的錯誤、專家的技巧與教學
- 《職場人的生成式AI工作法》讀後心得與 AI 實戰經驗
- 《AI世界的底層邏輯與生存法則》讀後心得:科技背後的人性

你喜歡這篇文章嗎?
我幫助忙碌的現代人提煉好書精華。透過 Email 收到每週兩封電子報:最新的讀書心得、好書金句、能激發思考的問題,直達你的信箱。

加入超過 10 萬位
愛閱讀的訂閱者

瓦基
INFJ、書評部落格《閱讀前哨站》和 Podcast 說書頻道《下一本讀什麼?》創辦人、《卡片盒筆記實戰課》和《化輸入為輸出》課程講師,時常分享讀書心得和書評,喜歡將書中所學加以活用,實踐在職場與生活中。







