為什麼 ChatGPT 會製造虛假的參考資料(以及如何識別)?

TL;DR: ChatGPT 製造虛假的參考資料,因為它的主要工作是成為模式大師,而非事實大師。它產生的引文看起來是真實的,因為它們符合真實引用的語言模式,即使來源並不存在。這就是所謂的「幻覺」。若要發現它們,請使用簡單的驗證程序:在 Google Scholar 中檢查標題、驗證作者和出版品,若準確性非常重要,請使用 Perplexity 或 Scite.ai 等專門設計的研究工具。

您曾經有過這樣的經驗。您正在深入研究一個研究專案,您向 ChatGPT 索取一些輔助資料,而 ChatGPT 提供了一份格式精美、令人印象深刻的引文。它列出了專家作者、可信的期刊和完全相關的標題。您將它放入您的報告中,感覺信心十足。

然後,您試著找到實際的研究。它根本不存在。作者是個幽靈。期刊是虛構的你只是人工智能 「幻覺 」的受害者。

James here,Mercury Technology Solutions 的執行長。

這種現象是人工智能輔助工作新時代最大的風險之一。它會破壞您的可信度,將虛假資訊引入您的策略中,並破壞您辛苦建立的信任。但這並非 AI 的惡意行為。它是技術運作的可預見副產品。

本指南將簡單解釋 ChatGPT 編造來源的原因,並提供實用的逐步核對清單,幫助您每次都能識別這些贗品。

為什麼ChatGPT 是預測引擎,而非資料庫

要了解為什麼會發生幻覺,你必須記得像 ChatGPT 這樣的大型語言模型 (LLM) 究竟是什麼。它不是一個擁有世界知識完美目錄的圖書館員。它是一個非常先進的 預測引擎

把它想像成世界上最精密的自動完成功能。它的全部工作就是根據數以萬億計的單詞進行訓練,從統計學角度預測句子中最有可能出現的下一個單詞。

當您要求它提供來源時,它的目標並不是從資料庫中擷取一個事實。它的目標是產生一個 看起來像真實引文的字串。它已經看過成千上萬的學術論文和新聞文章,因此它知道引文的 模式

(作者姓名,年份)「文章標題」,*期刊名稱*,卷號,期號,頁數。

它會組合一串完全符合這個模式的文字。它預測了一個似是而非的作者、一個可信的期刊名稱和一個相關的文章標題。結果是語言上完美但事實上空洞的引文。這並不是「說謊」;它只是在完成一個模式,卻沒有與真實世界的來源聯繫。

這是產生式 LLM 與 Perplexity 之類的專用 AI 搜尋引擎之間的關鍵差異,Perplexity 使用的是 Retrieval-Augmented Generation (RAG)。基於 RAG 的工具會先尋找即時網路中的真實資料來源,然後再總結它們。ChatGPT 的預設模式是從內部記憶體產生似是而非的回應。

如何」:識別虛假推薦人的 5 步檢查清單

那麼,您該如何保護自己呢?您需要一個簡單、可重複的驗證程序。以下是我們團隊使用的核對清單。

步驟 1:「內心檢查」 - 看起來和感覺上是否真實?

在您開啟新標籤頁之前,先快速檢查一下您的理智狀況。

  • 作者是該領域的知名專家嗎?如果您在研究數位行銷時,引用了一個您從未聽過的名字,那就是一面黃旗。
  • 期刊或出版物聽起來是否合法?請提防太一般化的標題(例如,Journal of Business)或奇怪的特定標題(例如,The International Journal of B2B SaaS Onboarding Metrics)。
  • 標題看起來可信嗎?如果標題聽起來有點太完美,可能是為您的確切提示量身打造的。

步驟 2:Google 學術測試

這是最快、最有效的第一步。

  • 將文章或書籍的準確標題複製並貼到 谷歌學術.如果有真正的、已發表的學術論文存在,幾乎肯定會出現在這裡。如果您的搜尋結果為零,那就是嚴重的錯誤。

步驟 3:驗證作者

  • 在 Google 上簡單搜尋作者姓名加上其領域 (例如:「Dr. Eleanor Vance 認知神經科學」)。尋找與其所聲稱的專業相符的大學簡介、個人網站與著作清單、Google Scholar 簡介或 LinkedIn 簡介。如果這位專家在這篇引文之外似乎並不存在,那麼他們很可能不存在。

步驟 4:檢查期刊或刊物

  • 搜尋期刊或出版物的名稱。它是否有一個真正的網站,並有過往期刊的存檔?它是否是該領域內知名且有信譽的刊物?快速搜尋通常可以揭露期刊是否虛構。

步驟 5:尋找 DOI (針對學術論文)

  • Digital Object Identifier (DOI) 是用來永久識別電子文件的獨特字符串。在過去二十年間,幾乎所有合法出版的學術論文都有一個 DOI。如果 AI 提供了期刊文章的引文,但沒有 DOI,請務必懷疑。如果它確實提供了 DOI,您可以在以下網址輸入來驗證它 doi.org.

真實世界的範例:揭穿虛假引文

讓我們走過這個過程。假設您向 ChatGPT 索取有關行銷領域採用 AI 的資料,它會提供您以下資料:

"根據Samuel Reed博士在Journal of Marketing Innovation(2024年)所做的一項名為'The Generative Leap: AI Adoption Rates in B2B Marketing'的重要研究,目前有78%的CMO將預算分配給AI生成工具"。

  1. Gut Check:作者姓名可信,期刊名稱聽起來也很合理。統計數據非常具體。它通過了初步的直覺檢查。
  2. Google Scholar 測試:您在 Google Scholar 中搜尋「'The Generative Leap: AI Adoption Rates in B2B Marketing'」。結果:零匹配。這是一個很大的紅旗。
  3. 驗證作者:您搜尋 「Samuel Reed 博士 B2B 行銷」。結果:另一個紅旗。
  4. 檢查期刊:您搜尋「Journal of Marketing Innovation」 結果:這是幻覺。
結論:參考資料是假的。統計資料無法使用。

行銷人員的策略啟示

這不只是學術上的問題。對於行銷人員而言,以虛假參考資料為基礎來發布內容是對 E-E-A-T 中 "T" 代表 Trustworthiness 的直接攻擊。它會破壞您的品牌在受眾心中的可信度,並向 Google 發出您並非權威來源的訊息。

這就是為什麼「人在環中」的工作流程是不可或缺的。人工智能可以是研究和起草工作的強大副駕駛員,但人類專家必須始終是最終的事實檢查員和驗證員。

結論:信任,但要驗證

ChatGPT 的主要工作是成為一個似是而非的會話者,而不是一個嚴謹的圖書館員。它製造虛假的參考資料並非出於惡意,而是因為它是語言模式的引擎,而非事實的真相。

AI 的崛起並沒有減少對人類批判性思考的需求,反而使其比以往更有價值。使用這些強大的工具作為起點,但始終都是真理的最終仲裁者。您的品牌聲譽取決於此。

為什麼 ChatGPT 會製造虛假的參考資料(以及如何識別)?
James Huang 2025年10月23日
分享這個貼文
Perplexity vs. ChatGPT vs. Gemini:哪種 AI 尋找來源更可靠?