TL;DR: 一項新的同行評審研究 證實了數位生態系統中一個驚人的偏見:AI 系統通常偏好其他 AI 撰寫的內容。這為企業帶來了重大的策略風險,也就是潛在的「門稅」,純粹由人類撰寫的內容可能會被新的 AI 守門員暗中懲罰。勝利的策略不是純粹的自動化,而是精密的 人類與人工智能合作,將人工智能喜愛的文體模式與人類專業知識和驗證的重要監督融合在一起。
我是 Mercury Technology Solutions 的執行長 James。
過去一年來,我們一直秉持的原則是:要在 AI 時代取得成功,內容必須是有結構且具權威性的。新的、經同行評審的 發表於PNAS的研究報告剛為這一理解增添了重要且深具挑戰性的一層:AI 系統似乎對其他 AI 所撰寫的內容有著可衡量的偏好。
對於任何業務依賴於數位發現的領導者而言,這是一項深刻的情報。這表示潛在的「AI 回音室」已經出現,並迫使我們面對一個複雜的新問題:當把關者本身有固有的偏見時,我們該如何確保品牌的聲音被聽到呢?
研究的驚人發現:以數據為導向的人工智能偏好研究
Walter Laurito 和 Jan Kulveit 領導的研究團隊進行了一系列配對測試,要求流行的 AI 模型(包括 GPT-4、Llama 3.1 等)在相同內容的人類撰寫版本和 AI 撰寫版本之間做出選擇。
結果令人警醒。當使用 GPT-4 來產生 AI 版本時,對 AI 撰寫文字的偏好非常明顯,尤其是在商業情境中:
- Product Descriptions: LLMs 在 89% 的時間內偏好 AI 撰寫的文字,而人類評估者只有 36%。
- Scientific Abstracts: LLMs 偏好 AI 文字 78% 的時間 (vs. 61% 的人類)。
- Movie Summaries: LLMs 在 70% 的時間內偏好 AI 文字 (vs. 58% for humans)。
正如該研究的作者所說,這揭示了「基於 LLM 的 AI 傾向於偏好 LLM 呈現的選項」,這可能會讓「AI 代理和 AI 輔助的人類擁有不公平的優勢」。
戰略意義:門戶稅」與隱形風險
這對企業的影響是直接且重大的。如果使用為電子商務搜尋、內容發現平台以及 Google 自家的 AI 總覽提供動力的 AI 模型來評分或總結刊登內容,這種固有的偏差意味著 AI 輔助的文案可能更容易被選中。
作者將此形容為潛在的 「門稅」,企業可能會覺得不得不支付和使用 AI 撰寫工具,以避免被新的 AI 評估者篩選出來。這將內容創作從純粹的創意工作轉變為複雜的營運和策略挑戰。
水星藍圖:人工智能回音室的策略回應
面對這項挑戰的答案不是解雇您的撰稿團隊,並以純 AI 自動化管道取而代之。這種做法會以一種風險(隱蔽性)換取另一種風險(事實錯誤、品牌淡化和法律責任)。
唯一可行的路徑就是更精密、 人類主導、AI 協助 方法。這個理念正是我們在 Mercury 建立內容與 AI 技術堆疊的基礎。
- 策略:我們相信使用人工智能作為強大的副駕駛員,而不是駕駛員。這讓我們可以創造出既符合機器喜好,又符合人類信任的最佳內容。
- 我們如何執行:我們的 AI 助理、 Mercury Muses AI在 Mercury ContentFlow AI Suite 中集成,正是為這種混合模式而設計。
- AI 輔助起草: Muses AI 可以產生高品質的部落格內容草稿,自然地融入研究顯示其他 AI 模型偏好的文體和結構模式。這可從基礎層面解決「AI 偏好」的偏差。
- Human Expertise & Verification:我們的人類專家會在人工智能產生的基礎上,注入機器無法提供的內容:真實的經驗、品牌聲音、獨特的見解,以及最重要的嚴格事實驗證。這種 「人在環中 」的流程可降低產生幻覺的風險,並確保最終內容的可信度和真實性。
這種整合式方法所創造出的最終產品,比純人類或純 AI 所產生的內容更為優異。它的設計既能獲得 AI 守護者的青睞,又能保持準確性和可信度,與您的客戶建立持久的信任。這是我們 GAIO (生成式 AI 優化) 服務。
總結:以混合方法探索新領域
這項突破性的研究對兩端都提出了警告:完全拒絕人工智慧工具已不再是可行的選擇,但盲目的自動化卻會造成災難。
勝利的策略是一種平衡的混合策略。正如原始報告所建議的,將這個新現實當成「實驗車道」。利用 AI 來符合新數位看門人的新興偏好,但始終要確保有一位人類專家坐在駕駛座上,引導語調、驗證聲明,並透過真正的客戶參與來驗證結果。
內容的未來是人類專業知識與人工智能效率之間的真正合作。掌握這種合作方式的領導者,將是在未來的歲月中,仍然受人矚目與信賴的領導者。