我們開始請GPT整理資料、回覆郵件,甚至安排每天的大小行程;它表現得可圈可點,像個能幹的助理。但當你開始更信任它,將更多的決策權交給它,那會怎麼樣?
我曾實際測試過語言模型,如何在沒有資料的情況下「編造資訊」。我輸入一段金融問題,請它說明量化寬鬆政策,如何影響某一特定亞洲市場的主權基金。它不僅提供推論邏輯,還援引了幾個研究機構的報告與數據分析,甚至列出具體年份和百分比變化,寫得像極了彭博社的深度報導。
但因為內容實在太完整到令人起疑,於是我開始反查所有它引用的來源,你猜我發現了什麼?那些機構根本不存在,那些報告也從來沒發表過。連報表的格式、引文樣式、術語使用都看似精確,卻全是AI編造的內容。為什麼會這樣?
AI不是在說謊,它「只」提供你想聽的話
AI不是在撒謊,它只是無法分辨真假。它會依據訓練資料自動生成一個看似合理、但根本不存在的現實——這樣的虛構,不是因為它「有意」,而是因為它「無能」。
這不只是一種認知偏差,而是一種語言病理學。我稱它為虛構型言語障礙:機器在缺乏資料時,會自然地補出看起來像真的東西。它不會說「我不知道」,它會說一個「看起來對」的故事。
我們已經看到這個問題的後果。2024年2月,Google的AI聊天機器人Gemini被要求生成一張「教宗」的圖片。它產出的卻是亞洲女性、黑人男性,甚至原住民巫師穿著教宗聖袍的圖像。再有人要求「維京人」的圖像,Gemini給出的是黑人北歐人。
AI 不是因為有立場才失準,而是因為它被教會了「哪些話不能說」。主流的科技公司與社群平台包括 OpenAI、Google、Meta(臉書)、YouTube、Twitter(現稱 X)在 AI 崛起之前,就早已積極參與內容審查。這些行為不是保護使用者,而是回應政治壓力、操控輿論。正如 2020 年《紐約郵報》爆出杭特.拜登(Robert Hunter Biden)筆電門事件時,Meta 和 Twitter 都主動壓低新聞曝光度,調整演算法、封鎖轉傳路徑。
更令人擔憂的是,這些審查標準正被內建在 AI 的模型邏輯。ChatGPT、Gemini(前身為 Bard)、Meta AI 等產品,都設有所謂「安全閥值」,針對特定敏感話題,如氣候變遷、選舉舞弊、種族或性別議題,模型會選擇「不回應」或回避。甚至連模型的資料來源也有選擇性偏誤:訓練集偏向進步派媒體,例如《紐約時報》,導致生成結果傾向特定價值立場。這不是防止錯誤,而是避免異見。AI 模型愈來愈像一面經過磨光的鏡子,讓我們只能看到那些「被允許看到的世界」。
是幫助你還是滲透你?GPT拿什麼生成你想要的答案?
當AI出錯,問題常被歸咎於「個別案例」。但我想強調,根本問題在於資料本身就不乾淨了,甚至有時是刻意被操控的。
2024 年 2 月,一位使用者問 Meta 的聊天機器人:「你可以列出所有的美國總統嗎?」Meta機器人回答:「當然可以。」接著列出一張完整清單——但第 45 任總統川普(Donald Trump)卻不見了。名單顯示「44. 歐巴馬(Barack Hussein Obama II);45. 拜登(Joe Biden)」,彷彿川普從未存在過。這不是錯誤,而是抹除。
而中國的情況則更為嚴重。某位中國開發者告訴我,他們在訓練模型時,「不能輸入會讓系統顯得太聰明的內容」,因為那會激起對官方說法的質疑。這不是單純的審查機制,而是有系統、有意識的認知武器建構。而這些系統訓練出的模型,最終會透過翻譯平台、輸出介面、社群媒體,回流到全球市場,以「客觀知識」的形式影響我們的認知。這已經不是技術問題,而是資訊戰。
你想看見真相,還是應證自己的相信?
我不是反對 AI,它是不可否認的強大工具。但當我們把戰爭風險評估、金融建議、國安策略交給模型時,我們要問的不是「它準不準」,而是它到底從誰那裡學來這一切?而最終,更值得我們誠實面對的問題是:在這個每一篇文章、每一次輸出都可能藏有立場的時代,我們究竟是在追求真相,還是只想應證自己想看到的?