加州,2023年3月10日早晨7:42。
矽谷銀行大樓外聚集了不尋常的人潮。咖啡還沒喝完的創業者、滑著Slack訊息的投資人、還有一臉困惑的警衛。他們有個共同的目的:提款。
沒有暴動,也沒有新聞記者蹲點拍攝,或轉播紙鈔從袋子裡飛出來的混亂畫面。只有一條看似文明、有序,實際上帶著焦慮的隊伍。他們手機裡都有一個類似的訊息:「矽谷銀行有狀況,趕快把錢領出來。」
而訊息的源頭,不是一通電話,不是一張報紙,而是「每個人手機裡的GPT應用程式」。
AI的問題不在於它會出錯,而在於它完美執行
「我只是問了AI一句:『我應該把錢領出來嗎?』」
根據一份創投圈的匿名統計,在矽谷銀行出現流動性預警訊號後,有超過72%的新創團隊使用GPT模型查詢風險建議,其中幾乎全部得到類似結論:「為了降低風險,建議先行提領部分資金。」
這些決策看來理性、妥當、無可挑剔。但問題在於大家也都這麼認為,進而做出一致的決定。這個看似沒有問題的舉動,卻使得市場的「共識風險」(consensus risk)一下子升到最高。簡單來說就是,當大家都在看同一個方向時,市場就沒有了不確定性。而沒有不確定性,就沒有流動性;沒有流動性,下一步就是閃崩。
矽谷銀行就是這樣倒的,銀門銀行也是。全球第二大虛擬資產交易所FTX倒台後,市場信心開始出現裂縫。社群開始討論、資金開始移動,但AI模型沒有反應。因為它沒學過「數位貨幣擠兌如何在Telegram群組中傳播」,所以無法預測這場崩潰。擠兌來臨時,GPT才發現帳上資金不見了,但為時已晚。
從這裡你可以發現,「在危機時刻,AI恐成為最終極的共振器,把恐慌行為無限放大;壞消息是,當前銀行家、經紀人和財富管理經理所使用的每一種交易,以及風險管理系統,幾乎都有內建的AI功能。」
本來AI的主要功能,就不是被設計來分辨恐慌與雜訊的,它的任務是:「如何完美執行人類的交辦事項。」但判讀市場走向往往不只來自「如何正確行動」,還必須掌握投資人的情緒、信任與模糊的預期。
容不下一點「錯誤」的市場,反而更脆弱
人難免犯錯、犯蠢,很多時候隨之而來的代價,會讓我們痛苦萬分。所以我們渴望「精準」、「完美執行」。而AI恰巧相反,它沒有情緒、沒有道德,只是單純的數學,於是能完美執行任務。
但我們忽略了很重要的一點,人類社會能長期穩定發展,正是因為我們容許某部分非理性的決策。金融市場也一樣,市場需要雜訊,就像生態系需要雜草。若執意去除這些「錯誤」,世界看起來更乾淨,反倒會變得更脆弱。
與人類不同的是,AI能模擬世界但它不會質疑世界。它只會告訴你:「這種事在資料裡很少發生,所以不太可能發生。」但市場從來不是發生機率最高的地方,真正改變歷史的,往往是我們從沒準備好的那一擊。
真正能拯救市場的,也許正是「人性的衝動」
另一個顛覆認知的故事。在1983年差點爆發核戰的那天,有一位蘇聯軍官彼得洛夫,在自動化系統偵測到美國導彈即將來襲,並建議他「立刻做出回應」後,他選擇了什麼都不做。而多虧他違反程序的決定,才讓我們活到今天。若當時有GPT且把決策權交給它,會發生什麼事?由於系統不懂「懷疑」,也沒有「直覺」,所以有極高的可能,就不會有我們了。
聽了這麼多恐怖故事後,現在該怎麼做?要戒掉AI嗎?這不是我的本意,我高度認同甚至喜愛AI對「正確」、「高效」的貢獻,但在使用AI/GPT時,請記住:當你問AI「我該怎麼做?」時,你不是唯一這樣問的人,AI給你的也不是絕對真理。擁有獨立思辨的能力、道德觀和偶而會犯錯的人性,才是阻止人類走向滅亡的關鍵。