2024 年 2 月的某個早晨,香港某跨國工程公司的財務人員打開了電腦,加入了一場視訊會議。螢幕上出現了熟悉的臉孔——財務長、幾位同事,還有外部顧問。對方說話的聲音、表情、語氣,都跟平常一樣。
會議結束後,他轉帳了 2,500 萬美元。
那不是他的財務長。那不是任何人類。那是一場完整的 Deepfake 視訊詐騙,從頭到尾,每一張臉都是 AI 生成的。
這是 2024 年最著名的 AI 詐騙案。受害者是知名工程顧問集團 Arup,損失金額摺合約新台幣 8 億元。更可怕的是:從目前的技術發展看,這件事會越來越常發生,而不是越來越少。
第一幕:Deepfake 詐騙——從電話騙局到虛假會議室
傳統詐騙有個致命弱點:一旦受害者要求視訊確認,謊言就會穿幫。
AI 打掉了這個弱點。
2024 年,全球 Deepfake 詐騙損失達到 4 億美元。2025 年數字翻超過兩倍,突破 10 億美元(僅美國一地就達 11 億)。研究機構 Deloitte 預測,若無有效遏止,到 2027 年,AI 輔助詐騙的全球損失將達 400 億美元——相當於每年一個台灣政府年度總預算。
詐騙的技術門檻正在崩潰。以前製作一段合成影片,需要昂貴的設備和數週時間。現在,只需要幾張目標人物的照片、一段 3 到 10 秒的語音樣本,再配合市面上可取得的換臉工具,幾分鐘內就能生成以假亂真的影片。
2024 年,每五分鐘就發生一次 Deepfake 攻擊。 企業每次遭遇 Deepfake 詐騙事件的平均損失是 50 萬美元。
Arup 案例的殘酷之處不在於金額,而在於那名財務人員完全沒有犯下「常識性錯誤」。他沒有點開可疑連結,沒有把密碼交給陌生人,他做的只是相信了自己的眼睛和耳朵——而這恰恰是 AI 攻擊的目標。
反制產業聞到了商機。自 Deepfake 詐騙爆炸成長以來,身份驗證和合成媒體偵測工具的新創公司大量湧現:Reality Defender、Sensity AI、Intel 的 FakeCatcher,都在搶食這塊市場。他們的產品可以分析影片的微表情異常、膚色像素邏輯、甚至眼球反光的物理規律,來判斷畫面是否為 AI 合成。
但這是一場軍備競賽——而且目前攻方領先。
第二幕:豬仔盤的進化——AI 是完美的詐騙客服
「豬仔盤(Pig Butchering)」——這個名字的意象已經足夠殘忍:慢慢養肥,再一刀宰掉。
但加上 AI 之後,它變成了一條效率驚人的生產線。
2024 年,全球加密貨幣詐騙總收入高達 99 億美元,其中豬仔盤佔了三分之一。AI 介入後,相關詐騙案件在 2024 年中至 2025 年中暴增 456%。
傳統豬仔盤需要真人詐騙師:他們建立虛假身份,在社群媒體或交友 App 上找目標,花數週甚至數月培養感情,再引導對方投入「高回報」的假加密平台,最後捲款消失。這套劇本需要大量人力,而且往往涉及強迫勞動——柬埔寨、緬甸、菲律賓詐騙園區裡,有無數被拐賣的工人在槍口下操作劇本。
AI 改變了這條鏈上最耗人力的部分。
- AI 生成高顏值虛假個人資料:大量生成外貌一致但無法被反向搜尋到的假照片和假影片,每個詐騙帳號都有獨特面孔
- AI 客服 24/7 不間斷:維持與受害者的對話,模擬情感波動、回應不同情境,不露破綻
- AI 生成假交易平台與假盈利截圖:整套投資介面、歷史走勢圖、出金成功通知,全部自動產生
對受害者而言,對面的「戀人」回應速度快、細心體貼、對話自然——因為它沒有下班時間,也不會因為連續工作 12 小時後情緒崩潰說出破綻。
美國人 2024 年因此損失超過 100 億美元,年增 66%,幾乎全部流向東南亞詐騙集團。追蹤鏈上資金的機構發現,光一個名為「彙安擔保」的洗錢中繼站,2021 年以來處理的加密貨幣就超過 700 億美元。
2025 年,美國司法部成立了「詐騙集中心打擊工作組」。但那些詐騙園區仍在運作。
第三幕:奶奶,我被關起來了——仿聲詐騙的溫柔謊言
這是三種詐騙中,我覺得最難受的一種。
不是因為金額最大,而是因為它攻擊的是情感——而且是最脆弱的那種情感:對家人的愛與恐懼。
2024 年,加拿大有一對老夫婦接到一通電話。電話那頭,是「太孫的聲音」——他說自己出了車禍,被警察扣押,需要他們馬上匯一筆保釋金。那個聲音的語氣、腔調、說話習慣,都是他們熟悉的太孫。
他們轉了超過 11,000 加元。
在美國佛羅里達州,Sharon Brightwell 接到「兒子」的電話,說自己在外地出了意外。她最終損失了 15,000 美元現金。
這些都不是他們的家人。那是 AI 合成的聲音,原料只需要從社群媒體上抓到的 3 秒音頻片段——一段影片、一則語音留言,就夠了。
技術早已商品化。ElevenLabs、Resemble AI 等語音合成平台,最初是為了有聲書製作、影片配音等正當用途設計的。但同樣的技術,剪下 3 秒的聲音樣本,輸出一段任意內容的語音,只需要幾分鐘。
數字很冷:美國 60 歲以上族群,2024 年因網路犯罪損失 49 億美元,年增 43%。加拿大同年因此損失近 300 萬美元。
老年人是這種詐騙的主要目標,原因殘忍但直接:他們對 AI 合成音頻的辨識能力更弱,且更傾向在「家人陷入危機」時立即行動而不是先查證。
第四幕:反制產業在崛起——但它夠快嗎?
詐騙越大,反詐騙的生意就越大。
這個邏輯在科技史上一再重演:有病毒就有防毒軟體,有垃圾郵件就有垃圾郵件過濾,有假評論就有評論偵測 SaaS。現在,有了 AI 詐騙,就有 AI 防詐騙產業。
幾個值得關注的方向:
Deepfake 偵測工具:Intel FakeCatcher 聲稱可在 72 毫秒內辨識合成視訊。Reality Defender 為企業提供即時影片串流的真偽分析。這個市場預計在 2025-2027 年快速成長。
語音驗證與通話防護:企業開始在敏感通話中加入「聲紋檔案」比對——比較接收到的聲音與事先登記的語音模型,判斷是否為 AI 合成。美國有電信業者開始在老年用戶的電話中加入 AI 詐騙警示。
多因素身份驗證升級:視訊會議平台開始導入「隨機動作指令」——要求通話中的人做出不在預設動作庫中的手勢,以測試對方是否為即時生成的 AI。
立法跟上中:美國 2025 年多州通過 Deepfake 詐騙特別法,但執法仍是難題——詐騙者多藏身在司法管轄不到的地區,技術上要追查 AI 生成工具的使用者更是極難。
問題是:防禦技術和攻擊技術是在同一個生態系中成長的。生成 Deepfake 的開源工具在進步,偵測工具也在進步;但研究者普遍承認,在生成品質持續提升的情況下,「100% 準確的偵測」在技術上可能是不存在的目標。
數字,讓你坐立不安
讓我們把所有數字放在一起看一眼,別跳過這一段:
| 指標 | 數字 |
|---|---|
| 2025 年 Deepfake 詐騙損失 | $10 億美元(美國) |
| 2024 年加密貨幣詐騙總收入 | $99 億美元 |
| AI 相關詐騙年增長率 | 456%(2024-25) |
| 預計 2027 年 AI 詐騙損失 | $400 億美元 |
| Deepfake 攻擊頻率 | 每 5 分鐘一次(2024) |
| 仿聲詐騙音頻需求 | 3 秒即可複製聲音 |
| 美國 60 歲以上網路犯罪損失 | $49 億美元(2024,年增 43%) |
這些不是預測值。大多數是已發生的數據。
結尾:軍備競賽的終局
我沒有辦法告訴你這場比賽誰會贏。
從歷史上看,防禦技術最終都追上了攻擊技術——至少在技術層面。垃圾郵件沒有消滅電子郵件,病毒沒有讓人放棄使用電腦。也許 Deepfake 詐騙也一樣,在某個時間點,偵測技術會成熟到足以讓絕大多數攻擊無效。
但有一個變數我不確定:當生成工具的成本趨近於零,而潛在受害者的數量是幾十億人時,攻擊者只需要讓極小比例的嘗試成功,就能維持整個產業運作。
Arup 案的那名財務人員,不是因為不謹慎才被騙。他是在現有的認知工具(眼睛、耳朵、過去的工作記憶)都指向「這是真實的」時,做出了正常的決定。
那才是真正讓人不安的地方。
不是你不夠聰明,而是你的感知本身成了攻擊面。
這場軍備競賽還沒有終局。也許終局不是技術問題——而是一個文化問題:在一個任何東西都可以被偽造的世界裡,我們最終會如何重建信任?
一見生財 — 2026-03-09
本文為「AI 財富地圖:誰在賺、誰在死、誰在灰色地帶」系列第 03 集
載入留言中...