Scam Prevention
7 min
如何辨識深度偽造(Deepfake):AI生成媒體檢測實用指南
學習如何透過視覺線索、驗證工具和反向圖片搜尋辨識深度偽造影片、圖片和音訊。
LOCK.PUB
•2026-01-25
如何辨識深度偽造(Deepfake):AI生成媒體檢測實用指南
一段CEO宣布併購的影片。一段政治人物發表爭議言論的音訊。一張名人代言產品的照片。這些都可能完全是AI偽造的——而且這項技術每個月都在進步。
在台灣,透過LINE和社群平台傳播的深度偽造內容正在增加,被用於詐騙、假訊息傳播和身份冒充。本指南介紹辨識深度偽造的實用技巧。
什麼是深度偽造
深度偽造使用深度學習模型——主要是生成對抗網路(GAN)或擴散模型——來生成或竄改影片、音訊或圖片。主要類型包括:
- 換臉 — 將一個人的臉合成到另一個人的身體上
- 臉部重演 — 讓人看起來說了或做了從未發生的事
- 語音克隆 — 生成模仿特定人物的合成語音
- 完全合成 — 創建完全虛構的人物或場景
深度偽造影片的視覺線索
不自然的眼球運動和眨眼
早期深度偽造有個明顯問題:人物幾乎不眨眼。雖然新模型有所改進,但眨眼模式往往仍然不規律:
- 異常稀少或頻繁的眨眼
- 眼球不隨頭部運動自然跟蹤
- 瞳孔大小或形狀不一致
唇形同步問題
嘴唇運動與音訊不完全匹配是最可靠的判斷指標之一:
- 語音和唇部動作之間的輕微延遲
- 說話時模糊或變形的嘴唇
- 口型與發出的聲音不對應
臉部邊界偽影
生成的臉部與原始畫面交界處通常會暴露竄改痕跡:
- 下巴線或髮際線處輕微的顏色、紋理差異
- 臉部邊緣的模糊或柔化
- 頭部轉動時變化的膚色
光照和陰影不一致
AI模型難以處理複雜光照:
- 陰影與明顯光源方向不匹配
- 眼睛反射顯示不同的環境
- 臉部移動時保持不變的皮膚高光
深度偽造音訊檢測
不自然的語音模式
- 單調的語調或異常的節奏
- 聽起來機械或完全不存在的呼吸聲
- 沒有自然停頓地連續的詞語
背景音訊
- 突然出現或消失的背景噪音
- 與錄製環境不匹配的音質
- 錄製過程中變化的迴聲模式
檢測工具和技術
反向圖片搜尋
如果懷疑圖片是合成或竄改的,使用反向圖片搜尋找到原始來源:
| 工具 | 適用場景 |
|---|---|
| Google圖片(反向搜尋) | 尋找被竄改照片的原始版本 |
| TinEye | 追蹤圖片在網路上出現的位置 |
| Yandex圖片 | 臉部和地點的廣泛結果 |
AI檢測工具
專門用於檢測AI生成內容的工具:
- Hive Moderation — 檢測AI生成的圖片和文字
- Content Credentials(C2PA) — 檢查數位來源中繼資料
- FakeCatcher(Intel) — 分析影片像素中的血流模式
- Deepware Scanner — 深度偽造影片掃描行動應用程式
中繼資料分析
真實的媒體包含錄製設備的中繼資料(EXIF資料)。深度偽造通常缺少這些資料或中繼資料不一致。
逐格分析
暫停影片並逐格推進,可以發現正常播放速度下看不到的偽影:
- 格與格之間閃爍或偏移的臉部特徵
- 僅出現在臉部周圍的壓縮偽影
- 在人物頭部附近扭曲的背景元素
常見深度偽造詐騙情境
| 情境 | 手法 |
|---|---|
| CEO詐騙 | 偽造高階主管的影片或語音通話授權轉帳 |
| 愛情詐騙 | 使用他人面孔的假視訊通話建立虛假信任 |
| 名人代言詐騙 | 捏造名人推薦詐騙產品的影片 |
| 政治假訊息 | 歸因於公眾人物的虛假演說或聲明 |
| 勒索 | 使用受害者肖像創建的合成內容 |
遇到疑似深度偽造時怎麼辦
- 不要轉傳。 即使標註可能是假的,轉傳也會擴大影響。
- 向平台檢舉。
- 透過官方管道核實。 查看相關人物的官方帳號或網站。
- 使用檢測工具。 用上述工具分析內容。
- 保留證據。 儲存URL和截圖以備檢舉之用。
保護自己
- 對來源不明的聳動內容保持懷疑
- 分享前先驗證——30秒的確認可以防止假訊息傳播
- 盡量將自己的圖片和影片保持私密,減少深度偽造的素材來源
- 使用LOCK.PUB等服務透過密碼保護連結分享敏感內容,而非公開發布
透過驗證建立信任
在「眼見」不再「為實」的時代,驗證比以往任何時候都重要。分享重要資訊時,使用具備內建信任機制的管道。LOCK.PUB讓你透過一致的驗證網域,以密碼保護的方式分享連結、備忘錄和訊息。
相關關鍵詞
深度偽造辨識
deepfake檢測
AI換臉
假影片辨別
深度偽造防範
AI生成媒體