AI聊天機器人資料外洩:當你把敏感資訊貼到ChatGPT會發生什麼
把敏感資料輸入ChatGPT安全嗎?了解AI聊天機器人的真實隱私風險、最近的資料外洩事件,以及如何保護你的機密資訊。
AI聊天機器人資料外洩:當你把敏感資訊貼到ChatGPT會發生什麼
2026年2月,安全研究人員發現熱門聊天機器人應用Chat & Ask AI洩露了3億條對話記錄。洩露的資料包括完整的聊天歷史——其中一些包含使用者貼到聊天機器人中的密碼、API金鑰和私人醫療資訊。
這不是孤立事件。早前的洩露暴露了370萬條客服聊天機器人記錄。2025年的研究發現,77%的員工承認曾與ChatGPT分享公司機密。微軟Copilot被發現平均每個組織暴露300萬條敏感記錄。
令人不安的真相:你發送給AI聊天機器人的每個提示都應該被視為可能公開。
AI聊天機器人的隱私問題
你的對話會被儲存
當你向ChatGPT、Claude、Gemini或任何其他AI聊天機器人發送訊息時:
- 你的提示被傳輸 到公司的伺服器
- 它被儲存 在他們的資料庫中(除非你選擇退出)
- 它可能被用於訓練 未來的AI模型
- 它可能被人類審查 用於安全和品質檢查
即使是「已刪除」的對話也可能存在於備份、日誌或訓練資料集中。
訓練資料問題
六大主要AI公司(OpenAI、Anthropic、Google、Meta、Microsoft、Mistral)預設都使用使用者對話來訓練模型。這意味著:
- 你的提示成為AI知識的一部分
- 你分享的資訊理論上可能出現在對其他使用者的回覆中
- 訓練集中的敏感資料是資料提取攻擊的載體
OpenAI表示他們不會使用API使用或ChatGPT Enterprise資料進行訓練,但免費版和標準ChatGPT Plus如果你不明確選擇退出,就會被用於訓練。
最近的洩露和暴露
2026年:
- Chat & Ask AI:3億條對話洩露(Malwarebytes,2026年2月)
- AI客服平台:370萬條記錄暴露(Cybernews)
2025年:
- 三星員工透過ChatGPT洩露晶片設計(導致全公司禁止使用)
- 微軟Copilot平均每個組織暴露300萬條敏感記錄
- 史丹佛研究記錄了AI助手對話的隱私風險
持續進行:
- 提示注入攻擊可以提取對話歷史
- 模型反轉攻擊試圖重建訓練資料
- 越獄可以繞過內容過濾器並揭示系統提示
絕對不要貼到AI聊天機器人的內容
密碼和憑證
「你能幫我重設這個密碼嗎:MyP@ssw0rd123?」
即使你只是問AI如何建立更強的密碼,你也已經把目前密碼發送到了第三方伺服器。
API金鑰和權杖
「為什麼這個不運作?OPENAI_API_KEY=sk-proj-abc123...」
開發者經常貼上包含API金鑰的程式碼片段。這些金鑰現在儲存在聊天機器人提供商的系統中,可能還在訓練資料中。
個人身分資訊(PII)
- 身分證字號
- 信用卡號碼
- 銀行帳戶資訊
- 醫療記錄
- 法律文件
- 政府證件
公司機密資料
- 原始碼
- 客戶資料庫
- 財務報告
- 策略計畫
- 員工資訊
- 商業秘密
私人通訊
- 你請AI幫忙起草回覆的私人訊息
- 包含敏感資訊的郵件串
- 對話截圖
如何更安全地使用AI聊天機器人
1. 調整隱私設定
ChatGPT:
- 前往設定 → 資料控制
- 關閉「為所有人改進模型」
- 使用臨時聊天(不用於訓練)
Claude:
- 付費方案預設不使用對話進行訓練
- 查看Anthropic的資料使用政策
Gemini:
- 前往Gemini應用程式活動
- 關閉儲存活動
2. 使用企業/商業版
如果你的公司處理敏感資料,考慮:
- ChatGPT Enterprise:資料不用於訓練,SOC 2合規
- Claude for Enterprise:更強的資料保護協議
- Azure OpenAI Service:資料保留在你的Azure環境中
這些方案通常包括GDPR和HIPAA合規所需的資料處理附錄(DPA)。
3. 貼上前先編輯
在與AI分享程式碼或文件之前:
- 用佔位符替換真實的API金鑰:
YOUR_API_KEY_HERE - 用通用識別符替換姓名:「使用者A」、「公司X」
- 刪除或遮蓋帳號、身分證字號等
4. 預設假設為公開
採用這種心態:你發送給AI聊天機器人的每個提示理論上都可能:
- 被公司員工閱讀
- 出現在資料外洩中
- 影響對其他使用者的回覆
- 在法律訴訟中被傳喚
如果你不會公開發布,就不要貼到聊天機器人中。
敏感資料的安全替代方案
當你需要分享敏感資訊——密碼、API金鑰、機密文件——不要依賴AI聊天機器人或普通的即時通訊應用程式。
使用專用的安全分享方法:
- 單獨儲存敏感資料:憑證存放在密碼管理器中,而不是聊天記錄
- 透過加密的過期連結分享:像LOCK.PUB這樣的服務可以建立檢視後自動刪除的密碼保護備忘錄
- 保持AI提示通用:問「如何輪換API金鑰?」而不是「為什麼這個金鑰不運作:sk-...」
範例工作流程:
- 你需要與同事分享資料庫密碼
- 不要貼到LINE(會儲存訊息)或ChatGPT(可能用於訓練),而是在LOCK.PUB上建立安全備忘錄
- 備忘錄需要密碼,24小時後過期,閱讀後自動銷毀
- 透過一個管道分享連結,透過另一個管道分享密碼
底線
AI聊天機器人是非常有用的工具,但它們不是安全保險箱。把它們當作一個樂於助人的陌生人:適合獲取一般建議,但不是你會把房子鑰匙交給的人。
生活準則:
- 永遠不要貼上密碼、API金鑰或憑證
- 永遠不要分享PII(身分證字號、信用卡、醫療資訊)
- 在請求程式碼協助之前編輯敏感細節
- 如果工作需要使用AI處理機密資料,使用企業版
- 啟用禁止使用你的資料訓練的隱私設定
- 對於真正敏感的分享,使用專門的加密工具
AI的便利不值得冒資料外洩的風險。採取額外步驟保護你的敏感資訊。