Security
8分鐘
如何安全使用AI工具:資料保護實用指南
安全使用ChatGPT、Claude、Copilot等AI工具而不洩露敏感資料的分步指南。隱私設定、最佳實踐和替代方案。
LOCK.PUB
如何安全使用AI工具:資料保護實用指南
ChatGPT、Claude、GitHub Copilot等AI工具已成為提升生產力的必備工具。但每次與這些工具互動時,您都可能在向它們的伺服器分享資料——這些資料可能被儲存、用於訓練,甚至在資料外洩中暴露。
本指南提供實用、可執行的步驟,幫助您在使用AI工具的同時保護敏感資訊。
黃金法則:假設一切都是公開的
在深入了解具體設定和工具之前,請內化這一原則:
將發送給AI工具的每一條提示都視為可能公開的資訊。
這意味著:
- AI公司的員工可能會讀到
- 可能出現在資料外洩中
- 可能影響對其他使用者的回應
- 可能在法律程序中被傳喚
如果您不願意公開發布,就不要貼到聊天機器人中。
步驟1:設定隱私選項
ChatGPT (OpenAI)
停用資料訓練:
- 前往設定 → 資料控制
- 關閉「為所有人改進模型」
- 您的對話將不再用於訓練未來的模型
使用暫時對話:
- 在敏感對話前點擊「暫時對話」開關
- 這些對話不會儲存到歷史記錄,也不會用於訓練
API vs 消費者版:
- OpenAI預設不使用API資料進行訓練
- 對於敏感應用考慮直接使用API
Claude (Anthropic)
付費方案:
- Claude Pro/Team/Enterprise的對話預設不用於訓練
- 查看您具體方案的Anthropic資料使用政策
免費版:
- 對話可能被用於訓練
- 可用時使用Claude的暫時功能
Google Gemini
關閉活動儲存:
- 前往Gemini應用程式活動
- 關閉活動儲存
- 將自動刪除設定為最短時間
Microsoft Copilot
企業使用者:
- Microsoft 365版Copilot有更強的資料保護
- 消費者版Copilot資料政策更寬鬆
- 工作資料使用組織的Copilot執行個體
步驟2:了解不應分享的內容
絕對不要貼到AI聊天機器人:
| 類別 | 範例 | 風險 |
|---|---|---|
| 憑證 | 密碼、API金鑰、權杖 | 帳戶直接被入侵 |
| 個人資訊 | 身分證號、信用卡、醫療記錄 | 身分竊盜、合規違規 |
| 公司機密 | 原始碼、客戶資料、財務資料 | 商業秘密外洩、合規違規 |
| 私人通訊 | 需要幫助撰寫的郵件、私訊 | 隱私侵犯 |
提示中的危險訊號:
- 以
sk-、AKIA、ghp_等開頭的字串(可能是API金鑰) - 包含
@company.com郵件網域的內容 - 資料庫連線字串
- 帶有個人詳情的真實姓名
- 未脫敏的截圖
步驟3:分享前脫敏
當您需要AI幫助處理包含敏感資訊的程式碼或文件時:
用佔位符取代真實值:
# 不要這樣:
api_key = "sk-proj-abc123xyz789"
db_password = "MyR3alP@ssword!"
# 應該這樣:
api_key = "YOUR_OPENAI_API_KEY"
db_password = "YOUR_DATABASE_PASSWORD"
匿名化個人資訊:
# 不要這樣:
"台積電公司的王小明([email protected])請求..."
# 應該這樣:
"X公司的使用者A([email protected])請求..."
提問前泛化:
不要問:「為什麼我的AWS金鑰AKIAIOSFODNN7EXAMPLE不能用?」
應該問:「AWS存取金鑰失效的常見原因有哪些?」
步驟4:根據敏感度選擇合適的工具
低敏感度(公開資訊、通用問題):
- 消費者版AI工具即可
- ChatGPT、Claude、Gemini免費版
- 無需特別預防措施
中等敏感度(內部流程、非機密程式碼):
- 啟用隱私設定
- 使用暫時/無痕模式
- 脫敏具體細節
高敏感度(憑證、個人資訊、商業秘密):
- 使用帶資料處理協議的企業版
- 考慮本地/自架模型
- 或者根本不用AI處理這類資料
企業AI選項:
| 服務 | 主要保護 | 合規性 |
|---|---|---|
| ChatGPT Enterprise | 不使用資料訓練,SOC 2 | GDPR、HIPAA就緒 |
| Claude Enterprise | 可簽DPA,不訓練 | SOC 2、GDPR |
| Azure OpenAI | 資料保留在您的Azure | 完整企業合規 |
| AWS Bedrock | 您的VPC,您的資料 | 完整企業合規 |
步驟5:正確處理憑證
永遠不要透過AI工具或一般即時通訊分享憑證
當您需要與同事分享敏感憑證時:
錯誤做法:
- 貼在LINE/Slack中(訊息會被儲存)
- 放在共用文件中(持久存取)
- 透過郵件傳送(通常未加密,可搜尋)
- 貼在AI聊天機器人中(可能用於訓練)
正確做法:
- 使用密碼管理器的分享功能
- 使用組織的金鑰管理工具
- 透過加密、自動銷毀的管道分享
使用安全的過期連結
像LOCK.PUB這樣的服務允許您:
- 建立密碼保護的備忘錄
- 設定過期時間(1小時、24小時等)
- 設定檢視後自動銷毀
- 透過一個管道傳送連結,透過另一個管道傳送密碼
範例工作流程:
- 您需要與新團隊成員分享資料庫密碼
- 建立包含密碼的安全備忘錄
- 設定1小時後過期,檢視後刪除
- 透過郵件傳送連結,透過其他管道傳送密碼
- 檢視後憑證無法再次取得
這比把憑證放在郵件、聊天訊息或AI提示中安全得多。
步驟6:考慮本地AI模型
對於真正敏感的工作,考慮在本地執行AI模型:
本地AI選項:
Ollama + 開源模型:
- 本地執行Llama、Mistral或其他模型
- 資料完全不離開您的機器
- 適合程式碼審查、寫作輔助
GPT4All:
- 執行本地模型的桌面應用程式
- 無需網路
- 適合離線環境
LocalAI:
- OpenAI API相容的本地伺服器
- 可整合到現有工作流程
本地模型的權衡:
- 能力不如GPT-4或Claude
- 需要不錯的硬體(建議GPU)
- 無網路存取 = 無外部知識
- 但是:完全隱私
步驟7:實施團隊政策
如果您管理團隊,請建立明確的指導方針:
核准的工具和層級:
- 可以使用哪些AI服務
- 哪些資料用哪個層級(免費版 vs 企業版)
- 如何申請例外核准
資料分類:
- 哪些類型的資料可以與AI討論
- 哪些需要脫敏
- 哪些完全禁止
培訓要求:
- 年度AI安全意識培訓
- 新風險出現時的更新
- 事件回應程序
稽核和監控:
- 盡可能記錄AI工具使用情況
- 審查政策合規性
- 從事件中學習
快速參考:AI安全檢查清單
在向AI工具傳送任何提示之前,問問自己:
- 如果這個提示變成公開的,我會感到舒適嗎?
- 我是否已刪除所有密碼、API金鑰和權杖?
- 我是否已匿名化個人資訊(姓名、郵件、ID)?
- 我是否已脫敏不必要的公司特定詳情?
- 我是否在使用適合這些資料敏感度的層級?
- 我是否已啟用隱私設定(訓練退出、暫時對話)?
如果無法全部勾選,請停下來脫敏後再繼續。
了解更多特定風險
本指南涵蓋了一般最佳實踐。要深入了解特定威脅,請參閱我們的相關文章:
- AI聊天機器人資料外洩:貼上敏感資訊時會發生什麼 — 與ChatGPT、Claude等聊天機器人分享資料的風險
- AI代理安全風險:為什麼給AI太多權限很危險 — AI能執行程式碼和存取檔案時的特殊風險
- AI程式設計助手正在撰寫不安全的程式碼 — AI產生程式碼中的安全漏洞
總結
AI工具非常強大,但需要謹慎使用。從ChatGPT即時獲得幫助的便利不值得換來資料外洩、合規違規或憑證洩露。
您的行動項目:
- 今天就設定您使用的所有AI工具的隱私選項
- 建立個人規則:AI提示中不放憑證、不放個人資訊、不放機密
- 使用過期加密管道分享敏感資料
- 培訓團隊AI安全最佳實踐
- 對最敏感的工作考慮使用本地模型
額外的30秒脫敏可以讓您免於數月的事件回應。
相關關鍵詞
如何安全使用chatgpt
安全地與ai共享敏感資料
ai隱私最佳實踐
保護資料不被ai存取
ai資料脫敏
本地ai模型處理敏感資料