返回部落格
Security
8分鐘

如何安全使用AI工具:資料保護實用指南

安全使用ChatGPT、Claude、Copilot等AI工具而不洩露敏感資料的分步指南。隱私設定、最佳實踐和替代方案。

LOCK.PUB

如何安全使用AI工具:資料保護實用指南

ChatGPT、Claude、GitHub Copilot等AI工具已成為提升生產力的必備工具。但每次與這些工具互動時,您都可能在向它們的伺服器分享資料——這些資料可能被儲存、用於訓練,甚至在資料外洩中暴露。

本指南提供實用、可執行的步驟,幫助您在使用AI工具的同時保護敏感資訊。

黃金法則:假設一切都是公開的

在深入了解具體設定和工具之前,請內化這一原則:

將發送給AI工具的每一條提示都視為可能公開的資訊。

這意味著:

  • AI公司的員工可能會讀到
  • 可能出現在資料外洩中
  • 可能影響對其他使用者的回應
  • 可能在法律程序中被傳喚

如果您不願意公開發布,就不要貼到聊天機器人中。

步驟1:設定隱私選項

ChatGPT (OpenAI)

停用資料訓練:

  1. 前往設定 → 資料控制
  2. 關閉「為所有人改進模型」
  3. 您的對話將不再用於訓練未來的模型

使用暫時對話:

  • 在敏感對話前點擊「暫時對話」開關
  • 這些對話不會儲存到歷史記錄,也不會用於訓練

API vs 消費者版:

  • OpenAI預設不使用API資料進行訓練
  • 對於敏感應用考慮直接使用API

Claude (Anthropic)

付費方案:

  • Claude Pro/Team/Enterprise的對話預設不用於訓練
  • 查看您具體方案的Anthropic資料使用政策

免費版:

  • 對話可能被用於訓練
  • 可用時使用Claude的暫時功能

Google Gemini

關閉活動儲存:

  1. 前往Gemini應用程式活動
  2. 關閉活動儲存
  3. 將自動刪除設定為最短時間

Microsoft Copilot

企業使用者:

  • Microsoft 365版Copilot有更強的資料保護
  • 消費者版Copilot資料政策更寬鬆
  • 工作資料使用組織的Copilot執行個體

步驟2:了解不應分享的內容

絕對不要貼到AI聊天機器人:

類別 範例 風險
憑證 密碼、API金鑰、權杖 帳戶直接被入侵
個人資訊 身分證號、信用卡、醫療記錄 身分竊盜、合規違規
公司機密 原始碼、客戶資料、財務資料 商業秘密外洩、合規違規
私人通訊 需要幫助撰寫的郵件、私訊 隱私侵犯

提示中的危險訊號:

  • sk-AKIAghp_等開頭的字串(可能是API金鑰)
  • 包含@company.com郵件網域的內容
  • 資料庫連線字串
  • 帶有個人詳情的真實姓名
  • 未脫敏的截圖

步驟3:分享前脫敏

當您需要AI幫助處理包含敏感資訊的程式碼或文件時:

用佔位符取代真實值:

# 不要這樣:
api_key = "sk-proj-abc123xyz789"
db_password = "MyR3alP@ssword!"

# 應該這樣:
api_key = "YOUR_OPENAI_API_KEY"
db_password = "YOUR_DATABASE_PASSWORD"

匿名化個人資訊:

# 不要這樣:
"台積電公司的王小明([email protected])請求..."

# 應該這樣:
"X公司的使用者A([email protected])請求..."

提問前泛化:

不要問:「為什麼我的AWS金鑰AKIAIOSFODNN7EXAMPLE不能用?」

應該問:「AWS存取金鑰失效的常見原因有哪些?」

步驟4:根據敏感度選擇合適的工具

低敏感度(公開資訊、通用問題):

  • 消費者版AI工具即可
  • ChatGPT、Claude、Gemini免費版
  • 無需特別預防措施

中等敏感度(內部流程、非機密程式碼):

  • 啟用隱私設定
  • 使用暫時/無痕模式
  • 脫敏具體細節

高敏感度(憑證、個人資訊、商業秘密):

  • 使用帶資料處理協議的企業版
  • 考慮本地/自架模型
  • 或者根本不用AI處理這類資料

企業AI選項:

服務 主要保護 合規性
ChatGPT Enterprise 不使用資料訓練,SOC 2 GDPR、HIPAA就緒
Claude Enterprise 可簽DPA,不訓練 SOC 2、GDPR
Azure OpenAI 資料保留在您的Azure 完整企業合規
AWS Bedrock 您的VPC,您的資料 完整企業合規

步驟5:正確處理憑證

永遠不要透過AI工具或一般即時通訊分享憑證

當您需要與同事分享敏感憑證時:

錯誤做法:

  • 貼在LINE/Slack中(訊息會被儲存)
  • 放在共用文件中(持久存取)
  • 透過郵件傳送(通常未加密,可搜尋)
  • 貼在AI聊天機器人中(可能用於訓練)

正確做法:

  • 使用密碼管理器的分享功能
  • 使用組織的金鑰管理工具
  • 透過加密、自動銷毀的管道分享

使用安全的過期連結

像LOCK.PUB這樣的服務允許您:

  1. 建立密碼保護的備忘錄
  2. 設定過期時間(1小時、24小時等)
  3. 設定檢視後自動銷毀
  4. 透過一個管道傳送連結,透過另一個管道傳送密碼

範例工作流程:

  • 您需要與新團隊成員分享資料庫密碼
  • 建立包含密碼的安全備忘錄
  • 設定1小時後過期,檢視後刪除
  • 透過郵件傳送連結,透過其他管道傳送密碼
  • 檢視後憑證無法再次取得

這比把憑證放在郵件、聊天訊息或AI提示中安全得多。

步驟6:考慮本地AI模型

對於真正敏感的工作,考慮在本地執行AI模型:

本地AI選項:

Ollama + 開源模型:

  • 本地執行Llama、Mistral或其他模型
  • 資料完全不離開您的機器
  • 適合程式碼審查、寫作輔助

GPT4All:

  • 執行本地模型的桌面應用程式
  • 無需網路
  • 適合離線環境

LocalAI:

  • OpenAI API相容的本地伺服器
  • 可整合到現有工作流程

本地模型的權衡:

  • 能力不如GPT-4或Claude
  • 需要不錯的硬體(建議GPU)
  • 無網路存取 = 無外部知識
  • 但是:完全隱私

步驟7:實施團隊政策

如果您管理團隊,請建立明確的指導方針:

核准的工具和層級:

  • 可以使用哪些AI服務
  • 哪些資料用哪個層級(免費版 vs 企業版)
  • 如何申請例外核准

資料分類:

  • 哪些類型的資料可以與AI討論
  • 哪些需要脫敏
  • 哪些完全禁止

培訓要求:

  • 年度AI安全意識培訓
  • 新風險出現時的更新
  • 事件回應程序

稽核和監控:

  • 盡可能記錄AI工具使用情況
  • 審查政策合規性
  • 從事件中學習

快速參考:AI安全檢查清單

在向AI工具傳送任何提示之前,問問自己:

  • 如果這個提示變成公開的,我會感到舒適嗎?
  • 我是否已刪除所有密碼、API金鑰和權杖?
  • 我是否已匿名化個人資訊(姓名、郵件、ID)?
  • 我是否已脫敏不必要的公司特定詳情?
  • 我是否在使用適合這些資料敏感度的層級?
  • 我是否已啟用隱私設定(訓練退出、暫時對話)?

如果無法全部勾選,請停下來脫敏後再繼續。

了解更多特定風險

本指南涵蓋了一般最佳實踐。要深入了解特定威脅,請參閱我們的相關文章:

總結

AI工具非常強大,但需要謹慎使用。從ChatGPT即時獲得幫助的便利不值得換來資料外洩、合規違規或憑證洩露。

您的行動項目:

  1. 今天就設定您使用的所有AI工具的隱私選項
  2. 建立個人規則:AI提示中不放憑證、不放個人資訊、不放機密
  3. 使用過期加密管道分享敏感資料
  4. 培訓團隊AI安全最佳實踐
  5. 對最敏感的工作考慮使用本地模型

額外的30秒脫敏可以讓您免於數月的事件回應。

建立安全的過期備忘錄 →

相關關鍵詞

如何安全使用chatgpt
安全地與ai共享敏感資料
ai隱私最佳實踐
保護資料不被ai存取
ai資料脫敏
本地ai模型處理敏感資料

立即建立密碼保護連結

免費建立密碼保護連結、加密備忘錄和加密聊天。

免費開始
如何安全使用AI工具:資料保護實用指南 | LOCK.PUB Blog