返回博客
Security
8分钟

如何安全使用AI工具:数据保护实用指南

安全使用ChatGPT、Claude、Copilot等AI工具而不泄露敏感数据的分步指南。隐私设置、最佳实践和替代方案。

LOCK.PUB

如何安全使用AI工具:数据保护实用指南

ChatGPT、Claude、GitHub Copilot等AI工具已成为提高生产力的必备工具。但每次与这些工具交互时,您都可能在向它们的服务器共享数据——这些数据可能被存储、用于训练,甚至在数据泄露中暴露。

本指南提供实用、可操作的步骤,帮助您在使用AI工具的同时保护敏感信息。

黄金法则:假设一切都是公开的

在深入了解具体设置和工具之前,请内化这一原则:

将发送给AI工具的每一条提示都视为可能公开的信息。

这意味着:

  • AI公司的员工可能会读到
  • 可能出现在数据泄露中
  • 可能影响对其他用户的响应
  • 可能在法律程序中被传唤

如果您不愿意公开发布,就不要粘贴到聊天机器人中。

步骤1:配置隐私设置

ChatGPT (OpenAI)

禁用数据训练:

  1. 进入设置 → 数据控制
  2. 关闭"为所有人改进模型"
  3. 您的对话将不再用于训练未来的模型

使用临时对话:

  • 在敏感对话前点击"临时对话"开关
  • 这些对话不会保存到历史记录,也不会用于训练

API vs 消费者版:

  • OpenAI默认不使用API数据进行训练
  • 对于敏感应用考虑直接使用API

Claude (Anthropic)

付费计划:

  • Claude Pro/Team/Enterprise的对话默认不用于训练
  • 查看您具体计划的Anthropic数据使用政策

免费版:

  • 对话可能被用于训练
  • 可用时使用Claude的临时功能

Google Gemini

关闭活动保存:

  1. 进入Gemini应用活动
  2. 关闭活动保存
  3. 将自动删除设置为最短时间

Microsoft Copilot

企业用户:

  • Microsoft 365版Copilot有更强的数据保护
  • 消费者版Copilot数据政策更宽松
  • 工作数据使用组织的Copilot实例

步骤2:了解不应分享的内容

绝对不要粘贴到AI聊天机器人:

类别 示例 风险
凭证 密码、API密钥、令牌 账户直接被入侵
个人信息 身份证号、信用卡、医疗记录 身份盗窃、合规违规
公司机密 源代码、客户数据、财务数据 商业秘密泄露、合规违规
私人通信 需要帮助撰写的邮件、私信 隐私侵犯

提示中的危险信号:

  • sk-AKIAghp_等开头的字符串(可能是API密钥)
  • 包含@company.com邮箱域名的内容
  • 数据库连接字符串
  • 带有个人详情的真实姓名
  • 未脱敏的截图

步骤3:分享前脱敏

当您需要AI帮助处理包含敏感信息的代码或文档时:

用占位符替换真实值:

# 不要这样:
api_key = "sk-proj-abc123xyz789"
db_password = "MyR3alP@ssword!"

# 应该这样:
api_key = "YOUR_OPENAI_API_KEY"
db_password = "YOUR_DATABASE_PASSWORD"

匿名化个人信息:

# 不要这样:
"阿里巴巴公司的张伟([email protected])请求..."

# 应该这样:
"X公司的用户A([email protected])请求..."

提问前泛化:

不要问:"为什么我的AWS密钥AKIAIOSFODNN7EXAMPLE不工作?"

应该问:"AWS访问密钥失效的常见原因有哪些?"

步骤4:根据敏感度选择合适的工具

低敏感度(公开信息、通用问题):

  • 消费者版AI工具即可
  • ChatGPT、Claude、Gemini免费版
  • 无需特别预防措施

中等敏感度(内部流程、非机密代码):

  • 启用隐私设置
  • 使用临时/无痕模式
  • 脱敏具体细节

高敏感度(凭证、个人信息、商业秘密):

  • 使用带数据处理协议的企业版
  • 考虑本地/自托管模型
  • 或者根本不用AI处理这类数据

企业AI选项:

服务 主要保护 合规性
ChatGPT Enterprise 不使用数据训练,SOC 2 GDPR、HIPAA就绪
Claude Enterprise 可签DPA,不训练 SOC 2、GDPR
Azure OpenAI 数据保留在您的Azure 完整企业合规
AWS Bedrock 您的VPC,您的数据 完整企业合规

步骤5:正确处理凭证

永远不要通过AI工具或普通即时通讯分享凭证

当您需要与同事分享敏感凭证时:

错误做法:

  • 粘贴在微信/钉钉/飞书中(消息会被存储)
  • 放在共享文档中(持久访问)
  • 通过邮件发送(通常未加密,可搜索)
  • 粘贴在AI聊天机器人中(可能用于训练)

正确做法:

  • 使用密码管理器的共享功能
  • 使用组织的密钥管理工具
  • 通过加密、自动销毁的渠道分享

使用安全的过期链接

像LOCK.PUB这样的服务允许您:

  1. 创建密码保护的备忘录
  2. 设置过期时间(1小时、24小时等)
  3. 设置查看后自动销毁
  4. 通过一个渠道发送链接,通过另一个渠道发送密码

示例工作流程:

  • 您需要与新团队成员分享数据库密码
  • 创建包含密码的安全备忘录
  • 设置1小时后过期,查看后删除
  • 通过邮件发送链接,通过其他渠道发送密码
  • 查看后凭证无法再次获取

这比把凭证放在邮件、聊天消息或AI提示中安全得多。

步骤6:考虑本地AI模型

对于真正敏感的工作,考虑在本地运行AI模型:

本地AI选项:

Ollama + 开源模型:

  • 本地运行Llama、Mistral或其他模型
  • 数据完全不离开您的机器
  • 适合代码审查、写作辅助

GPT4All:

  • 运行本地模型的桌面应用
  • 无需互联网
  • 适合离线环境

LocalAI:

  • OpenAI API兼容的本地服务器
  • 可接入现有工作流程

本地模型的权衡:

  • 能力不如GPT-4或Claude
  • 需要不错的硬件(推荐GPU)
  • 无互联网访问 = 无外部知识
  • 但是:完全隐私

步骤7:实施团队政策

如果您管理团队,请建立明确的指导方针:

批准的工具和层级:

  • 可以使用哪些AI服务
  • 哪些数据用哪个层级(免费版 vs 企业版)
  • 如何申请例外批准

数据分类:

  • 哪些类型的数据可以与AI讨论
  • 哪些需要脱敏
  • 哪些完全禁止

培训要求:

  • 年度AI安全意识培训
  • 新风险出现时的更新
  • 事件响应程序

审计和监控:

  • 尽可能记录AI工具使用情况
  • 审查政策合规性
  • 从事件中学习

快速参考:AI安全检查清单

在向AI工具发送任何提示之前,问问自己:

  • 如果这个提示变成公开的,我会感到舒适吗?
  • 我是否已删除所有密码、API密钥和令牌?
  • 我是否已匿名化个人信息(姓名、邮箱、ID)?
  • 我是否已脱敏不必要的公司特定详情?
  • 我是否在使用适合这些数据敏感度的层级?
  • 我是否已启用隐私设置(训练退出、临时对话)?

如果无法全部勾选,请停下来脱敏后再继续。

了解更多特定风险

本指南涵盖了一般最佳实践。要深入了解特定威胁,请参阅我们的相关文章:

总结

AI工具非常强大,但需要谨慎使用。从ChatGPT即时获得帮助的便利不值得换来数据泄露、合规违规或凭证泄露。

您的行动项目:

  1. 今天就配置您使用的所有AI工具的隐私设置
  2. 建立个人规则:AI提示中不放凭证、不放个人信息、不放机密
  3. 使用过期加密渠道分享敏感数据
  4. 培训团队AI安全最佳实践
  5. 对最敏感的工作考虑使用本地模型

额外的30秒脱敏可以让您免于数月的事件响应。

创建安全的过期备忘录 →

相关关键词

如何安全使用chatgpt
安全地与ai共享敏感数据
ai隐私最佳实践
保护数据不被ai访问
ai数据脱敏
本地ai模型处理敏感数据

立即创建密码保护链接

免费创建密码保护链接、加密备忘录和加密聊天。

免费开始
如何安全使用AI工具:数据保护实用指南 | LOCK.PUB Blog