Security
8分钟
如何安全使用AI工具:数据保护实用指南
安全使用ChatGPT、Claude、Copilot等AI工具而不泄露敏感数据的分步指南。隐私设置、最佳实践和替代方案。
LOCK.PUB
如何安全使用AI工具:数据保护实用指南
ChatGPT、Claude、GitHub Copilot等AI工具已成为提高生产力的必备工具。但每次与这些工具交互时,您都可能在向它们的服务器共享数据——这些数据可能被存储、用于训练,甚至在数据泄露中暴露。
本指南提供实用、可操作的步骤,帮助您在使用AI工具的同时保护敏感信息。
黄金法则:假设一切都是公开的
在深入了解具体设置和工具之前,请内化这一原则:
将发送给AI工具的每一条提示都视为可能公开的信息。
这意味着:
- AI公司的员工可能会读到
- 可能出现在数据泄露中
- 可能影响对其他用户的响应
- 可能在法律程序中被传唤
如果您不愿意公开发布,就不要粘贴到聊天机器人中。
步骤1:配置隐私设置
ChatGPT (OpenAI)
禁用数据训练:
- 进入设置 → 数据控制
- 关闭"为所有人改进模型"
- 您的对话将不再用于训练未来的模型
使用临时对话:
- 在敏感对话前点击"临时对话"开关
- 这些对话不会保存到历史记录,也不会用于训练
API vs 消费者版:
- OpenAI默认不使用API数据进行训练
- 对于敏感应用考虑直接使用API
Claude (Anthropic)
付费计划:
- Claude Pro/Team/Enterprise的对话默认不用于训练
- 查看您具体计划的Anthropic数据使用政策
免费版:
- 对话可能被用于训练
- 可用时使用Claude的临时功能
Google Gemini
关闭活动保存:
- 进入Gemini应用活动
- 关闭活动保存
- 将自动删除设置为最短时间
Microsoft Copilot
企业用户:
- Microsoft 365版Copilot有更强的数据保护
- 消费者版Copilot数据政策更宽松
- 工作数据使用组织的Copilot实例
步骤2:了解不应分享的内容
绝对不要粘贴到AI聊天机器人:
| 类别 | 示例 | 风险 |
|---|---|---|
| 凭证 | 密码、API密钥、令牌 | 账户直接被入侵 |
| 个人信息 | 身份证号、信用卡、医疗记录 | 身份盗窃、合规违规 |
| 公司机密 | 源代码、客户数据、财务数据 | 商业秘密泄露、合规违规 |
| 私人通信 | 需要帮助撰写的邮件、私信 | 隐私侵犯 |
提示中的危险信号:
- 以
sk-、AKIA、ghp_等开头的字符串(可能是API密钥) - 包含
@company.com邮箱域名的内容 - 数据库连接字符串
- 带有个人详情的真实姓名
- 未脱敏的截图
步骤3:分享前脱敏
当您需要AI帮助处理包含敏感信息的代码或文档时:
用占位符替换真实值:
# 不要这样:
api_key = "sk-proj-abc123xyz789"
db_password = "MyR3alP@ssword!"
# 应该这样:
api_key = "YOUR_OPENAI_API_KEY"
db_password = "YOUR_DATABASE_PASSWORD"
匿名化个人信息:
# 不要这样:
"阿里巴巴公司的张伟([email protected])请求..."
# 应该这样:
"X公司的用户A([email protected])请求..."
提问前泛化:
不要问:"为什么我的AWS密钥AKIAIOSFODNN7EXAMPLE不工作?"
应该问:"AWS访问密钥失效的常见原因有哪些?"
步骤4:根据敏感度选择合适的工具
低敏感度(公开信息、通用问题):
- 消费者版AI工具即可
- ChatGPT、Claude、Gemini免费版
- 无需特别预防措施
中等敏感度(内部流程、非机密代码):
- 启用隐私设置
- 使用临时/无痕模式
- 脱敏具体细节
高敏感度(凭证、个人信息、商业秘密):
- 使用带数据处理协议的企业版
- 考虑本地/自托管模型
- 或者根本不用AI处理这类数据
企业AI选项:
| 服务 | 主要保护 | 合规性 |
|---|---|---|
| ChatGPT Enterprise | 不使用数据训练,SOC 2 | GDPR、HIPAA就绪 |
| Claude Enterprise | 可签DPA,不训练 | SOC 2、GDPR |
| Azure OpenAI | 数据保留在您的Azure | 完整企业合规 |
| AWS Bedrock | 您的VPC,您的数据 | 完整企业合规 |
步骤5:正确处理凭证
永远不要通过AI工具或普通即时通讯分享凭证
当您需要与同事分享敏感凭证时:
错误做法:
- 粘贴在微信/钉钉/飞书中(消息会被存储)
- 放在共享文档中(持久访问)
- 通过邮件发送(通常未加密,可搜索)
- 粘贴在AI聊天机器人中(可能用于训练)
正确做法:
- 使用密码管理器的共享功能
- 使用组织的密钥管理工具
- 通过加密、自动销毁的渠道分享
使用安全的过期链接
像LOCK.PUB这样的服务允许您:
- 创建密码保护的备忘录
- 设置过期时间(1小时、24小时等)
- 设置查看后自动销毁
- 通过一个渠道发送链接,通过另一个渠道发送密码
示例工作流程:
- 您需要与新团队成员分享数据库密码
- 创建包含密码的安全备忘录
- 设置1小时后过期,查看后删除
- 通过邮件发送链接,通过其他渠道发送密码
- 查看后凭证无法再次获取
这比把凭证放在邮件、聊天消息或AI提示中安全得多。
步骤6:考虑本地AI模型
对于真正敏感的工作,考虑在本地运行AI模型:
本地AI选项:
Ollama + 开源模型:
- 本地运行Llama、Mistral或其他模型
- 数据完全不离开您的机器
- 适合代码审查、写作辅助
GPT4All:
- 运行本地模型的桌面应用
- 无需互联网
- 适合离线环境
LocalAI:
- OpenAI API兼容的本地服务器
- 可接入现有工作流程
本地模型的权衡:
- 能力不如GPT-4或Claude
- 需要不错的硬件(推荐GPU)
- 无互联网访问 = 无外部知识
- 但是:完全隐私
步骤7:实施团队政策
如果您管理团队,请建立明确的指导方针:
批准的工具和层级:
- 可以使用哪些AI服务
- 哪些数据用哪个层级(免费版 vs 企业版)
- 如何申请例外批准
数据分类:
- 哪些类型的数据可以与AI讨论
- 哪些需要脱敏
- 哪些完全禁止
培训要求:
- 年度AI安全意识培训
- 新风险出现时的更新
- 事件响应程序
审计和监控:
- 尽可能记录AI工具使用情况
- 审查政策合规性
- 从事件中学习
快速参考:AI安全检查清单
在向AI工具发送任何提示之前,问问自己:
- 如果这个提示变成公开的,我会感到舒适吗?
- 我是否已删除所有密码、API密钥和令牌?
- 我是否已匿名化个人信息(姓名、邮箱、ID)?
- 我是否已脱敏不必要的公司特定详情?
- 我是否在使用适合这些数据敏感度的层级?
- 我是否已启用隐私设置(训练退出、临时对话)?
如果无法全部勾选,请停下来脱敏后再继续。
了解更多特定风险
本指南涵盖了一般最佳实践。要深入了解特定威胁,请参阅我们的相关文章:
- AI聊天机器人数据泄露:粘贴敏感信息时会发生什么 — 与ChatGPT、Claude等聊天机器人共享数据的风险
- AI代理安全风险:为什么给AI过多权限很危险 — AI能执行代码和访问文件时的特殊风险
- AI编程助手正在编写不安全的代码 — AI生成代码中的安全漏洞
总结
AI工具非常强大,但需要谨慎使用。从ChatGPT即时获得帮助的便利不值得换来数据泄露、合规违规或凭证泄露。
您的行动项目:
- 今天就配置您使用的所有AI工具的隐私设置
- 建立个人规则:AI提示中不放凭证、不放个人信息、不放机密
- 使用过期加密渠道分享敏感数据
- 培训团队AI安全最佳实践
- 对最敏感的工作考虑使用本地模型
额外的30秒脱敏可以让您免于数月的事件响应。
相关关键词
如何安全使用chatgpt
安全地与ai共享敏感数据
ai隐私最佳实践
保护数据不被ai访问
ai数据脱敏
本地ai模型处理敏感数据