Back to blog
Security
8 min

Como Usar Ferramentas de IA com Segurança: Guia Prático para Proteger Seus Dados

Guia passo a passo para usar ChatGPT, Claude, Copilot e outras ferramentas de IA sem comprometer seus dados sensíveis. Configurações de privacidade, melhores práticas e alternativas.

LOCK.PUB

Como Usar Ferramentas de IA com Segurança: Guia Prático para Proteger Seus Dados

Ferramentas de IA como ChatGPT, Claude e GitHub Copilot se tornaram essenciais para produtividade. Mas toda vez que você interage com essas ferramentas, está potencialmente compartilhando dados com seus servidores — dados que podem ser armazenados, usados para treinamento ou até expostos em uma violação de segurança.

Este guia fornece passos práticos e acionáveis para usar ferramentas de IA enquanto protege suas informações sensíveis.

A Regra de Ouro: Assuma que tudo é público

Antes de mergulharmos em configurações e ferramentas específicas, internalize este princípio:

Trate cada prompt que você envia para uma ferramenta de IA como se pudesse se tornar público.

Isso significa:

  • Pode ser lido por funcionários da empresa de IA
  • Pode aparecer em uma violação de dados
  • Pode influenciar respostas para outros usuários
  • Pode ser intimado em processos judiciais

Se você não publicaria publicamente, não cole em um chatbot.

Passo 1: Configure as configurações de privacidade

ChatGPT (OpenAI)

Desabilite treinamento em seus dados:

  1. Vá para Settings → Data Controls
  2. Desligue "Improve the model for everyone"
  3. Suas conversas não serão mais usadas para treinar modelos futuros

Use Chats Temporários:

  • Clique no botão "Temporary Chat" antes de conversas sensíveis
  • Esses chats não são salvos em seu histórico e não são usados para treinamento

API vs. Consumer:

  • OpenAI não treina em uso de API por padrão
  • Considere usar a API diretamente para aplicações sensíveis

Claude (Anthropic)

Planos pagos:

  • Conversas Claude Pro/Team/Enterprise NÃO são usadas para treinamento por padrão
  • Revise a política de uso de dados da Anthropic para seu plano específico

Free tier:

  • Conversas podem ser usadas para treinamento
  • Use recursos temporários do Claude quando disponíveis

Google Gemini

Desative o salvamento de atividades:

  1. Vá para Gemini Apps Activity
  2. Desligue o salvamento de atividades
  3. Configure a exclusão automática para o período mais curto

Microsoft Copilot

Usuários Enterprise:

  • Copilot for Microsoft 365 tem proteções de dados mais fortes
  • Consumer Copilot tem políticas de dados mais permissivas
  • Use a instância Copilot da sua organização para dados de trabalho

Passo 2: Entenda o que NÃO compartilhar

Nunca cole em chatbots de IA:

Categoria Exemplos Risco
Credenciais Senhas, chaves API, tokens Comprometimento direto da conta
Info pessoal CPF, cartões de crédito, registros médicos Roubo de identidade, violação LGPD
Segredos da empresa Código-fonte, dados de clientes, financeiro Perda de segredo comercial, violação de conformidade
Comunicações privadas E-mails, mensagens do WhatsApp Violação de privacidade

Sinais de alerta em seus prompts:

  • Qualquer string que comece com sk-, AKIA, ghp_, etc. (provavelmente chaves API)
  • Qualquer coisa com domínios de e-mail @company.com
  • Strings de conexão de banco de dados
  • Nomes reais com detalhes pessoais
  • Screenshots não editados

Passo 3: Oculte antes de compartilhar

Quando você precisa de ajuda de IA com código ou documentos contendo informações sensíveis:

Substitua valores reais por placeholders:

# Em vez de:
api_key = "sk-proj-abc123xyz789"
db_password = "MyR3alP@ssword!"

# Use:
api_key = "YOUR_OPENAI_API_KEY"
db_password = "YOUR_DATABASE_PASSWORD"

Anonimize informações pessoais:

# Em vez de:
"João Silva da Acme Corp ([email protected]) solicitou..."

# Use:
"Usuário A da Empresa X ([email protected]) solicitou..."

Generalize antes de perguntar:

Em vez de: "Por que minha chave AWS AKIAIOSFODNN7EXAMPLE não está funcionando?"

Pergunte: "Quais são as razões comuns para uma chave de acesso AWS parar de funcionar?"

Passo 4: Escolha a ferramenta certa para o nível de sensibilidade

Baixa sensibilidade (info pública, perguntas gerais):

  • Ferramentas de IA de consumo estão ok
  • ChatGPT, Claude, Gemini free tier
  • Não são necessárias precauções especiais

Média sensibilidade (processos internos, código não secreto):

  • Habilite configurações de privacidade
  • Use modos temporários/incógnito
  • Oculte detalhes específicos

Alta sensibilidade (credenciais, PII, segredos comerciais):

  • Use tiers Enterprise com DPAs
  • Considere modelos locais/auto-hospedados
  • Ou não use IA para esses dados

Opções de IA Enterprise:

Serviço Proteção chave Conformidade
ChatGPT Enterprise Sem treinamento em dados, SOC 2 GDPR, HIPAA-ready
Claude Enterprise DPA disponível, sem treinamento SOC 2, GDPR
Azure OpenAI Dados ficam no seu Azure Conformidade enterprise completa
AWS Bedrock Seu VPC, seus dados Conformidade enterprise completa

Passo 5: Lide com credenciais adequadamente

Nunca compartilhe credenciais através de ferramentas de IA ou mensagens regulares

Quando você precisa compartilhar credenciais sensíveis com colegas:

Práticas ruins:

  • Colar no WhatsApp/Telegram (mensagens são armazenadas)
  • Colocar em documentos compartilhados (acesso permanente)
  • Enviar por e-mail (frequentemente não criptografado, pesquisável)
  • Colar em chatbots de IA (potencialmente usado para treinamento)

Práticas melhores:

  • Use o recurso de compartilhamento do gerenciador de senhas
  • Use a ferramenta de gerenciamento de segredos da sua organização
  • Compartilhe através de canais criptografados e autodestrutivos

Usando links seguros e com prazo de validade

Serviços como LOCK.PUB permitem que você:

  1. Crie uma nota protegida por senha
  2. Defina um tempo de expiração (1 hora, 24 horas, etc.)
  3. Faça-a se autodestruir após ser vista uma vez
  4. Compartilhe o link por um canal e a senha por outro

Exemplo de fluxo de trabalho:

  • Você precisa compartilhar uma senha de banco de dados com um novo membro da equipe
  • Crie uma nota segura com a senha
  • Configure para expirar em 1 hora e excluir após visualização
  • Envie o link por e-mail, a senha por outro canal
  • A credencial não pode ser recuperada novamente depois que eles a visualizarem

Isso é infinitamente mais seguro do que colocar a credencial em um e-mail, mensagem de chat ou prompt de IA.

Passo 6: Considere modelos de IA locais

Para trabalho verdadeiramente sensível, considere executar modelos de IA localmente:

Opções para IA local:

Ollama + Modelos Open Source:

  • Execute Llama, Mistral ou outros modelos localmente
  • Zero dados saem da sua máquina
  • Bom para revisão de código, assistência de escrita

GPT4All:

  • Aplicativo desktop para executar modelos locais
  • Não requer internet
  • Adequado para ambientes offline

LocalAI:

  • Servidor local compatível com OpenAI API
  • Pode ser integrado em fluxos de trabalho existentes

Trade-offs de modelos locais:

  • Menos capazes que GPT-4 ou Claude
  • Requer hardware decente (GPU recomendado)
  • Sem acesso à internet = sem conhecimento externo
  • Mas: privacidade completa

Passo 7: Implemente políticas de equipe

Se você gerencia uma equipe, estabeleça diretrizes claras:

Ferramentas e tiers aprovados:

  • Quais serviços de IA podem ser usados
  • Qual tier (grátis vs. enterprise) para quais dados
  • Como obter aprovação de exceções

Classificação de dados:

  • Quais tipos de dados podem ser discutidos com IA
  • O que requer ocultação
  • O que é completamente proibido

Requisitos de treinamento:

  • Treinamento anual de conscientização de segurança de IA
  • Atualizações quando novos riscos surgirem
  • Procedimentos de resposta a incidentes

Auditoria e monitoramento:

  • Registre o uso de ferramentas de IA quando possível
  • Revise a conformidade da política
  • Aprenda com incidentes

Referência rápida: Checklist de segurança de IA

Antes de enviar qualquer prompt para uma ferramenta de IA, pergunte-se:

  • Eu ficaria confortável se este prompt se tornasse público?
  • Removi todas as senhas, chaves API e tokens?
  • Anonimizei informações pessoais (nomes, e-mails, IDs)?
  • Ocultei detalhes específicos da empresa que não são necessários?
  • Estou usando o tier apropriado para a sensibilidade desses dados?
  • Habilitei configurações de privacidade (opt-out de treinamento, chat temporário)?

Se você não puder marcar todas as caixas, pare e oculte antes de prosseguir.

Saiba mais sobre riscos específicos

Este guia cobriu melhores práticas gerais. Para mergulhos mais profundos em ameaças específicas, veja nossos posts relacionados:

Conclusão

Ferramentas de IA são incrivelmente poderosas, mas exigem uso cuidadoso. A conveniência de obter ajuda instantânea do ChatGPT não vale uma violação de dados, uma violação de conformidade ou credenciais vazadas.

Seus itens de ação:

  1. Configure configurações de privacidade em todas as ferramentas de IA que você usa hoje
  2. Estabeleça uma regra pessoal: sem credenciais, sem PII, sem segredos em prompts de IA
  3. Use canais criptografados e com prazo de validade para compartilhar dados sensíveis
  4. Treine sua equipe nas melhores práticas de segurança de IA
  5. Considere modelos locais para o trabalho mais sensível

Os 30 segundos extras de ocultação podem te salvar de meses de resposta a incidentes.

Crie uma nota segura com prazo de validade →

Keywords

usar chatgpt com segurança
compartilhar dados sensíveis com ia
privacidade ia melhores práticas
proteger dados da ia
ocultar dados sensíveis para ia
modelos ia locais

Create your password-protected link now

Create password-protected links, secret memos, and encrypted chats for free.

Get Started Free
Como Usar Ferramentas de IA com Segurança: Guia Prático para Proteger Seus Dados | LOCK.PUB Blog