Volver al blog
Security
6 min

Filtraciones de datos en chatbots IA: Qué pasa cuando pegas información sensible en ChatGPT

¿Es seguro ChatGPT para datos sensibles? Conoce los riesgos reales de privacidad de los chatbots IA, filtraciones recientes y cómo proteger tu información confidencial.

LOCK.PUB

Filtraciones de datos en chatbots IA: Qué pasa cuando pegas información sensible en ChatGPT

En febrero de 2026, investigadores de seguridad descubrieron que Chat & Ask AI, una popular aplicación de chatbot, había expuesto 300 millones de registros de conversaciones. Los datos filtrados incluían historiales de chat completos, algunos conteniendo contraseñas, claves API e información médica privada que los usuarios habían pegado en el chatbot.

Este no fue un incidente aislado. Filtraciones anteriores expusieron 3,7 millones de registros de chatbots de servicio al cliente. Un estudio de 2025 encontró que el 77% de los empleados admite haber compartido secretos de la empresa con ChatGPT. Se descubrió que Microsoft Copilot expone un promedio de 3 millones de registros sensibles por organización.

La incómoda verdad: cada prompt que envías a un chatbot IA debe tratarse como si pudiera hacerse público.

El problema de privacidad con los chatbots IA

Tus conversaciones se almacenan

Cuando envías un mensaje a ChatGPT, Claude, Gemini o cualquier otro chatbot IA:

  1. Tu prompt se transmite a los servidores de la empresa
  2. Se almacena en su base de datos (a menos que hayas optado por no hacerlo)
  3. Puede usarse para entrenar futuros modelos de IA
  4. Puede ser revisado por humanos por seguridad y calidad

Incluso las conversaciones "eliminadas" pueden persistir en copias de seguridad, registros o conjuntos de datos de entrenamiento.

El problema de los datos de entrenamiento

Las seis principales empresas de IA (OpenAI, Anthropic, Google, Meta, Microsoft, Mistral) usan las conversaciones de usuarios para entrenar sus modelos por defecto. Esto significa:

  • Tus prompts se convierten en parte del conocimiento de la IA
  • La información que compartes podría teóricamente resurgir en respuestas a otros usuarios
  • Los datos sensibles en conjuntos de entrenamiento son un vector para ataques de extracción de datos

OpenAI ha declarado que no entrenan con el uso de la API o datos de ChatGPT Enterprise, pero el nivel gratuito y ChatGPT Plus estándar son utilizables a menos que optes explícitamente por no hacerlo.

Filtraciones y exposiciones recientes

2026:

  • Chat & Ask AI: 300 millones de conversaciones filtradas (Malwarebytes, febrero 2026)
  • Plataforma de servicio al cliente IA: 3,7 millones de registros expuestos (Cybernews)

2025:

  • Empleados de Samsung filtraron diseños de chips vía ChatGPT (provocando prohibición en toda la empresa)
  • Microsoft Copilot expuso 3 millones de registros sensibles por organización (promedio)
  • Investigación de Stanford documentó riesgos de privacidad en conversaciones con asistentes IA

En curso:

  • Ataques de inyección de prompts pueden extraer historial de conversaciones
  • Ataques de inversión de modelo intentan reconstruir datos de entrenamiento
  • Los jailbreaks pueden eludir filtros de contenido y revelar prompts del sistema

Lo que nunca debes pegar en un chatbot IA

Contraseñas y credenciales

"¿Puedes ayudarme a restablecer esta contraseña: MyP@ssw0rd123?"

Incluso si solo preguntas cómo crear una contraseña más fuerte, acabas de enviar tu contraseña actual al servidor de un tercero.

Claves API y tokens

"¿Por qué no funciona esto? OPENAI_API_KEY=sk-proj-abc123..."

Los desarrolladores frecuentemente pegan fragmentos de código que contienen claves API. Esas claves ahora están almacenadas en los sistemas del proveedor del chatbot y potencialmente en datos de entrenamiento.

Información de identificación personal (PII)

  • Números de seguridad social / DNI
  • Números de tarjetas de crédito
  • Datos de cuentas bancarias
  • Registros médicos
  • Documentos legales
  • Documentos de identidad

Datos confidenciales de la empresa

  • Código fuente
  • Bases de datos de clientes
  • Informes financieros
  • Planes estratégicos
  • Información de empleados
  • Secretos comerciales

Comunicaciones privadas

  • Mensajes privados para los que pides ayuda para redactar respuestas
  • Hilos de correo que contienen información sensible
  • Capturas de pantalla de conversaciones

Cómo usar los chatbots IA de forma más segura

1. Ajusta tu configuración de privacidad

ChatGPT:

  • Ve a Configuración → Controles de datos
  • Desactiva "Mejorar el modelo para todos"
  • Usa Chats temporales (no se usan para entrenamiento)

Claude:

  • Las conversaciones no se usan para entrenamiento por defecto en planes de pago
  • Revisa la política de uso de datos de Anthropic

Gemini:

  • Ve a Actividad de aplicaciones de Gemini
  • Desactiva guardar actividad

2. Usa niveles Enterprise/Business

Si tu empresa maneja datos sensibles, considera:

  • ChatGPT Enterprise: Los datos no se usan para entrenamiento, compatible con SOC 2
  • Claude for Enterprise: Acuerdos de protección de datos más fuertes
  • Azure OpenAI Service: Los datos permanecen en tu entorno Azure

Estos planes típicamente incluyen Adendas de Procesamiento de Datos (DPA) requeridas para cumplimiento GDPR y HIPAA.

3. Redacta antes de pegar

Antes de compartir código o documentos con una IA:

  • Reemplaza claves API reales con marcadores: YOUR_API_KEY_HERE
  • Reemplaza nombres con identificadores genéricos: "Usuario A", "Empresa X"
  • Elimina o enmascara números de cuenta, DNI, etc.

4. Asume público por defecto

Adopta este modelo mental: cada prompt que envías a un chatbot IA podría teóricamente:

  • Ser leído por empleados de la empresa
  • Aparecer en una filtración de datos
  • Influir en respuestas a otros usuarios
  • Ser citado en procedimientos legales

Si no lo publicarías públicamente, no lo pegues en un chatbot.

La alternativa segura para datos sensibles

Cuando necesites compartir información sensible —contraseñas, claves API, documentos confidenciales— no confíes en chatbots IA ni siquiera en aplicaciones de mensajería regulares.

Usa un método de compartición seguro dedicado:

  1. Almacena datos sensibles por separado: Usa un gestor de contraseñas para credenciales, no tu historial de chat
  2. Comparte vía enlaces cifrados que expiran: Servicios como LOCK.PUB te permiten crear notas protegidas por contraseña que se auto-eliminan después de verse
  3. Mantén los prompts de IA genéricos: Pregunta "¿cómo roto las claves API?" no "¿por qué no funciona esta clave: sk-..."

Flujo de trabajo ejemplo:

  • Necesitas compartir una contraseña de base de datos con un colega
  • En lugar de pegarla en WhatsApp (que almacena mensajes) o ChatGPT (que puede entrenar con ello), crea una nota segura en LOCK.PUB
  • La nota requiere contraseña, expira después de 24 horas y se autodestruye después de leerse
  • Comparte el enlace por un canal y la contraseña por otro

Conclusión

Los chatbots IA son herramientas increíblemente útiles, pero no son cajas fuertes seguras. Trátalos como tratarías a un extraño servicial: genial para consejos generales, pero no alguien a quien le darías las llaves de tu casa.

Reglas para vivir:

  1. Nunca pegues contraseñas, claves API o credenciales
  2. Nunca compartas PII (seguridad social, tarjetas de crédito, info médica)
  3. Redacta detalles sensibles antes de pedir ayuda con código
  4. Usa niveles enterprise si tu trabajo requiere asistencia IA con datos confidenciales
  5. Habilita configuraciones de privacidad que deshabiliten el entrenamiento con tus datos
  6. Para compartir verdaderamente sensible, usa herramientas cifradas específicas

La conveniencia de la IA no vale el riesgo de una filtración de datos. Da el paso extra para proteger tu información sensible.

Crear una nota segura que expira →

Palabras clave

chatgpt datos sensibles seguro
ia filtración datos
chatgpt privacidad
pegar contraseña chatgpt
chatbot ia riesgos seguridad
chatgpt almacena datos

Crea tu enlace protegido con contraseña ahora

Crea enlaces protegidos, notas secretas y chats cifrados de forma gratuita.

Comenzar Gratis
Filtraciones de datos en chatbots IA: Qué pasa cuando pegas información sensible en ChatGPT | LOCK.PUB Blog