Lo que Compartes con la IA No Se Queda en la IA
Voy a contarte algo que me pasó el año pasado. Un conocido me pidió ayuda porque había copiado un contrato confidencial de su empresa en ChatGPT para que le ayudara a revisarlo. Días después, se enteró de que OpenAI usaba las conversaciones para entrenar sus modelos. Pánico total.
Spoiler: en este caso no pasó nada grave. Pero la lección es clara: antes de compartir cualquier dato con una IA, deberías entender exactamente qué pasa con esa información.
La Realidad de los Datos en IA
Diferentes herramientas tienen diferentes políticas. Algunas cosas que debes saber:
ChatGPT (OpenAI):
- Por defecto, puede usar tus conversaciones para entrenar modelos
- Puedes desactivarlo en configuración (pero pierdes historial)
- ChatGPT Enterprise y Team tienen garantías adicionales
Claude (Anthropic):
- No entrena con conversaciones de usuarios
- Política más clara sobre retención de datos
- La versión de pago tiene más garantías
Gemini (Google):
- Integrado con tu cuenta de Google
- Revisa la configuración de actividad de tu cuenta
- Los datos se retienen durante períodos variables
Los 5 Tipos de Datos que NUNCA Deberías Compartir
Me da igual la herramienta que uses. Estos datos NO van a ninguna IA pública:
1. Datos Personales Identificables
- DNI, pasaporte, números de seguridad social
- Direcciones completas
- Números de teléfono de otras personas
- Información médica detallada
2. Información Financiera Sensible
- Números de tarjetas de crédito
- Contraseñas o PINs
- Extractos bancarios completos
- Declaraciones de impuestos
3. Secretos Comerciales
- Código fuente propietario
- Fórmulas o recetas secretas
- Estrategias de negocio confidenciales
- Contratos sin anonimizar
4. Datos de Terceros sin Consentimiento
- Emails de otras personas
- Conversaciones privadas
- Fotos de otros sin permiso
- Información de clientes identificable
5. Credenciales de Acceso
- Contraseñas (obvio, pero pasa)
- API keys
- Tokens de autenticación
- Certificados de seguridad
Configuraciones de Privacidad que Debes Activar
En ChatGPT:
- Ve a Settings → Data Controls
- Desactiva "Chat history & training" si manejas datos sensibles
- Considera usar ChatGPT Enterprise si es para trabajo
En Claude:
- Revisa los términos de uso
- Usa la versión de pago para proyectos sensibles
- No compartas en conversaciones públicas o compartidas
En Gemini:
- Ve a myactivity.google.com
- Configura la retención de datos
- Desactiva el historial si es necesario
Técnicas de Anonimización
Si necesitas analizar datos sensibles, anonimízalos primero:
Para personas:
- María García → Persona A o Usuario_001
- 123-456-789 → XXX-XXX-XXX
- Madrid, Calle Gran Vía 15 → [Ciudad], [Dirección]
Para empresas:
- Empresa S.L. → Empresa Cliente o Cliente_Alpha
- Cifras exactas → rangos ("entre 1-5 millones")
- Nombres de productos → Producto A, Servicio B
Ejemplo práctico:
En lugar de: "El contrato con Telefónica por 500.000€ tiene una cláusula problemática en la sección 3.2..."
Escribe: "Tengo un contrato con un cliente grande del sector telecomunicaciones por una cantidad significativa (6 cifras). Hay una cláusula en la sección sobre responsabilidades que dice [copiar solo el texto genérico, no cifras ni nombres]..."
Herramientas de IA Más Seguras
Si la privacidad es crítica para ti:
Opciones locales (los datos no salen de tu ordenador):
- LM Studio con modelos locales
- Ollama para ejecutar Llama localmente
- GPT4All para uso offline
Opciones empresariales con garantías:
- Azure OpenAI Service
- AWS Bedrock
- Google Cloud AI Platform
- ChatGPT Enterprise / Team
Opciones con políticas claras:
- Claude (Anthropic tiene buenas políticas)
- Perplexity Pro (no entrena con tus datos)
Mi Protocolo Personal de Seguridad
Esto es lo que hago antes de compartir algo con cualquier IA:
- Pregunta 1: ¿Me importaría si esto se hiciera público?
- Pregunta 2: ¿Hay datos de terceros que debería anonimizar?
- Pregunta 3: ¿Estoy usando la configuración correcta?
- Pregunta 4: ¿Existe una forma de hacer esto sin compartir datos sensibles?
Si las respuestas no me convencen, busco alternativas.
El Futuro de la Privacidad en IA
Las cosas están cambiando:
- Europa está implementando regulaciones más estrictas
- Las empresas ofrecen cada vez más opciones de privacidad
- Los modelos locales son cada vez más capaces
- La "IA confidencial" es un campo en crecimiento
Mi predicción: en 2-3 años, habrá estándares claros y certificaciones de privacidad para herramientas de IA.
Lista de Verificación Rápida
Antes de tu próxima conversación con una IA:
Si marcas todas las casillas, adelante. Si no, piénsatelo dos veces.
Recuerda: la comodidad no vale más que la privacidad. Ni la tuya, ni la de otros.