¿Pegas contratos o códigos en ChatGPT? Spoiler: salen de tu empresa. Cómo usar IA sin romper NDAs, evitar “prompt injection” y blindarte de filtraciones.¿Es seguro usar ChatGPT/Grok/Gemini en la oficina?
En este episodio de Los Dioses de la IA, Alberto Cruz y David Uvalle aterrizan lo que sí y lo que no debes hacer cuando metes datos sensibles en un LLM: contratos, código, estados de cuenta, estrategias… Además, explican prompt injection, data poisoning, uso de VPN, modelos on-prem y buenas prácticas para no volarte un NDA.
Te llevas:
Regla de oro: si pegas algo en un LLM público, sale de tu red (aunque viaje cifrado).
NDAs y compliance: cuándo un tercero (el proveedor de IA) rompe la confidencialidad.
Alternativas seguras: modelos locales (small language models, on-prem) y cuándo valen la pena.
Ataques actuales: prompt injection, documentos con instrucciones ocultas, envenenado de datos.
Higiene digital: updates, antivirus, phishing, y por qué una VPN sí ayuda.
Guía express para empresas: clasifica la info (pública/interna/confidencial/altamente confidencial) y define qué puede o no pasar por IA pública.
Minuto a minuto
00:00 Bienvenida: el tema que nadie piensa… hasta que filtra algo.
02:21 VPN para mortales: para qué sirve de verdad (y qué no).
07:06 ¿Es legal/seguro usar ChatGPT en el trabajo? Depende qué pegas.
08:22 NDAs: si lo subes a un LLM, ya hubo tercero.
10:46 Políticas y contratos: cómo no tropezar.
12:07 Modelos on-prem / locales: privacidad máxima, costes y cuándo aplican.
15:40 “Hackear” LLMs hoy: prompt injection, PDFs maliciosos y cadenas de ataque.
19:27 El eslabón débil: pymes con chatbots sin hardening.
25:57 Páginas con malware: qué puede pasar en 1 clic (y cómo recuperarte).
27:55 Básicos que salvan: parches, antivirus, backups.
29:07 Tip para directivos: catálogo de datos por criticidad y reglas por cada nivel.
30:21 Cierre.
Aplicación inmediata en tu empresa
Define 4 niveles: Pública / Interna / Confidencial / Altamente confidencial.
Pública/Interna: permitir IA pública con guía de redacción (anonimizar, quitar PII).
Confidencial/Alta: solo IA on-prem o revisión humana; prohibido LLM público.
Habilita VPN y SSO/MFA; fuerza actualizaciones y antivirus.
Crea prompts plantilla que anonimicen casos (legal, finanzas, RRHH).
Pruebas de seguridad periódicas: intenta prompt injection a tu propio bot.
Si trabajas con datos, legal, IT, marketing o ventas: este episodio te ahorra un dolor de cabeza (y un susto de compliance).