
🥷 Apúntate aquí a la membresía ninja 🥷
Accede a todo el contenido para convertirte en un ninja de los datos:
⚡️ Podcast premium
🛠️ Tutoriales
📚 Resúmenes de libros top
👥 Comunidad ninja
En el episodio de hoy descubrimos cómo LinkedIn actualiza sus modelos de IA cada hora sin morir en el intento.
Spoiler: entrenar un modelo una vez está bien... pero mantenerlo actualizado 24/7 con millones de usuarios es el verdadero reto.
✅ Por qué el entrenamiento tradicional "cold start" no funciona a escala (es caro, lento y frágil).
✅ Qué es el entrenamiento incremental y cómo LinkedIn ahorra 9 veces en costes.
✅ El desafío de generar datos en tiempo real con Apache Flink y Kafka.
✅ Cómo manejar 30,000-35,000 eventos por segundo con menos de 5ms de latencia.
✅ Por qué los grafos estáticos de TensorFlow/PyTorch son clave en producción.
✅ La importancia de los checkpoints y la tolerancia a fallos.
✅ Resultados reales: +2% en aplicaciones cualificadas, +4% en clicks de anuncios...
Y mucho más💥
Después de este episodio entenderás por qué llevar Machine Learning a producción es MUY diferente a entrenar en un notebook de Jupyter.
📰 Suscríbete a la newsletter donde profundizaré en las herramientas concretas que usa LinkedIn: https://datos.kit.com/roadmap
Episodios anteriores relacionados:
⭕️ Episodio 94. Buenas prácticas para científicos de datos
⭕️ Episodio 80. Machine Learning 101
⭕️ Episodio 83. Una neurona
Recuerda que si tienes cualquier duda, pregunta o comentario puedes contactar conmigo a través del formulario de contacto o en Linkedin.
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/105-linkedin-y-el-entrenamiento-incremental-ml