
El tráfico impredecible es la pesadilla de todo negocio online, provocando errores 408 y 429 y servidores KO. Pero, ¿y si te dijéramos que puedes escalar tu aplicación a lo bestia, solo cuando lo necesites, y sin desperdiciar dinero en recursos ociosos cuando no hay tráfico? En este vídeo, hablamos con Jorge Turrado (Principal SRE en Lidl, con más de 110 millones de usuarios, y Mantenedor principal de KEDA) para desvelar la herramienta clave para el autoescalado inteligente en el ecosistema Cloud Native con Kubernetes (k8s): KEDA (Kubernetes Event-driven Autoscaling). Descubre por qué el escalado tradicional por CPU es demasiado lento y reactivo para las cargas asíncronas. Analizamos cómo KEDA extiende las capacidades del HPA (Horizontal Pod Autoscaler) de Kubernetes para que puedas escalar de manera ★PROACTIVA★ basándote en eventos, colas de mensajes (Kafka, Service Bus), bases de datos o muchos otros eventos externos.
Aprenderás:
- Qué es Kubernetes y por qué su sistema de autoescalado por CPU y memoria y no es suficiente.
- Qué es KEDA y por qué se ha convertido en el estándar de facto para el escalado en Kubernetes.
- Cómo funciona el autoescalado basado en eventos (no solo CPU o RAM).
- Qué es el "Scale to Zero" y cuando puede usarse para optimizar drásticamente los costes en la nube y garantizar la resiliencia de tus aplicaciones.
- El impacto real en los costes de la nube al optimizar el uso de tus pods.
- Consejos y trucos internos de un mantenedor de KEDA para no caer en errores comunes.
- Además, compartimos buenas prácticas de desarrollo que todo programador debe aplicar para que su código funcione correctamente en entornos efímeros y de alta escalabilidad .
Si eres desarrollador, DevOps, SRE o responsable de IT, en este vídeo te interesa.
¿Qué te parece? ¡Cuéntanos en los comentarios tu peor historia de caída de servidor!
👇 RECURSOS Y ENLACES MENCIONADOS:
- ¿Qué diferencia hay entre Docker (Contenedores) y Máquinas virtuales?: https://www.campusmvp.es/recursos/post/que-diferencia-hay-entre-docker-contenedores-y-maquinas-virtuales.aspx
- El caso de Amazon migrando a un monolito (el original ha desaparecido pero apuntamos a Web Archive: Scaling up the Prime Video audio/video monitoring service and reducing costs by 90%: https://web.archive.org/web/20240719152109/https://www.primevideotech.com/video-streaming/scaling-up-the-prime-video-audio-video-monitoring-service-and-reducing-costs-by-90
SECCIONES DE LA CONVERSACIÓN:
00:00:00 Introducción: El problema de la escalabilidad y el autoescalado
00:00:58 Presentación de Jorge Turrado, SRE y mantenedor de KEDA
00:01:43 Definición de SRE y la escala de Lidl International Hub
00:05:07 ¿Qué es la Cloud Native Computing Foundation (CNCF)?
00:07:45 Kubernetes: el orquestador que le falta a Docker
00:17:27 Los dos tipos de autoescalado nativo de Kubernetes (HPA y Cluster Autoscaler)
00:24:56 El problema de escalar solo por CPU en aplicaciones asíncronas: KEDA
00:37:23 KEDA: la optimización de costes con el escalado a cero (Scale to Zero)
00:41:47 Buenas prácticas de desarrollo para entornos autoescalados
00:48:45 Arquitecturas: ¿Monolitos o Microservicios para empezar?
00:57:19 Habilidades críticas (técnicas y blandas) para un desarrollador en la nube
01:02:21 El futuro del autoescalado predictivo y la IA
01:05:14 Conclusiones y despedida