Este blog no está aquí para explicarte qué es un LLM o qué es Kubernetes. Personalmente creo que ya hay suficiente de eso en todos lados.
Lo que pretendo aquí es hablar sobre la infraestructura real que se necesita en un sistema en producción.
Después de años trabajando con sistemas distribuidos y plataformas cloud en entornos reales, decidí juntar mis notas —muchas de las cuales ya existían en otros sitios— y convertirlas en un repositorio centralizado de conocimiento.
En algún momento escribí sobre MLOps y Software 2.0, porque estaba aprendiendo cómo se integran los modelos en pipelines reales. Ahora, quiero ir más profundo: entender y construir la plataforma tecnológica que soporta todo eso — desde lo más básico hasta lo que nadie quiere tocar cuando el sistema llega a producción.
Me ha tocado montar infra para todo tipo de sistemas: ERPs, Sistemas Cognitivos, Big Data, Microservicios, DevOps, Blockchain, Monolitos, cliente-servidor… y ahora, me llama entender cómo se construye la infraestructura que sostiene la IA generativa.
No esperes fórmulas mágicas. Aquí se habla de:
- Cómo construir entornos que no se caigan cuando el aplicativo lo peta.
- Qué pasa cuando la infraestructura se rompe porque nadie pensó en alta disponibilidad, ni monitoreo, ni rollback.
- Qué hacer cuando te tocar hacer un pase a producción tu solo a 1 am, y no sacaste backup y el sistema no levanta.
- O ejecutaste un Terraform destroy con auto approve y sin target.
- Qué significa realmente poner un sistema en producción cuando hay usuarios reales, datos sensibles y compliance de por medio.
Si ya llevas años y necesitas recordar que no estás solo en este absurdo, también eres bienvenido.
Y si simplemente quieres ver cómo se disecciona una plataforma moderna en lenguaje directo y sin adornos este es tu sitio.
Esto no es un tutorial.
(Aunque tal vez haya posts que sí lo parezcan. Es difícil evitarlo: me gusta explicar con detalle y formar gente).