Inteligencia Artificial y LLMs¶
Esta sección cubre el uso de Inteligencia Artificial, específicamente Large Language Models (LLMs), en entornos DevOps e infraestructura.
🤖 ¿Qué encontrarás aquí?¶
- Fundamentos de LLMs: Arquitectura, conceptos básicos y casos de uso en DevOps
- Herramientas locales: Ollama, LM Studio, LLaMA.cpp para ejecutar modelos localmente
- Integración con infraestructura: Despliegue en Kubernetes, storage optimizado, networking
- Metodologías de testing: Benchmarks, evaluación y prompt engineering
- Casos prácticos: Chatbots, análisis de logs, automatización IaC
🚀 Inicio rápido¶
Si eres nuevo en LLMs, comienza con: 1. Introducción a LLMs - Conceptos básicos 2. Ollama: primeros pasos - Tu primera instalación 3. Evaluación de modelos - Cómo medir rendimiento