Saltar a contenido

Inteligencia Artificial y LLMs

Esta sección cubre el uso de Inteligencia Artificial, específicamente Large Language Models (LLMs), en entornos DevOps e infraestructura.

🤖 ¿Qué encontrarás aquí?

  • Fundamentos de LLMs: Arquitectura, conceptos básicos y casos de uso en DevOps
  • Herramientas locales: Ollama, LM Studio, LLaMA.cpp para ejecutar modelos localmente
  • Integración con infraestructura: Despliegue en Kubernetes, storage optimizado, networking
  • Metodologías de testing: Benchmarks, evaluación y prompt engineering
  • Casos prácticos: Chatbots, análisis de logs, automatización IaC

🚀 Inicio rápido

Si eres nuevo en LLMs, comienza con: 1. Introducción a LLMs - Conceptos básicos 2. Ollama: primeros pasos - Tu primera instalación 3. Evaluación de modelos - Cómo medir rendimiento

📚 Contenido principal

Fundamentos

Herramientas

Testing y evaluación

🔗 Enlaces relacionados