Estado: Aceptado
Fecha: 2025-12-01
Se necesita seleccionar el proveedor y modelo LLM para generación de respuestas. Requisitos:
Usar HuggingFace Inference API con modelos Mistral/Llama como backend principal.
Modelo por defecto: mistralai/Mixtral-8x7B-Instruct-v0.1
┌─────────────────┐
│ LLMPort │ ← Interfaz abstracta
└────────┬────────┘
│
┌────┴────┐
│ │
┌───┴───┐ ┌───┴───┐
│ HF │ │ Fake │
│ LLM │ │ LLM │
└───────┘ └───────┘
| Alternativa | Pros | Contras |
|---|---|---|
| OpenAI GPT-4 | Mejor calidad | Alto costo, rate limits |
| Claude | Buena calidad | Menos streaming |
| HuggingFace | Gratis tier, open models | Menor calidad que GPT-4 |
| Local (llama.cpp) | Sin costo | Requiere GPU potente |