Hub API OpenAI-compatible (Cursor, scripts, agentes)

No es “ilimitado”: cada proveedor cobra o tiene cuota. El hub solo unifica el acceso. Gratis real = Ollama en MSI + cupos free de Gemini/Groq según cuenta.

Base URL pública (HTTPS): https://vps.cescac.com/omega-litellm/v1 — para Cursor como API OpenAI-compatible. API key = LITELLM_MASTER_KEY del .env del stack (no pegar en chats públicos).

Internamente el contenedor escucha en 127.0.0.1:4000. GET /health responde 401 sin Authorization: Bearer … — es normal.

Qué levantamos en el VPS

Servicio opcional LiteLLM (perfil Docker litellm) en 127.0.0.1:4000. Archivos:

Arranque (root en el directorio del compose):

cd /home/admin/web/admin-docs/ops/omega-webui
docker-compose --profile litellm up -d

Configurar Cursor

  1. Rellená al menos OPENROUTER_API_KEY o OPENAI_API_KEY en el .env del servidor (y LITELLM_MASTER_KEY con un secreto largo que inventes).
  2. Exponé :4000 solo de forma segura (VPN, Tailscale, o nginx con IP fija + HTTPS). No abras 4000 a todo internet sin auth.
  3. En Cursor: Override OpenAI Base URL (según versión) → https://TU_DOMINIO_SEGURO/v1 o túnel.
  4. API Key → el mismo LITELLM_MASTER_KEY.
  5. Modelo recomendado: cescac-orquestador (alias principal del equipo). Alternativas: groq-fast o deepseek-chat.
  6. Importante: en Cursor, Composer / Agent Premium puede ignorar custom keys. Para tu API propia usá modo/proveedor OpenAI-compatible con Base URL + API key personalizada.
  7. ERROR_PROVIDER_ERROR / “resource not found”: el modelo que Cursor envía no existe en LiteLLM. Agregá en Cursor un modelo con nombre exacto cescac-orquestador o gpt-4o / gpt-4o-mini (alias en el servidor). Si el error sigue en Agent, probá Chat con ese modelo.

Alternativa sin LiteLLM: OpenRouter directo en Cursor.

Solicitar desarrollo

omega-solicitud-desarrollo.php — pedidos a la cola OMEGA. Opcional: archivo .omega-data/dev-ingest.token (una línea) para exigir ?token=.

← Centro unificado · Matriz proveedores