Base URL pública (HTTPS): https://vps.cescac.com/omega-litellm/v1 — para Cursor como API OpenAI-compatible. API key = LITELLM_MASTER_KEY del .env del stack (no pegar en chats públicos).
Internamente el contenedor escucha en 127.0.0.1:4000. GET /health responde 401 sin Authorization: Bearer … — es normal.
Servicio opcional LiteLLM (perfil Docker litellm) en 127.0.0.1:4000. Archivos:
/home/admin/web/admin-docs/ops/omega-webui/docker-compose.yml (perfil litellm)litellm_config.yaml — modelos y keys desde .envArranque (root en el directorio del compose):
cd /home/admin/web/admin-docs/ops/omega-webui docker-compose --profile litellm up -d
OPENROUTER_API_KEY o OPENAI_API_KEY en el .env del servidor (y LITELLM_MASTER_KEY con un secreto largo que inventes).:4000 solo de forma segura (VPN, Tailscale, o nginx con IP fija + HTTPS). No abras 4000 a todo internet sin auth.https://TU_DOMINIO_SEGURO/v1 o túnel.LITELLM_MASTER_KEY.cescac-orquestador (alias principal del equipo). Alternativas: groq-fast o deepseek-chat.Composer / Agent Premium puede ignorar custom keys. Para tu API propia usá modo/proveedor OpenAI-compatible con Base URL + API key personalizada.cescac-orquestador o gpt-4o / gpt-4o-mini (alias en el servidor). Si el error sigue en Agent, probá Chat con ese modelo.Alternativa sin LiteLLM: OpenRouter directo en Cursor.
omega-solicitud-desarrollo.php — pedidos a la cola OMEGA. Opcional: archivo .omega-data/dev-ingest.token (una línea) para exigir ?token=.