UNPKG

node-red-contrib-knx-ultimate

Version:

Control your KNX and KNX Secure intallation via Node-Red! A bunch of KNX nodes, with integrated Philips HUE control, ETS group address importer, and KNX routing between interfaces. Easy to use and highly configurable.

82 lines (70 loc) 4.33 kB
<script type="text/markdown" data-help-name="knxUltimateAI"> Este nodo escucha **todos los telegramas KNX** del gateway KNX Ultimate seleccionado, genera estadísticas de tráfico, detecta anomalías y puede consultar opcionalmente un LLM. ## Salidas 1. **Resumen/Estadísticas** (`msg.payload` JSON) 2. **Anomalías** (`msg.payload` JSON) 3. **Asistente IA** (`msg.payload` texto, con `msg.summary`) ## Comandos (entrada) Envía `msg.topic`: - `summary` (o vacío): emite el resumen inmediatamente - `reset`: limpia historial y contadores internos - `ask`: envía una pregunta al LLM configurado Para `ask`, envía la pregunta en `msg.prompt` (recomendado) o `msg.payload` (string). ## Campos de configuración Aquí tienes todos los campos tal como se muestran en el editor de KNX AI. ### General - **Gateway**: gateway/config node KNX Ultimate usado como fuente de telegramas. - **Name**: nombre del nodo y título del dashboard. - **Topic**: topic base usado en las salidas del nodo. - Botón **Open KNX AI Web**: abre el dashboard web (`/knxUltimateAI/sidebar/page`). ### Capture - **Capture GroupValue_Write**: captura telegramas Write. - **Capture GroupValue_Response**: captura telegramas Response. - **Capture GroupValue_Read**: captura telegramas Read. ### Analysis - **Analysis window (seconds)**: ventana principal para resumen/rate. - **History window (seconds)**: ventana de retención del historial interno. - **Max stored events**: número máximo de telegramas en memoria. - **Auto emit summary (seconds, 0=off)**: intervalo periódico de resumen. - **Top list size**: cantidad de group addresses/fuentes en el top. - **Detect simple patterns (A -> B)**: habilita detección de transiciones/patrones. - **Pattern max lag (ms)**: diferencia temporal máxima para correlación. - **Pattern min occurrences**: ocurrencias mínimas antes de reportar patrón. ### Anomalies - **Rate window (seconds)**: ventana deslizante para controles de rate. - **Max overall telegrams/sec (0=off)**: umbral en el bus global. - **Max telegrams/sec per GA (0=off)**: umbral por group address. - **Flap window (seconds)**: ventana para detectar flapping/cambios rápidos. - **Max changes per GA in window (0=off)**: cambios máximos permitidos en ventana. ### LLM Assistant - La pestaña **LLM Assistant** ahora aparece primero en el editor para facilitar la configuración. - **Enable LLM assistant**: habilita funciones Ask/chat. - **Provider**: backend LLM (OpenAI-compatible u Ollama). - **Endpoint URL**: URL endpoint chat/completions. - **API key**: clave API (no requerida con Ollama local). - **Model**: ID/nombre de modelo. - **System prompt**: instrucción global para análisis KNX. - **Temperature**: temperatura de muestreo. - **Max tokens**: máximo de tokens de completado. - **Timeout (ms)**: timeout HTTP de peticiones LLM. - **Recent events included**: máximo de eventos recientes en el prompt. - **Include raw payload hex**: incluye payload hex raw en el prompt. - **Include Node-RED KNX node inventory**: incluye inventario de flows en el prompt. - **Max flow nodes included**: límite de nodos flow incluidos. - **Include documentation snippets (help/README/examples)**: incluye contexto de documentación. - **Docs language**: idioma preferido de snippets documentación. - **Max docs snippets**: máximo de snippets de documentación. - **Max docs chars**: máximo total de caracteres de documentación. - Botón **Refresh**: consulta el provider y carga modelos disponibles. ### Configuración rápida de Ollama (local) - Selecciona **Provider = Ollama**. - Endpoint por defecto: `http://localhost:11434/api/chat`. - Si no hay modelos locales: - **1) Download model**: abre la página **Model library**. - **2) Install it**: descarga e instala el modelo localmente (p. ej. `llama3.1`). - Durante refresh/instalación, KNX AI también intenta iniciar automáticamente el servidor Ollama. - Si la instalación falla con error de conexión, verifica que Ollama esté ejecutándose (app de escritorio o `ollama serve`). - Si Node-RED se ejecuta en Docker, usa `host.docker.internal` en lugar de `localhost` en el endpoint. ## Nota de seguridad Si el LLM está habilitado, el contexto de tráfico KNX puede enviarse al endpoint configurado. Para privacidad on-premise, usa proveedores locales. </script>