node-red-contrib-knx-ultimate
Version:
Control your KNX and KNX Secure intallation via Node-Red! A bunch of KNX nodes, with integrated Philips HUE control, ETS group address importer, and KNX routing between interfaces. Easy to use and highly configurable.
82 lines (70 loc) • 4.24 kB
HTML
<script type="text/markdown" data-help-name="knxUltimateAI">
Dieser Node überwacht **alle KNX-Telegramme** des ausgewählten KNX-Ultimate-Gateways, erstellt Verkehrsstatistiken, erkennt Anomalien und kann optional ein LLM befragen.
## Ausgänge
1. **Zusammenfassung/Statistik** (`msg.payload` JSON)
2. **Anomalien** (`msg.payload` JSON)
3. **KI-Assistent** (`msg.payload` Text, mit `msg.summary`)
## Befehle (Eingang)
Sende `msg.topic`:
- `summary` (oder leer): Summary sofort senden
- `reset`: internen Verlauf/Zähler zurücksetzen
- `ask`: Frage an das konfigurierte LLM senden
Für `ask` die Frage in `msg.prompt` (empfohlen) oder `msg.payload` (String) übergeben.
## Konfigurationsfelder
Hier sind alle Felder aufgeführt, wie sie im KNX-AI-Editor sichtbar sind.
### Allgemein
- **Gateway**: KNX-Ultimate Gateway/Config-Node als Telegrammquelle.
- **Name**: Node-Name und Dashboard-Titel.
- **Topic**: Basis-Topic der Node-Ausgänge.
- Button **Open KNX AI Web**: Öffnet das Web-Dashboard (`/knxUltimateAI/sidebar/page`).
### Capture
- **Capture GroupValue_Write**: Erfasst Write-Telegramme.
- **Capture GroupValue_Response**: Erfasst Response-Telegramme.
- **Capture GroupValue_Read**: Erfasst Read-Telegramme.
### Analysis
- **Analysis window (seconds)**: Hauptfenster für Summary/Rate-Berechnung.
- **History window (seconds)**: Aufbewahrungsfenster der internen Telegramm-Historie.
- **Max stored events**: Maximale Anzahl Telegramme im Speicher.
- **Auto emit summary (seconds, 0=off)**: Periodisches Summary-Intervall.
- **Top list size**: Anzahl Top-Gruppenadressen/Quellen in der Summary.
- **Detect simple patterns (A -> B)**: Aktiviert Übergangs-/Pattern-Erkennung.
- **Pattern max lag (ms)**: Maximaler Zeitabstand für Pattern-Korrelation.
- **Pattern min occurrences**: Mindestanzahl, bevor ein Pattern gemeldet wird.
### Anomalies
- **Rate window (seconds)**: Gleitendes Zeitfenster für Rate-Prüfungen.
- **Max overall telegrams/sec (0=off)**: Schwellwert für gesamten Bus.
- **Max telegrams/sec per GA (0=off)**: Schwellwert pro Gruppenadresse.
- **Flap window (seconds)**: Zeitfenster für Flapping-/Wechselraten-Erkennung.
- **Max changes per GA in window (0=off)**: Maximal erlaubte Änderungen im Fenster.
### LLM Assistant
- Der Tab **LLM Assistant** steht im Editor jetzt an erster Stelle für eine schnellere Einrichtung.
- **Enable LLM assistant**: Aktiviert Ask/Chat-Funktionen.
- **Provider**: LLM-Backend (OpenAI-compatible oder Ollama).
- **Endpoint URL**: URL des Chat/Completions-Endpunkts.
- **API key**: API-Schlüssel (für lokales Ollama nicht erforderlich).
- **Model**: Modell-ID/Name.
- **System prompt**: Globale Instruktion für KNX-Analyse.
- **Temperature**: Sampling-Temperatur.
- **Max tokens**: Maximalzahl Completion-Tokens.
- **Timeout (ms)**: HTTP-Timeout für LLM-Anfragen.
- **Recent events included**: Max. Anzahl aktueller Events im Prompt.
- **Include raw payload hex**: Rohe Hex-Payload im Prompt einfügen.
- **Include Node-RED KNX node inventory**: Flow-Inventar im Prompt einfügen.
- **Max flow nodes included**: Limit der inkludierten Flow-Nodes.
- **Include documentation snippets (help/README/examples)**: Doku-Kontext einfügen.
- **Docs language**: Bevorzugte Sprache der Doku-Snippets.
- **Max docs snippets**: Max. Anzahl Doku-Snippets.
- **Max docs chars**: Max. Gesamtzeichen aus Doku.
- Button **Refresh**: Provider abfragen und verfügbare Modelle laden.
### Ollama Schnellstart (lokal)
- **Provider = Ollama** auswählen.
- Standard-Endpoint: `http://localhost:11434/api/chat`.
- Wenn keine lokalen Modelle gefunden werden:
- **1) Download model**: öffnet die Seite **Model library**.
- **2) Install it**: lädt und installiert das Modell lokal (z. B. `llama3.1`).
- Beim Refresh/Install versucht KNX AI zusätzlich, den Ollama-Server automatisch zu starten.
- Bei Installationsfehlern mit Verbindungsproblem prüfen, ob Ollama läuft (Desktop-App oder `ollama serve`).
- Wenn Node-RED in Docker läuft, im Endpoint `host.docker.internal` statt `localhost` verwenden.
## Sicherheitshinweis
Bei aktiviertem LLM kann KNX-Traffic-Kontext an den konfigurierten Endpoint gesendet werden. Für striktes On-Premise lokale Provider verwenden.
</script>