Einleitung
Wer mit großen Sprachmodellen in automatisierten Workflows arbeitet, kennt das Problem: Die Ausgaben der KI enthalten oft wertvolle Metadaten – wie das verwendete Sprachmodell, die Beendigungsursache der Antwort oder die Anzahl der verbrauchten Tokens. Doch im Automatisierungstool n8n sind diese Informationen bisher nur in den Ausführungsprotokollen sichtbar – nicht jedoch direkt in den JSON-Ausgaben, die für nachfolgende Nodes nutzbar wären.
Gerade bei komplexen KI-gestützten Abläufen – etwa wenn unterschiedliche Modelle getestet oder Token-Kosten überwacht werden sollen – ist das ein echtes Hindernis. In diesem Artikel zeigen wir, wie Sie die Ausgabe von KI-Agenten in n8n um genau diese Metadaten erweitern können, warum das relevant ist und welche Möglichkeiten sich dadurch eröffnen.
---
Zusammenfassung
Aktuell zeigt n8n Metadaten wie `model_name`, `finish_reason` oder `tokenUsage` nur im Log – nicht jedoch im regulären Output-JSON. Das erschwert den Zugriff in Folge-Nodes und limitiert Automatisierungsmöglichkeiten. Eine Erweiterung der Node-Ausgabe um diese Metadaten schafft Abhilfe. Damit können Entwickler gezielt auf Modellinformationen oder Kostenfaktoren reagieren und ihre Workflows intelligenter gestalten.
---
Wichtigste Erkenntnisse
- • Metadaten sind vorhanden, aber nicht nutzbar: Sie existieren intern, sind aber nicht mit `$json` abrufbar.
- • Hoher Nutzwert bei LLM-basierten Workflows: Modellwahl, Tokenverbrauch und Finish-Gründe beeinflussen Logik und Kosten.
- • Workarounds über benutzerdefinierte Nodes oder Expressions sind möglich: Mit etwas Aufwand lässt sich das Problem bereits heute lösen.
---
Praktische Anwendungsfälle
1. Modellabhängige Folgeaktionen
Sie möchten bei einem bestimmten Modell (z. B. GPT-4) eine andere Verarbeitung durchführen als bei GPT-3.5? Ohne Zugriff auf `model_name` im JSON ist das nicht möglich. Mit erweiterten Metadaten können Sie gezielt reagieren.Beispiel: Wenn `model_name` = "gpt-4", dann sende die Antwort zusätzlich per E-Mail an den QA-Manager, um die teureren Ergebnisse zu prüfen.
2. Tokenverbrauch überwachen und limitieren
Gerade bei der Nutzung von GPT-4 entstehen schnell hohe Kosten. Ein Zugriff auf `tokenUsage.total_tokens` im JSON erlaubt es, Schwellenwerte zu setzen und Workflows ggf. abzubrechen oder zu pausieren.Beispiel: Wenn `total_tokens` > 1000, dann logge den Vorfall und benachrichtige den Admin über Slack.
3. Analyse der Antwortqualität via `finish_reason`
Die Eigenschaft `finish_reason` gibt an, ob die Antwort regulär beendet wurde oder z. B. durch ein Token-Limit. Diese Information kann genutzt werden, um nur vollständige Antworten weiterzuverarbeiten.Beispiel: Wenn `finish_reason` ≠ "stop", speichere die Antwort nicht in der Datenbank.
---
Technische Umsetzung im Detail
Aktueller Stand in n8n
Die meisten KI-Agenten-Nodes in n8n (z. B. OpenAI, Hugging Face) zeigen Metainformationen wie `generationInfo` oder `tokenUsage` nur in den Ausführungsdetails innerhalb der UI. Diese Daten sind nicht standardmäßig im `$json`-Ausgabeobjekt enthalten, auf das Folge-Nodes zugreifen.Workaround: Daten aus Execution Context extrahieren
Ein möglicher Weg besteht darin, über einen benutzerdefinierten Code-Node auf das komplette Execution-Objekt zuzugreifen und die Metadaten manuell herauszuziehen. Diese können dann in den Output injiziert werden.Beispiel-Code in einer Function-Node: javascript return [{ json: { result: $json["result"], model: $node["OpenAI"].context.executionData[0].generationInfo.model_name, finish_reason: $node["OpenAI"].context.executionData[0].generationInfo.finish_reason, tokens: $node["OpenAI"].context.executionData[0].tokenUsage.total_tokens } }];
Hinweis: Die genaue Struktur kann je nach Version und Node-Typ variieren.
Zukünftige Erweiterung durch Feature Request
Die n8n-Community hat bereits Interesse an einer offiziellen Lösung gezeigt. Ein Feature Request in der Community schlägt vor, die Metadaten automatisch in den Output zu integrieren – ohne Workarounds.---
Ausblick: Was bringt die Zukunft?
Sollte dieses Feature offiziell in n8n implementiert werden, ergeben sich zahlreiche Vorteile für Entwickler:
- • Einfachere Workflows: Kein manuelles Parsen von Logs oder Kontextdaten mehr nötig
- • Mehr Transparenz: Kostenkontrolle durch Token-Monitoring direkt im Flow
- • Bessere Entscheidungslogik: Dynamische Modellwahl, Qualitätsbewertung und Fehlerbehandlung
Darüber hinaus könnte eine solche Erweiterung auch für andere KI-Integrationen wie Cohere, Anthropic oder eigene LLM-Backends nutzbar gemacht werden.
---
🚀 Ihre nächsten Schritte
Sofort umsetzen (5 Minuten): Fügen Sie in Ihrer n8n-Workflow eine Function-Node hinzu, um Metadaten wie `model_name` und `tokenUsage` manuell aus der vorherigen Node zu extrahieren.
Tool-Empfehlung: n8n – Das Open-Source-Automatisierungstool bietet flexible Workflows mit KI-Integration und erlaubt über Workarounds bereits heute Metadatenzugriff.
Weiterführend: Lesen Sie den Thread in der n8n Community zum Feature Request "Expose generationInfo and tokenUsage in JSON output" – hier finden Sie Workarounds und Stimmen aus der Praxis.
---
Tags
- • künstliche-intelligenz
- • automatisierung
- • n8n
- • sprachmodelle
- • workflow-optimierung
- • tokenverbrauch
- • entwicklertools