So erweitern Sie KI-Agenten-Ausgaben um Metadaten in n8n
Zurück zur Übersicht
n8n

So erweitern Sie KI-Agenten-Ausgaben um Metadaten in n8n

Metadaten wie Modellname, Tokenverbrauch und Finish-Reason in n8n-Workflows direkt nutzen: So holen Sie mehr aus Ihren KI-Agenten heraus.

AI Content Bot24. Juli 20257 Min Lesezeit1 Aufrufe

Hinweis: KI-generierter Inhalt

Dieser Artikel wurde mit Hilfe künstlicher Intelligenz erstellt und basiert auf verschiedenen Quellen. Obwohl wir uns um Genauigkeit bemühen, können Fehler auftreten. Bitte verifizieren Sie wichtige Informationen bei derOriginalquelle.

Einleitung

Wer mit großen Sprachmodellen in automatisierten Workflows arbeitet, kennt das Problem: Die Ausgaben der KI enthalten oft wertvolle Metadaten – wie das verwendete Sprachmodell, die Beendigungsursache der Antwort oder die Anzahl der verbrauchten Tokens. Doch im Automatisierungstool n8n sind diese Informationen bisher nur in den Ausführungsprotokollen sichtbar – nicht jedoch direkt in den JSON-Ausgaben, die für nachfolgende Nodes nutzbar wären.

Gerade bei komplexen KI-gestützten Abläufen – etwa wenn unterschiedliche Modelle getestet oder Token-Kosten überwacht werden sollen – ist das ein echtes Hindernis. In diesem Artikel zeigen wir, wie Sie die Ausgabe von KI-Agenten in n8n um genau diese Metadaten erweitern können, warum das relevant ist und welche Möglichkeiten sich dadurch eröffnen.

---

Zusammenfassung

Aktuell zeigt n8n Metadaten wie `model_name`, `finish_reason` oder `tokenUsage` nur im Log – nicht jedoch im regulären Output-JSON. Das erschwert den Zugriff in Folge-Nodes und limitiert Automatisierungsmöglichkeiten. Eine Erweiterung der Node-Ausgabe um diese Metadaten schafft Abhilfe. Damit können Entwickler gezielt auf Modellinformationen oder Kostenfaktoren reagieren und ihre Workflows intelligenter gestalten.

---

Wichtigste Erkenntnisse

  • Metadaten sind vorhanden, aber nicht nutzbar: Sie existieren intern, sind aber nicht mit `$json` abrufbar.
  • Hoher Nutzwert bei LLM-basierten Workflows: Modellwahl, Tokenverbrauch und Finish-Gründe beeinflussen Logik und Kosten.
  • Workarounds über benutzerdefinierte Nodes oder Expressions sind möglich: Mit etwas Aufwand lässt sich das Problem bereits heute lösen.

---

Praktische Anwendungsfälle

1. Modellabhängige Folgeaktionen

Sie möchten bei einem bestimmten Modell (z. B. GPT-4) eine andere Verarbeitung durchführen als bei GPT-3.5? Ohne Zugriff auf `model_name` im JSON ist das nicht möglich. Mit erweiterten Metadaten können Sie gezielt reagieren.

Beispiel: Wenn `model_name` = "gpt-4", dann sende die Antwort zusätzlich per E-Mail an den QA-Manager, um die teureren Ergebnisse zu prüfen.

2. Tokenverbrauch überwachen und limitieren

Gerade bei der Nutzung von GPT-4 entstehen schnell hohe Kosten. Ein Zugriff auf `tokenUsage.total_tokens` im JSON erlaubt es, Schwellenwerte zu setzen und Workflows ggf. abzubrechen oder zu pausieren.

Beispiel: Wenn `total_tokens` > 1000, dann logge den Vorfall und benachrichtige den Admin über Slack.

3. Analyse der Antwortqualität via `finish_reason`

Die Eigenschaft `finish_reason` gibt an, ob die Antwort regulär beendet wurde oder z. B. durch ein Token-Limit. Diese Information kann genutzt werden, um nur vollständige Antworten weiterzuverarbeiten.

Beispiel: Wenn `finish_reason` ≠ "stop", speichere die Antwort nicht in der Datenbank.

---

Technische Umsetzung im Detail

Aktueller Stand in n8n

Die meisten KI-Agenten-Nodes in n8n (z. B. OpenAI, Hugging Face) zeigen Metainformationen wie `generationInfo` oder `tokenUsage` nur in den Ausführungsdetails innerhalb der UI. Diese Daten sind nicht standardmäßig im `$json`-Ausgabeobjekt enthalten, auf das Folge-Nodes zugreifen.

Workaround: Daten aus Execution Context extrahieren

Ein möglicher Weg besteht darin, über einen benutzerdefinierten Code-Node auf das komplette Execution-Objekt zuzugreifen und die Metadaten manuell herauszuziehen. Diese können dann in den Output injiziert werden.

Beispiel-Code in einer Function-Node: javascript return [{ json: { result: $json["result"], model: $node["OpenAI"].context.executionData[0].generationInfo.model_name, finish_reason: $node["OpenAI"].context.executionData[0].generationInfo.finish_reason, tokens: $node["OpenAI"].context.executionData[0].tokenUsage.total_tokens } }];

Hinweis: Die genaue Struktur kann je nach Version und Node-Typ variieren.

Zukünftige Erweiterung durch Feature Request

Die n8n-Community hat bereits Interesse an einer offiziellen Lösung gezeigt. Ein Feature Request in der Community schlägt vor, die Metadaten automatisch in den Output zu integrieren – ohne Workarounds.

---

Ausblick: Was bringt die Zukunft?

Sollte dieses Feature offiziell in n8n implementiert werden, ergeben sich zahlreiche Vorteile für Entwickler:

  • Einfachere Workflows: Kein manuelles Parsen von Logs oder Kontextdaten mehr nötig
  • Mehr Transparenz: Kostenkontrolle durch Token-Monitoring direkt im Flow
  • Bessere Entscheidungslogik: Dynamische Modellwahl, Qualitätsbewertung und Fehlerbehandlung

Darüber hinaus könnte eine solche Erweiterung auch für andere KI-Integrationen wie Cohere, Anthropic oder eigene LLM-Backends nutzbar gemacht werden.

---

🚀 Ihre nächsten Schritte

Sofort umsetzen (5 Minuten): Fügen Sie in Ihrer n8n-Workflow eine Function-Node hinzu, um Metadaten wie `model_name` und `tokenUsage` manuell aus der vorherigen Node zu extrahieren.

Tool-Empfehlung: n8n – Das Open-Source-Automatisierungstool bietet flexible Workflows mit KI-Integration und erlaubt über Workarounds bereits heute Metadatenzugriff.

Weiterführend: Lesen Sie den Thread in der n8n Community zum Feature Request "Expose generationInfo and tokenUsage in JSON output" – hier finden Sie Workarounds und Stimmen aus der Praxis.

---

Tags

  • • künstliche-intelligenz
  • • automatisierung
  • • n8n
  • • sprachmodelle
  • • workflow-optimierung
  • • tokenverbrauch
  • • entwicklertools

🚀 Ihre nächsten Schritte

Möchten Sie mehr über diese Themen erfahren?

📰 Original-Artikel:

n8n Community - Latest topics
Weitere Artikel entdecken
Tags:künstliche-intelligenzautomatisierungn8nsprachmodelleworkflow-optimierungtokenverbrauchentwicklertools