Cluster12 Min. Lesezeit2’397 WörterAktualisiert: März 2026Özden Erdinc
Central Entity: AI Automation
Teilen:

n8n Tutorial — Workflows erstellen mit Open-Source Automation

n8n ist die Open-Source-Plattform, die Workflow-Automatisierung demokratisiert. Im Gegensatz zu geschlossenen SaaS-Lösungen wie Zapier gibt n8n Ihnen die volle Kontrolle: über Ihren Code, Ihre Daten und Ihre Infrastruktur. Mit über 400 nativen Integrationen, leistungsstarken AI Nodes und der Möglichkeit zum Self-Hosting ist n8n besonders für Schweizer Unternehmen attraktiv, die Datenschutz und Flexibilität priorisieren.

Dieses Tutorial führt Sie von der Installation bis zu fortgeschrittenen AI-Workflows — mit fünf praxiserprobten Beispielen zum Nachbauen.

Was macht n8n besonders?

Bevor wir in die Praxis einsteigen, hier die Kernvorteile von n8n:

Eigenschaftn8nTypische SaaS-Tools
LizenzFair-Code (Open Source)Proprietär
HostingSelf-Hosted oder CloudNur Cloud
Datenkontrolle100% bei IhnenBeim Anbieter
AI-IntegrationNative LangChain-NodesBegrenzt
Kosten bei SkalierungFixkosten (Server)Variabel (pro Execution)
AnpassbarkeitCustom Nodes möglichAuf Anbieter-Features begrenzt
CommunityOpen-Source-CommunitySupport-Tickets

Installation und Setup

n8n bietet drei Installationswege. Die richtige Wahl hängt von Ihren Anforderungen ab:

Option 1: n8n Cloud (Schnellster Einstieg)

Für Teams, die sofort starten möchten, ohne Infrastruktur zu verwalten:

  1. Registrieren Sie sich auf n8n.cloud
  2. Wählen Sie den passenden Plan (kostenlose Testphase verfügbar)
  3. Starten Sie direkt im Browser mit dem Workflow-Editor
Vorteile: Kein Setup, automatische Updates, managed Infrastruktur Nachteile: Daten auf externen Servern, laufende monatliche Kosten

Option 2: Docker (Empfohlen für Self-Hosting)

Die empfohlene Methode für Unternehmen mit Datenschutzanforderungen:

# n8n mit Docker starten (einfachste Variante)
docker run -it --rm \
  --name n8n \
  -p 5678:5678 \
  -v n8n_data:/home/node/.n8n \
  docker.n8n.io/n8nio/n8n

n8n ist nun unter http://localhost:5678 erreichbar.

Für Produktion mit Docker Compose:

version: '3.8'
services:
  n8n:
    image: docker.n8n.io/n8nio/n8n
    restart: always
    ports:
      - "5678:5678"
    environment:
      - N8N_BASIC_AUTH_ACTIVE=true
      - N8N_BASIC_AUTH_USER=admin
      - N8N_BASIC_AUTH_PASSWORD=IhrSicheresPasswort
      - GENERIC_TIMEZONE=Europe/Zurich
      - TZ=Europe/Zurich
    volumes:
      - n8n_data:/home/node/.n8n
volumes:
  n8n_data:

Option 3: npm (Für Entwickler)

# Global installieren
npm install n8n -g

Starten

n8n start

Nach der Installation: Erste Einrichtung

  1. Öffnen Sie http://localhost:5678 im Browser
  2. Erstellen Sie einen Admin-Account (Email + Passwort)
  3. Optional: Konfigurieren Sie SMTP für Email-Benachrichtigungen
  4. Optional: Richten Sie SSL/TLS für HTTPS ein (empfohlen für Produktion)

Ersten Workflow erstellen: Schritt-für-Schritt

Schritt 1: Neuen Workflow anlegen

  1. Klicken Sie im Dashboard auf „New Workflow"
  2. Der Canvas-Editor öffnet sich — ein leeres Arbeitsblatt
  3. Benennen Sie den Workflow über das Menü oben

Schritt 2: Trigger-Node hinzufügen

  1. Klicken Sie auf das „+" oder drücken Sie Tab
  2. Suchen Sie den gewünschten Trigger (z. B. „Schedule Trigger")
  3. Konfigurieren Sie den Trigger:
- Rule: „Every 15 minutes" - Timezone: „Europe/Zurich"

Schritt 3: Aktions-Node verbinden

  1. Klicken Sie auf das „+" rechts vom Trigger
  2. Wählen Sie eine Aktion (z. B. „HTTP Request")
  3. Konfigurieren Sie die Aktion:
- Method: GET - URL: Die gewünschte API-URL
  1. Verbinden Sie die Nodes durch Ziehen einer Linie

Schritt 4: Daten transformieren

  1. Fügen Sie einen „Set"-Node hinzu
  2. Definieren Sie die gewünschten Ausgabefelder
  3. Mappen Sie Daten aus dem vorherigen Node mit Expressions: {{ $json.fieldName }}

Schritt 5: Testen und aktivieren

  1. Klicken Sie auf „Test workflow" (Blitz-Symbol)
  2. Überprüfen Sie die Daten an jedem Node (Klick auf den Node zeigt Input/Output)
  3. Wenn alles stimmt: Workflow über den Toggle aktivieren

5 praktische Workflow-Beispiele

Workflow 1: Email-Automation (IMAP → AI-Klassifizierung → Ordner)

Anwendungsfall: Eingehende Emails werden automatisch von AI nach Kategorie klassifiziert und in die richtigen Ordner verschoben.

Nodes:

  1. IMAP Email Trigger: Neue Emails überwachen
  2. OpenAI Chat Model: Email-Inhalt klassifizieren
  3. Switch: Basierend auf Klassifizierung verzweigen
  4. IMAP Move: Emails in den richtigen Ordner verschieben

Konfiguration:

  1. IMAP-Node: Mailserver, Benutzername und Passwort konfigurieren
  2. OpenAI-Node:
- Model: GPT-4o-mini (kosteneffizient für Klassifizierung) - System-Prompt: „Klassifiziere die folgende Email in eine dieser Kategorien: RECHNUNG, ANFRAGE, SUPPORT, NEWSLETTER, SPAM. Antworte nur mit dem Kategorienamen." - User Message: {{ $json.text }}
  1. Switch-Node: Routes basierend auf dem OpenAI-Output
  2. IMAP-Move: Emails in entsprechende Ordner verschieben
Geschätzte Setup-Zeit: 20–30 Minuten

Workflow 2: Data Pipeline (API → Transform → Datenbank)

Anwendungsfall: Daten werden regelmässig von einer API abgerufen, transformiert und in einer Datenbank gespeichert.

Nodes:

  1. Schedule Trigger: Alle 6 Stunden ausführen
  2. HTTP Request: API-Daten abrufen
  3. Code Node: Daten transformieren und bereinigen
  4. Postgres / MySQL: Daten in Datenbank speichern

Konfiguration:

  1. Schedule Trigger: Cron-Expression 0 /6
  2. HTTP Request:
- URL: API-Endpoint - Authentication: Header mit API-Key
  1. Code Node (JavaScript):
const items = $input.all();
   return items.map(item => ({
     json: {
       id: item.json.id,
       name: item.json.name.trim(),
       value: parseFloat(item.json.value),
       updated_at: new Date().toISOString()
     }
   }));
  1. Postgres-Node: INSERT oder UPSERT in Zieltabelle
Geschätzte Setup-Zeit: 25–35 Minuten

Workflow 3: AI Agent Workflow (Webhook → LangChain → Response)

Anwendungsfall: Ein Webhook empfängt eine Nutzerfrage, ein AI Agent mit Zugriff auf Unternehmensdaten beantwortet sie.

Nodes:

  1. Webhook: Empfängt JSON mit Nutzerfrage
  2. AI Agent: LangChain-basierter Agent mit Tools
  3. Vector Store Tool: Zugriff auf Unternehmenswissen (RAG)
  4. Respond to Webhook: Antwort zurücksenden

Konfiguration:

  1. Webhook-Node: Method POST, Path /ask
  2. AI Agent-Node:
- Agent Type: „Conversational Agent" - Chat Model: OpenAI GPT-4o - System Message: „Du bist ein Assistent für [Firma]. Beantworte Fragen basierend auf den bereitgestellten Dokumenten."
  1. Vector Store Tool: Verbindung zu Pinecone, Qdrant oder Supabase
  2. Respond to Webhook: AI-Antwort als JSON zurückgeben
Dieses Beispiel zeigt die Stärke von n8n für RAG-Anwendungen — das Retrieval Augmented Generation-Muster, bei dem AI-Modelle auf unternehmensspezifisches Wissen zugreifen.

Geschätzte Setup-Zeit: 45–60 Minuten

Workflow 4: Monitoring-Alert (HTTP Request → Condition → Slack/Email)

Anwendungsfall: Überwachung einer Website oder API mit automatischer Alarmierung bei Ausfall oder langsamer Antwortzeit.

Nodes:

  1. Schedule Trigger: Alle 5 Minuten prüfen
  2. HTTP Request: Website/API aufrufen
  3. IF: Statuscode prüfen (≠ 200 oder Response Time > 3s)
  4. Slack / Email: Alert-Nachricht senden

Konfiguration:

  1. Schedule Trigger: Alle 5 Minuten
  2. HTTP Request:
- URL: Ihre Website oder API - Options: „Full Response" aktivieren (für Statuscode und Timing)
  1. IF-Node:
- Condition 1: {{ $json.statusCode }} is not equal to 200 - OR Condition 2: {{ $json.responseTime }} is greater than 3000
  1. Slack-Node:
- Channel: #monitoring - Message: „ALERT: {URL} antwortet mit Status {statusCode} (Response Time: {responseTime}ms)"

Geschätzte Setup-Zeit: 15–20 Minuten

Workflow 5: Document Processing (Webhook → PDF-Parser → Airtable)

Anwendungsfall: Dokumente werden über einen Upload-Webhook empfangen, analysiert und strukturiert in Airtable gespeichert.

Nodes:

  1. Webhook: Empfängt PDF-Datei als Binary
  2. Extract from File: PDF-Text extrahieren
  3. OpenAI: Strukturierte Daten aus Text extrahieren
  4. Airtable: Daten als neuen Record speichern

Konfiguration:

  1. Webhook: Method POST, Binary Property „file"
  2. Extract from File: Operation „Extract from PDF"
  3. OpenAI:
- Prompt: „Extrahiere aus folgendem Dokument: Titel, Datum, Absender, Zusammenfassung (max. 3 Sätze), und Schlüsselbegriffe. Gib das Ergebnis als JSON zurück."
  1. Airtable: Felder mappen (Titel, Datum, Absender, Zusammenfassung, Tags)
Geschätzte Setup-Zeit: 30–40 Minuten

n8n AI Nodes: AI Agent und AI Chain

n8n hat sich als eine der fortschrittlichsten Plattformen für AI-Workflows positioniert. Die AI Nodes basieren auf LangChain und bieten Funktionen, die bei Wettbewerbern fehlen:

AI Agent Node

Der AI Agent Node erstellt autonome Agenten, die selbständig entscheiden, welche Tools sie nutzen:

  • Conversational Agent: Für Chatbot-artige Interaktionen
  • OpenAI Functions Agent: Nutzt OpenAI Function Calling
  • ReAct Agent: Reasoning + Acting — der Agent denkt und handelt
  • Plan and Execute Agent: Erstellt einen Plan und führt ihn schrittweise aus

AI Chain Nodes

Für sequentielle AI-Verarbeitungspipelines:

  • Basic LLM Chain: Einfache Prompt → Response-Kette
  • Retrieval QA Chain: Frage-Antwort mit Dokumenten-Retrieval (RAG)
  • Summarization Chain: Automatische Textzusammenfassung
  • Conversation Chain: Mehrstufige Konversationen mit Gedächtnis

Verfügbare AI Models in n8n

AnbieterModelleTyp
OpenAIGPT-4o, GPT-4, GPT-3.5Chat & Completion
AnthropicClaude 3.5 Sonnet, Claude 3 OpusChat
GoogleGemini Pro, Gemini UltraChat & Multimodal
OllamaLlama, Mistral, CodeLlamaSelf-Hosted LLMs
Azure OpenAIGPT-4, GPT-3.5Enterprise

Tools für AI Agents

Vertiefen Sie Ihr Wissen:
>
- AI Automation Tools und Plattformen
AI Agents in n8n können auf Tools zugreifen:
  • Calculator: Mathematische Berechnungen
  • HTTP Request Tool: APIs aufrufen
  • Vector Store Tool: Auf Vektordatenbanken zugreifen
  • Code Tool: JavaScript-Code ausführen
  • Custom Tools: Eigene Tools als Sub-Workflows

Self-Hosting für Schweizer Datenschutz (nDSG)

Ein Hauptvorteil von n8n ist die Self-Hosting-Option. Für Schweizer Unternehmen, die dem neuen Datenschutzgesetz (nDSG) unterliegen, ist das besonders relevant:

Warum Self-Hosting für Schweizer Unternehmen?

  • Datenhoheit: Alle Workflow-Daten bleiben auf Ihrer eigenen Infrastruktur
  • nDSG-Konformität: Keine Datenübermittlung an Drittanbieter-Server
  • Compliance: Audit-Logs und Datenzugriff vollständig unter Ihrer Kontrolle
  • Branchen-Anforderungen: Finanzbranche, Gesundheitswesen und öffentliche Verwaltung erfordern oft lokale Datenspeicherung

Empfohlene Hosting-Optionen in der Schweiz

OptionAnbieter-BeispieleKosten (ca. CHF/Monat)Empfohlen für
Schweizer VPSInfomaniak, Cyon, NineCHF 15–50KMU, Startups
Schweizer CloudExoscale, CloudSigmaCHF 30–100Mittelstand
Eigener ServerOn-PremiseVariabelEnterprise, regulierte Branchen
KubernetesManaged K8s (Exoscale)CHF 50–200Skalierbare Deployments

Produktions-Setup-Empfehlung

Für ein produktionsreifes n8n-Setup empfehlen wir:

  • Reverse Proxy: Nginx oder Caddy für SSL/TLS
  • Datenbank: PostgreSQL statt SQLite (Standard)
  • Backup: Automatische tägliche Backups der Datenbank und Workflow-Daten
  • Monitoring: Uptime-Monitoring und Log-Aggregation
  • Updates: Regelmässige Updates über Docker-Image-Tags

Fortgeschrittene n8n-Techniken

Sub-Workflows für modularen Aufbau

n8n ermöglicht es, Workflows in wiederverwendbare Sub-Workflows aufzuteilen:

  1. Erstellen Sie einen Workflow mit einem „Execute Workflow Trigger"-Node
  2. Definieren Sie Input-Parameter, die der Sub-Workflow erwartet
  3. Rufen Sie diesen Sub-Workflow aus anderen Workflows über den „Execute Workflow"-Node auf
Beispiel: Ein Sub-Workflow „AI-Textgenerierung", der von verschiedenen Hauptworkflows aufgerufen wird — einmal für Blog-Artikel, einmal für Social Media, einmal für Email-Antworten. Die AI-Konfiguration (Modell, Temperatur, System-Prompt) wird zentral gepflegt.

Error Handling mit Error Trigger

n8n bietet einen dedizierten Error Trigger Node:

  1. Erstellen Sie einen separaten „Error Handling"-Workflow
  2. Fügen Sie einen „Error Trigger"-Node als Startpunkt hinzu
  3. Dieser Workflow wird automatisch ausgelöst, wenn ein anderer Workflow fehlschlägt
  4. Sie erhalten Informationen über den fehlgeschlagenen Workflow, den Node und die Fehlermeldung
Best Practice: Senden Sie Error-Benachrichtigungen an Slack oder Email mit dem Workflow-Namen, dem fehlgeschlagenen Node und der Fehlermeldung. So können Sie Probleme schnell identifizieren und beheben.

Expressions und Code für Datenmanipulation

n8n bietet zwei Wege für Datenmanipulation:

Expressions (No-Code):

  • {{ $json.fieldName }} — Auf Datenfelder zugreifen
  • {{ $json.name.toUpperCase() }} — JavaScript-Methoden in Expressions
  • {{ $now.format('yyyy-MM-dd') }} — Datums-Funktionen
  • {{ $if($json.amount > 1000, "Gross", "Klein") }} — Bedingte Werte

Code Node (Low-Code):
Für komplexe Transformationen verwenden Sie den Code Node mit JavaScript:

// Beispiel: Daten gruppieren und aggregieren
const items = $input.all();
const grouped = {};

for (const item of items) {
const key = item.json.category;
if (!grouped[key]) grouped[key] = { count: 0, total: 0 };
grouped[key].count++;
grouped[key].total += item.json.amount;
}

return Object.entries(grouped).map(([category, data]) => ({
json: { category, ...data, average: data.total / data.count }
}));

Webhook-Sicherheit

Für Produktions-Webhooks sollten Sie Sicherheitsmassnahmen implementieren:

  • Header-Authentifizierung: Validieren Sie einen geheimen Token im Header
  • IP-Whitelisting: Akzeptieren Sie nur Requests von bekannten IP-Adressen
  • Payload-Validierung: Prüfen Sie die Struktur der eingehenden Daten
  • Rate Limiting: Begrenzen Sie die Anzahl der Requests pro Zeiteinheit

Tipps und Best Practices

Workflow-Design

  • Error Handling: Nutzen Sie den Error-Trigger-Node für zentrales Fehler-Management
  • Credentials sicher speichern: n8n verschlüsselt Credentials automatisch
  • Expressions nutzen: {{ $json.field }} für dynamische Werte
  • Sub-Workflows: Komplexe Logik in wiederverwendbare Sub-Workflows auslagern

Performance

  • Batch-Verarbeitung: Verarbeiten Sie grosse Datenmengen in Batches
  • Parallel-Ausführung: Nutzen Sie SplitInBatches für parallele Verarbeitung
  • Caching: Speichern Sie häufig abgerufene API-Daten zwischen
  • Resource-Limits: Setzen Sie Execution-Limits, um Endlosschleifen zu vermeiden

Sicherheit

  • Basic Auth oder SSO: Schützen Sie die n8n-Oberfläche
  • Webhook-Validierung: Validieren Sie Webhook-Payloads mit Signatures
  • Network-Isolation: Betreiben Sie n8n in einem isolierten Netzwerk
  • Least Privilege: Verwenden Sie API-Keys mit minimalen Berechtigungen

Häufig gestellte Fragen

Ist n8n wirklich kostenlos?

n8n ist unter der Fair-Code-Lizenz (Sustainable Use License) verfügbar. Für Self-Hosting ist n8n kostenlos nutzbar — Sie zahlen nur für Ihre eigene Server-Infrastruktur (ab ca. CHF 15/Monat bei einem Schweizer VPS). Die n8n Cloud-Version ist ein kostenpflichtiger Service mit Preisen ab ca. CHF 20/Monat. Für kommerzielle Nutzung von n8n-spezifischen Enterprise-Features (SSO, Source Control, Environments) gibt es kostenpflichtige Lizenzen.

Wie unterscheidet sich n8n von Make?

n8n ist Open Source und kann self-hosted betrieben werden — Make ist eine reine Cloud-Plattform. n8n bietet native AI Agent Nodes mit LangChain-Integration, während Make auf externe AI-API-Aufrufe setzt. n8n eignet sich besser für technische Teams mit Datenschutzanforderungen, Make für Teams, die einen einfacheren visuellen Editor bevorzugen. Im Detailvergleich Make vs n8n finden Sie alle Unterschiede.

Kann ich n8n ohne Docker installieren?

Ja, n8n kann auch direkt über npm installiert werden (npm install n8n -g). Docker wird jedoch empfohlen, weil es eine isolierte Umgebung bietet, Updates vereinfacht und die Reproduzierbarkeit des Setups gewährleistet. Für Produktion ist Docker Compose die beste Wahl, da Sie damit auch Datenbanken und Reverse Proxies konfigurieren können.

Welche AI-Modelle kann ich mit n8n nutzen?

n8n unterstützt eine breite Palette von AI-Modellen: OpenAI (GPT-4o, GPT-4, GPT-3.5), Anthropic (Claude 3.5 Sonnet, Claude 3 Opus), Google (Gemini Pro/Ultra), und über Ollama auch lokale Open-Source-Modelle wie Llama und Mistral. Die Ollama-Integration ist besonders interessant für Schweizer Unternehmen, die AI-Modelle vollständig lokal betreiben möchten — ohne Daten an externe APIs zu senden.

Wie sicher ist Self-Hosted n8n?

Self-Hosted n8n ist so sicher wie Ihre Infrastruktur. Die Plattform verschlüsselt Credentials standardmässig und bietet Basic Auth und SSO für den Zugang. Für maximale Sicherheit empfehlen wir: HTTPS über einen Reverse Proxy, Network-Isolation, regelmässige Updates, automatische Backups und Zugriffskontrolle. Bei korrekter Konfiguration ist Self-Hosted n8n sicherer als Cloud-Lösungen, weil Ihre Daten Ihre Infrastruktur nicht verlassen.

Fazit: n8n als Plattform für zukunftssichere Automation

n8n vereint die Stärken von Open Source mit der Leistungsfähigkeit moderner AI-Integration. Für Schweizer Unternehmen, die Datenschutz ernst nehmen und volle Kontrolle über ihre Automatisierungs-Infrastruktur wollen, ist n8n die ideale Wahl.

Die AI Agent Nodes mit LangChain-Integration machen n8n zur leistungsstärksten Plattform für AI Automation im Open-Source-Bereich. Und die Self-Hosting-Option gewährleistet, dass Ihre Daten dort bleiben, wo sie hingehören — bei Ihnen.

Starten Sie mit dem Monitoring-Alert-Workflow aus diesem Tutorial — er ist in 15 Minuten aufgesetzt und zeigt Ihnen sofort den Wert von Workflow-Automation.

Erdinc AI

Bereit für Ihre AI Automation Reise?

Von der Strategie bis zur Implementierung — Erdinc AI ist Ihr Partner für semantisch optimierte AI-Lösungen in der Schweiz.

OE

Özden Erdinc

AI Architect for the Semantic Web

Spezialisiert auf Topical Authority, Semantic SEO und AI Automation. Hilft Schweizer KMU, das volle Potenzial von künstlicher Intelligenz zu nutzen.

Mehr über den Autor

Verwandte Artikel