Ausgangslage: Das Datenchaos beim autonomen Fahren

Die Entwicklung von Level 3+ autonomen Fahrzeugen erzeugt eine Datenflut, die klassische IT-Systeme überfordert:

  • Terabytes pro Testfahrt: LiDAR Point Clouds, Radar-Reflexionen, Kamera-Streams
  • Edge Cases: Kritische Verkehrssituationen müssen identifiziert und katalogisiert werden
  • ODD-Validierung: Der Operational Design Domain Status bestimmt, wo das Fahrzeug autonom fahren darf
  • Regulatorik: UN R155 (Cybersecurity), R156 (Software Updates), R157 (ALKS) erfordern lückenlose Dokumentation

Warum SAP hier versagt

Anforderung SAP-Limitation
Sensordaten-Pipelines Keine native Unterstützung für unstrukturierte Daten
Edge Case Detection Keine KI-Integration für Szenario-Analyse
ODD-Tracking PLM-Module nicht für ADAS-Validierung konzipiert
Homologation Zu spezialisiert für Standard-ERP

Der aktuelle Prozess: Testingenieure durchsuchen manuell Logfiles, dokumentieren Edge Cases in Excel und aktualisieren den Validierungsstatus per E-Mail. Homologations-Reports werden quartalsweise manuell zusammengestellt.


Die n8n-Lösung: Automatisierte Test-Orchestrierung

Ein Workflow-System, das Testdaten aggregiert, Edge Cases automatisch identifiziert und den Validierungsstatus in Echtzeit aktualisiert.

Architektur-Übersicht

┌─────────────────────────────────────────────────────────────────┐
│                     DATENQUELLEN                                 │
├─────────────────────────────────────────────────────────────────┤
│  Testfahrzeug           Simulation            Prüfstand          │
│  (S3/MinIO)             (CARLA/SUMO)          (HIL/SIL)          │
└────────┬─────────────────────┬─────────────────────┬────────────┘
         │                     │                     │
         └─────────────────────┼─────────────────────┘
                               ▼
┌─────────────────────────────────────────────────────────────────┐
│                    n8n ORCHESTRIERUNG                            │
├─────────────────────────────────────────────────────────────────┤
│                                                                  │
│  ┌─────────────────────────────────────────────────────────┐    │
│  │              Webhook Trigger                             │    │
│  │              POST /testrun-complete                      │    │
│  └────────────────────────┬────────────────────────────────┘    │
│                           ▼                                      │
│  ┌─────────────────────────────────────────────────────────┐    │
│  │              AI Agent (Edge Case Detection)              │    │
│  │              - Szenario-Klassifikation                   │    │
│  │              - Safety-Bewertung (ASIL)                   │    │
│  │              - ODD-Relevanz                              │    │
│  └────────────────────────┬────────────────────────────────┘    │
│                           │                                      │
│           ┌───────────────┼───────────────┐                     │
│           ▼               ▼               ▼                     │
│    ┌─────────────┐ ┌─────────────┐ ┌─────────────┐              │
│    │ Safety      │ │ ODD Status  │ │ Regulatory  │              │
│    │ Critical?   │ │ Update      │ │ Compliance  │              │
│    └──────┬──────┘ └──────┬──────┘ └──────┬──────┘              │
│           ▼               ▼               ▼                     │
│    ┌─────────────┐ ┌─────────────┐ ┌─────────────┐              │
│    │ Postgres    │ │ PLM System  │ │ Homologation│              │
│    │ Edge DB     │ │ (Teamcenter)│ │ Portal      │              │
│    └──────┬──────┘ └─────────────┘ └─────────────┘              │
│           ▼                                                      │
│    ┌─────────────┐                                              │
│    │ Teams Alert │                                              │
│    │ Safety Team │                                              │
│    └─────────────┘                                              │
│                                                                  │
└─────────────────────────────────────────────────────────────────┘

Workflow 1: Test-Eingang und Edge Case Detection

Trigger: Nach jeder Testfahrt sendet das Datenerfassungssystem einen POST-Request:

{
  "test_id": "T2026-0142",
  "vehicle_id": "PROTO-AD-007",
  "route": "A9_Muenchen_Nuernberg_Baustelle",
  "duration_min": 47,
  "distance_km": 62.3,
  "scenarios": [
    "Baustelleneinfahrt bei Regen",
    "LKW-Überholvorgang",
    "Fußgänger am Fahrbahnrand"
  ],
  "sensor_data_path": "s3://adas-tests/2026/01/30/T2026-0142/"
}

AI Agent Analyse:

Der AI Agent klassifiziert jedes Szenario:

┌─────────────────────────────────────────────────────────────────┐
│  AI Agent: Edge Case Detection                                   │
├─────────────────────────────────────────────────────────────────┤
│                                                                  │
│  Input: Szenario-Beschreibung + Metadaten                       │
│                                                                  │
│  Analyse:                                                        │
│  ┌─────────────────────────────────────────────────────────┐    │
│  │ 1. Ist das ein Edge Case?                                │    │
│  │    → Ja/Nein + Kategorie (Wetter, VRU, Baustelle, ...)  │    │
│  │                                                          │    │
│  │ 2. Safety-Kritisch? (ISO 26262 ASIL)                    │    │
│  │    → QM / ASIL-A / ASIL-B / ASIL-C / ASIL-D            │    │
│  │                                                          │    │
│  │ 3. ODD-Relevanz?                                        │    │
│  │    → Erweitert / Schränkt ein / Neutral                 │    │
│  │                                                          │    │
│  │ 4. Simulation erforderlich?                             │    │
│  │    → CARLA-Szenario generieren: Ja/Nein                 │    │
│  └─────────────────────────────────────────────────────────┘    │
│                                                                  │
│  Output: Strukturierte Klassifikation + Handlungsempfehlung     │
│                                                                  │
└─────────────────────────────────────────────────────────────────┘

Workflow 2: ODD-Status-Management

Der Operational Design Domain definiert, unter welchen Bedingungen das autonome System operieren darf:

┌─────────────────────────────────────────────────────────────────┐
│  ODD-Status Update Workflow                                      │
├─────────────────────────────────────────────────────────────────┤
│                                                                  │
│  Testdaten ──▶ Aggregation ──▶ Coverage-Berechnung              │
│                                     │                            │
│                    ┌────────────────┼────────────────┐          │
│                    ▼                ▼                ▼          │
│             ┌───────────┐    ┌───────────┐    ┌───────────┐     │
│             │ Autobahn  │    │ Landstraße│    │ Stadt     │     │
│             │ 87% valid.│    │ 62% valid.│    │ 34% valid.│     │
│             └───────────┘    └───────────┘    └───────────┘     │
│                                                                  │
│  Bei Änderung ──▶ HTTP Request ──▶ PLM System (Teamcenter)      │
│               ──▶ Confluence ──▶ Dokumentation                   │
│               ──▶ Teams ──▶ Stakeholder-Benachrichtigung        │
│                                                                  │
└─────────────────────────────────────────────────────────────────┘

Workflow 3: Homologations-Compliance

UN R157 (ALKS) erfordert Nachweise über:

  • Mindestens 10 Millionen simulierte Testkilometer
  • Validierung aller definierten Szenarien
  • Cybersecurity-Audit (UN R155)
  • Software-Update-Management (UN R156)
┌─────────────────────────────────────────────────────────────────┐
│  Schedule Trigger: Täglich 06:00                                 │
├─────────────────────────────────────────────────────────────────┤
│                                                                  │
│  ┌─────────────────────────────────────────────────────────┐    │
│  │ Aggregiere Compliance-Status                             │    │
│  │                                                          │    │
│  │ - UN R157: Szenario-Coverage (%)                        │    │
│  │ - UN R155: Letztes Security-Audit                       │    │
│  │ - UN R156: SUMS-Compliance                              │    │
│  │ - Gesamt-Testkilometer (real + simuliert)               │    │
│  └────────────────────────┬────────────────────────────────┘    │
│                           ▼                                      │
│  ┌─────────────────────────────────────────────────────────┐    │
│  │ IF: Lücken erkannt?                                      │    │
│  │                                                          │    │
│  │ Ja ──▶ Alert an Homologations-Team                      │    │
│  │     ──▶ Jira-Ticket für fehlende Nachweise              │    │
│  │                                                          │    │
│  │ Nein ──▶ Tagesreport per Email                          │    │
│  └─────────────────────────────────────────────────────────┘    │
│                                                                  │
└─────────────────────────────────────────────────────────────────┘

Technische Umsetzung

Verwendete n8n Nodes

Node Zweck
Webhook Empfängt POST nach Testfahrt-Abschluss
HTTP Request S3/MinIO API, PLM-System, KBA-Portal
AI Agent + OpenAI Edge Case Klassifikation, Szenario-Analyse
Postgres Edge Case Database, ODD-Status-Historie
IF / Switch Branching nach Schweregrad und Kategorie
Schedule Trigger Tägliche Compliance-Reports
Slack / Teams Safety-Alerts, Stakeholder-Benachrichtigung
Jira Automatische Ticket-Erstellung

Integrationen

┌─────────────────────────────────────────────────────────────────┐
│  SYSTEM                      │  INTEGRATION                     │
├──────────────────────────────┼──────────────────────────────────┤
│  S3 / MinIO                  │  HTTP Request (Presigned URLs)   │
│  CARLA / SUMO                │  REST API (Szenario-Trigger)     │
│  Teamcenter / Windchill      │  OData / REST API                │
│  Confluence                  │  REST API (Dokumentation)        │
│  KBA Portal                  │  HTTP Upload (Nachweise)         │
│  Slack / Teams               │  Native n8n Nodes                │
└──────────────────────────────┴──────────────────────────────────┘

Messbare Ergebnisse

KPI Vorher (manuell) Nachher (n8n) Verbesserung
Edge Case Identifikation 2-3 Tage < 1 Stunde 95% schneller
ODD-Status Aktualisierung Wöchentlich Real-time Kontinuierlich
Compliance-Report Erstellung 4h/Woche Automatisch 100% Zeitersparnis
Test-zu-Simulation Feedback 1 Woche 24 Stunden 85% schneller
Homologations-Lücken Quartalsweise erkannt Täglich 90% früher

Fazit

Die ADAS Test-Daten-Pipeline mit n8n löst ein Problem, das SAP strukturell nicht adressieren kann: die Orchestrierung von unstrukturierten Sensordaten, KI-gestützter Analyse und spezialisiertem Regulatory Tracking.

Der Mehrwert:

  • Schnellere Iteration: Edge Cases werden in Stunden statt Tagen in die Simulation überführt
  • Compliance-Sicherheit: Homologations-Lücken werden täglich erkannt, nicht quartalsweise
  • Skalierbarkeit: Der Workflow skaliert mit der Testflotte, ohne manuelle Mehrarbeit

Tech Stack: n8n, PostgreSQL, OpenAI/Claude, S3/MinIO, Teamcenter, CARLA

Regulatorik: UN R155, UN R156, UN R157, ISO 26262


Interesse an einer Implementierung? Dann schreib mir einfach auf LinkedIn oder buche direkt einen kostenlosen Call.