← Zurück zum Portfolio
AI Konzeptprojekt

D&D Risk Monitor

Wie AI Logistikteams helfen kann, Demurrage & Detention-Risiken proaktiv zu managen – mit Fokus auf vertrauenswürdige Human-AI Interaction.

D&D-Gebühren: ein Milliardenproblem

Demurrage & Detention (D&D) Gebühren kosten die Logistikbranche jährlich Milliarden. Das Problem: Die meisten Unternehmen reagieren erst, wenn die Gebühren bereits anfallen.

Informationen verstreut

Daten über Container-Status sind über Carrier-Portale, E-Mails, interne Systeme und Häfen verteilt.

Reaktiv statt proaktiv

Teams erfahren oft erst von Problemen, wenn die Free Time bereits abgelaufen ist.

Hohe kognitive Last

Operations-Teams müssen hunderte Container gleichzeitig überwachen – ohne klare Priorisierung.

Komplexe Regeln

Gebührenstrukturen variieren je nach Hafen, Carrier und Container-Typ – schwer zu überblicken.

Was Nutzer wirklich brauchen

Basierend auf Gesprächen mit Operations-Teams und meiner Erfahrung im Logistik-Tech-Bereich habe ich den Kern-Job identifiziert:

„Hilf mir, unnötige D&D-Kosten zu vermeiden, indem du mich frühzeitig warnst und mir hilfst, schnell zu handeln."

Dieser Use Case erfüllt die Kriterien für einen guten AI-Anwendungsfall:

Kriterium Bewertung
Hohe Frequenz ✓ Täglich, hunderte Container
Großes Problem ✓ Direkte Kostenwirkung
Beschreibbarer Prozess ✓ Klare Regeln und Fristen
Integration möglich ✓ APIs zu Carrier-Systemen

Assistive AI, nicht autonome AI

Für diesen Use Case habe ich bewusst einen assistiven Ansatz gewählt:

Entscheidung Wahl Begründung
Interaktionstyp Assistiv AI empfiehlt, Mensch entscheidet
Sichtbarkeit Semi-sichtbar Dashboard + Alerts, kein Chat-First
Automatisierungsgrad Level 2-3 Schlägt Aktionen vor, kann Entwürfe erstellen

Von der Warnung zur Aktion

User flow wireframe showing dashboard to resolution steps

Der Flow führt Nutzer von der Übersicht gezielt zur Aktion – ohne Umwege:

1. Dashboard

Übersicht aller Container mit AI-generiertem Risiko-Score. Priorisierung auf einen Blick.

2. Risk Alert

Proaktive Benachrichtigung bei erkanntem Risiko. Schneller Einstieg in Details.

3. AI Analysis

Erklärung warum die AI diesen Container markiert hat. Konfidenz-Level sichtbar.

4. Resolution

Konkrete Handlungsoptionen mit AI-Unterstützung. Nutzer behält volle Kontrolle.

Dashboard & Detail-Ansicht

D&D Risk Monitor Dashboard

Dashboard mit Container-Übersicht und Risiko-Scores

Container Risk Analysis with AI recommendations

Detail-Ansicht mit AI-Analyse und Handlungsempfehlungen

Vertrauen durch Transparenz

Um Vertrauen in AI-Entscheidungen zu schaffen, habe ich vier zentrale UX-Patterns angewendet:

AI UX Design Patterns: Confidence, Explainability, Override, Progressive Disclosure

Konfidenz-Indikatoren

Zeigt wie sicher die AI-Vorhersage ist. Nutzer können einschätzen, wie viel Gewicht sie der Empfehlung geben sollten.

Erklärbarkeit

Jede AI-Empfehlung zeigt, warum sie getroffen wurde. Keine Black Box.

Human Override

Nutzer können jede AI-Entscheidung überschreiben. Die Kontrolle bleibt beim Menschen.

Progressive Disclosure

Zusammenfassung zuerst, Details auf Nachfrage. Reduziert kognitive Last.

Was ich gelernt habe