Data Analytics für Lagerlogistik

Zusammenfassung
Das Projekt „Data Analytics für Lagerlogistik“ wurde initiiert, um die Effizienz und Transparenz im Lagerbetrieb zu steigern. Die manuelle Erstellung von Abrechnungen, die mehrere Tage in Anspruch nahm, sowie die mangelnde Klarheit über die Kommissionierleistung auf detaillierter Ebene führten zu erheblichen Verzögerungen und Unsicherheiten. Zudem bestand die Notwendigkeit, die Einhaltung vertraglich vereinbarter Normen und KPIs zu überprüfen, um eine hohe Kundenzufriedenheit sicherzustellen.
Unsere Leistungen
Im Rahmen des Projekts wurden folgende Lösungen realisiert:
- Realtime Überwachung der Kommissionierleistung pro Mitarbeiter und Kunde: Dies ermöglicht eine detaillierte und flexible Analyse der Leistung, die dem Management hilft, operative Entscheidungen zu treffen.
- Automatisierte Generierung von Abrechnungen: Die Bearbeitungszeit für die Erstellung von Abrechnungen wurde von mehreren Tagen auf wenige Minuten reduziert, was die Effizienz erheblich verbessert.
- Automatische Generierung von KPIs für Kunden zur Überprüfung der Normerfüllung: Die KPIs sind ad hoc für Kunden und das Management verfügbar, was die Transparenz und das Vertrauen in die Einhaltung von Vertragsbedingungen stärkt.
Technische Umsetzung
Die technische Umsetzung umfasste folgende Kernbereiche:
- Data Engineering Arbeiten:
- Erfolgreiche Integration externer REST-APIs und SOAP-APIs in die internen Datenstrukturen und Analyse-Datenbanken.
- Aufbau eines Data Warehouses zur Datenaggregation aus mehreren Quellen.
- Design und Einrichtung von ETL-Pipelines in SSIS und Airflow, um eine vollständige Datensynchronisation von externen APIs zum lokalen System zu gewährleisten.
- Data Analytics:
- Erstellung von Business Intelligence-Berichten in PowerBI, die es ermöglichen, datengesteuerte Entscheidungen zu treffen und die internen Lagerprozesse aktiv zu steuern.
- Entwicklung von UX-Dashboard-Designs für eine aktive datengetriebene Kontrolle der internen Lagerproduktionsprozesse.
- Technology Stack: Einsatz moderner Technologien wie SSIS, MS SQL, Python, dbt, SQL, Power BI, Power BI Report Builder, Docker und Airflow, um eine robuste, flexible und skalierbare Lösung zu gewährleisten.