Abstract

Data Science steht im Kern für die Extraktion von Wissen aus Daten. Dazu werden Algorithmen, Verfahren und Techniken aus den Bereichen der Mathematik, Statistik und Informationstechnologie angewandt und mit Fachwissen kombiniert. Data Science ist eine etablierte Disziplin, die durch die zunehmende Digitalisierung und die damit verbundene Verfügbarkeit von immer mehr Daten einen Aufschwung erlebt hat und immer mehr Momentum bekommt.

Schnittstelle

Die Herausforderung bei Data Science besteht darin, dass hier Probleme an der Schnittstelle Mathematik, IT und Domäne/Fachgebiet gelöst werden müssen. Nur wenn all diese drei Aspekte entsprechend berücksichtigt werden, ist es möglich gute und nützliche Lösungen zu erzielen. Data Science Projekte sind in der Regel das Ergebnis von Teamarbeit aus unterschiedlichsten Fachgebieten.

Resultate aus Data Science Projekten umfassen neben dem Wissensgewinn meist auch Algorithmen und Software, die automatisierte und skalierbare Entscheidungen ermöglicht.

Data Engineering

– Ist ein wichtiger Aspekt im Zusammenhang mit Data Science. Die Daten, die später analysiert werden sollen, müssen erst zusammengetragen bzw. bereitgestellt, aufbereitet und validiert werden. Teilweise kommen hier auch Big Data Techniken zum Einsatz.

 

Künstliche Intelligenz (KI)

– und hier insbesondere der Bereich des maschinellen Lernens ist ein wichtiges Werkzeug für Data Scientists. Dabei lernen Computer anhand von Daten intelligentes Verhalten, ohne dass sie dafür explizit programmiert werden.

Unter Anwendung von Data Science, Data Engineering und KI lassen sich Anwendungsfälle wie Predictive Maintenance, Product Recommendation, Sales Forecasting, Image Recognition oder Fraud Detection realisieren, um nur einige zu nennen.

Weiterführende Informationen:

Begriff „Data Science“:
https://de.wikipedia.org/wiki/Data_Science
Fachbuch:
O’Neil, C. & Schutt, R. (2013). Doing Data Science: Straight Talk from the Frontline. O’Reilly Media

Referenzprojekte

BearingPoint GmbH

Standort Graz

 officegraz@bearingpoint.com

 

 

Projektauftrag

Softwaresysteme produzieren oft eine sehr große Anzahl an Logdaten. Verstärkt durch den Shift Richtung cloudbasierter Services und deren Microservice Architekturen erhöht sich die Anzahl an unterschiedlicher Logquellen stark. Da Logdaten eine wichtige Auskunft über den Zustand eines Systems geben, war es das Ziel des Projekts eine Plattform zu entwickeln, die Anomalien anhand der unterschiedlichen Logabläufe erkennt.

Vorgehensweise bei der Umsetzung

Es wurde eine Plattform basierend auf Open Source Technologien (Kubernetes, Kafka, Elastic Stack) entwickelt, die die Logdaten aus unterschiedlichsten Quellen für die Anomalie-Erkennung entsprechend aufbereitet und weiterverarbeitet. Bei der Umsetzung war es von Bedeutung, dass die Komponenten ohne größeren Aufwand sowohl On Premise als auch in einer Public Cloud lauffähig sind. Es wurde ein Modell basierend auf einem neuronalen Netz (konkret LSTM) entwickelt, das Anomalien anhand Logsequenzen erkennen kann. Diese gefundenen Anomalien – zusammen mit den anderen Logdaten – werden in einem zentralen Datenspeicher abgelegt und können somit durchsuchbar und visualisierbar gemacht werden.

Aufgabe der ITCS Firma

  • Analyse der Inputdaten
  • Aufbau einer Pipeline für Online Anomalie Erkennungen und Offline Training
  • Entwicklung eines Modells zur Erkennung von Anomalien in sequenzbasierten Daten
  • Integration in das zentralisierte Logaggregierungssystem inklusive Visualisierungsmöglichkeit

Kundennutzen

  • Die rohen Logdaten werden automatisch aufbereitet und es werden so genannte Event Templates extrahiert inklusive der dynamischen Logparameter.
  • Die automatische Anomalie Erkennung unterstützt beim Analysieren von Fehlern im System und verkürzt dadurch die Analysezeit.
  • Basierend auf den gefundenen Anomalien können entsprechende Visualisierungen oder fortführende Automatismen (z.B. Alamierungen) gebaut werden.

axtesys GmbH

Simon Klima

Projektauftrag

Die Leupamed GmbH handelt seit 30 Jahren erfolgreich als Familienunternehmen mit medizinischen Geräten aus den Bereichen Labor, Diagnose und Therapie. Vor einigen Jahren wurde auf ein digitales ERP System gesetzt und damit die Weichen in Richtung Digitalisierung gestellt. Nun gilt es den Datenschatz zu heben. Hier konnten die Spezialisten von axtesys den entscheidenden Impuls beitragen.

Aufgabe der ITCS Firma

Die Möglichkeiten von Excel waren schnell ausgeschöpft, Aktualisierungen mühsam und repetitiv. Der Wunsch nach einem professionellen und möglichst vielseitigen Tool zur Analyse und für effektive und einfache Kommunikation mündete in dem Einsatz und Erlernen der Statistik Software R. Hier konnte axtesys zum einen professionelle Reporting- und Dashboard Lösungen liefern und zum anderen einen Wissenstransfer zur selbstständigen Nutzung ermöglichen.

Vorgehensweise bei der Umsetzung

Die Umsetzung erfolgte agil in mehreren Zyklen aus gemeinsamen Sessions und selbständiger Ausarbeitung der Details.  Ein besonderer Fokus lag auf dem Wissenstransfer und der raschen und professionellen Umsetzung der gemeinsam erarbeiteten Ideen.

Kundennutzen


„Immens was wir in der kurzen Zeit alles anpacken und umsetzen konnten. Und das ist erst der Anfang!“, ist Leupamed-Stratege Matthias Pachler über die neuen Möglichkeiten begeistert. “Alleine die aus der Zusammenarbeit neu entstanden Ideen haben disruptives Potential für uns.“

Weiterführende Informationen:

https://axtesys.at/referenzen/leupamed-business-intelligence-skills-und-data-science/

Know-Center GmbH

Robert Ginthör

Projektauftrag

Für Fahrzeugimporteure und Autohändler stellt die starke Saisonalität und Dynamik ihres Marktumfeldes eine große Herausforderung dar. Daher sollte ein Prognosemodell für die Nachfrage nach Neuwagen, basierend auf historischen Daten zur Marktleistung neuer Automodelle, entwickelt werden. Mittels Visualisierung der Prognoseresultate in einem interaktiven Dashboard kann der Kunde, die Porsche Holding, datengetrieben strategische Vertriebsentscheidungen treffen.

Vorgehensweise bei der Umsetzung

Zuerst wurden die historischen Absatzdaten hinsichtlich Zusammenhänge zwischen Markteinführungszeitpunkten und Absatzkennzahlen analysiert. Darauf basierend wurden in weiterer Folge unterschiedliche Prognosemodelle entwickelt. Dabei kamen rekurrente neuronale Netzwerke (RNN) und SARIMA (Seasonal Autoregressive Integrated Moving Average)-Methoden zum Einsatz.

Die Vorhersagen der einzelnen Modelle wurden mit Hilfe eines browserbasierten interaktiven Dashboards visualisiert und damit die Leistungsfähigkeit der unterschiedlichen Vorhersagemodelle für kurze, mittlere und lange Prognosezeiträume ausführlich evaluiert. Die erfolgreichsten Modelle wurden anschließend für die Optimierung der Markteinführungs-Strategien bei Porsche Holding verwendet.

Aufgabe der ITCS Firma

  • Analyse der historischen Absatzdaten
  • Entwicklung eines Prognosemodells
  • Visualisierung der Vorhersagen mittels Dashboard

Kundennutzen

Der Einsatz eines datengetriebenen Werkzeugs für die Vorhersage der Dynamik von Absatzmärkten unterstützt die Optimierung eines kritischen Schrittes in der Wertschöpfungskette der Porsche Holding Austria und ermöglicht dem größten Automobilhändler Europas, datengetrieben strategische Vertriebsentscheidungen zu treffen.

Weiterführende Informationen:

https://www.know-center.tugraz.at/business-success-story/porsche-holding/

axtesys GmbH

Simon Klima

 simon.klima@axtesys.at

Projektauftrag

Täglich gehen unzählige Anfragen bei der Kundenservicestelle der Energie Graz ein. Für die Bearbeitung wurde für jede Anfrage ein Ticket im internen Ticketsystem erstellt und manuell einer Kategorie und Abteilung zur Bearbeitung zugeordnet. Da das sehr arbeitsintensiv ist, haben wir ein Pilotprojekt gestartet, um den täglichen Arbeitsprozess zu erleichtern. Die Aufgabenstellung einer automatisierten Zuordnung bot hier den idealen Einstieg in die Anwendung von künstlicher Intelligenz.

Kundennutzen

In diesem Pilotprojekt konnte axtesys erfolgreich aufzeigen, dass eine automatische Kategorisierung der Kundenanfragen möglich ist und die entwickelte Lösung eine hohe problem- und kundenspezifische Genauigkeit bietet. „Die Kategorisierung von E-Mails und Tickets ist nun wesentlich einfacher und trägt zu einer effizienteren Abwicklung der Arbeitsaufträge bei. Zudem verbessert die Kategorisierung die Datenqualität und liefert uns bessere Auswertungsmöglichkeiten. Das führt nicht nur zu Kosteneinsparungen durch Zeitgewinn in der Kundenservicestelle, sondern auch zu zufriedeneren Kunden und Kundeinnen durch raschere Abwicklung der Abfragen“, freut sich auch Silvia Essl von Energie Graz.

Aufgabe der ITCS Firma

  • Analyse der bestehenden Ist-Daten
  • Textmining und Extraktion von Keywords
  • Erstellung eines Prognosemodells
  • Umsetzung und Implementierung

Vorgehen bei der Umsetzung

In der zweimonatigen Analysephase wurden mithilfe von Textmining-Methoden relevante und insbesondere vorhersagekräftige Keywords identifiziert. In einem Proof of Concept (PoC) wurde gezeigt, dass mithilfe eines Machine-Learning-Algorithmus die Kategorisierung mit sehr hoher Genauigkeit automatisch durchführbar ist.

„Wir haben zudem besonderen Wert auf die Veranschaulichung der zugrundeliegenden Arbeitsweise gelegt. Wir lieferten tiefe Einblicke in die Methoden von Data Science und Advanced Analytics und schärften so das Verständnis für die Möglichkeiten von KI. Dadurch sind auch bereits weitere Ideen für den Einsatz von KI im Unternehmen entstanden“, so Simon Klima.

Im Anschluss wurde der Algorithmus erfolgreich implementiert.

Know-Center GmbH

Robert Ginthör

Projektauftrag

Der Logistikprozess in der Fahrzeugfertigung liegt im Spannungsfeld der Fachbereiche Einkauf, Disposition, Transport, und Materialwirtschaft. Es sollte daher für den Kunden, die Magna Steyr Fahrzeugtechnik, eine Simulations- und Visualisierungsumgebung entwickelt werden, die eine Analyse und Optimierung der bereichsübergreifenden Versorgungskosten der Supply Chain ermöglicht.

Vorgehensweise bei der Umsetzung

Um den Logistik-Prozess aus allen Perspektiven darstellen zu können, wurden mit allen Beteiligten die jeweiligen Prozess-Sichten analysiert und Schlüsselparameter und Daten identifiziert. Anschließend wurden in moderierten Diskussionen die Zusammenhänge zwischen den Perspektiven erarbeitet. Dabei wurden neben der Identifikation einzelner Kostentreiber innerhalb des Logistikprozesses bereits Vorschläge für die bereichsübergreifende Kostenoptimierung erstellt.

Das daraus entstehende Bild der Gesamt-Logistik wurde in eine interaktive datengetriebene Visualisierung übersetzt, wobei komplexe Algorithmen die Kosten für jeden Schritt im Logistikprozess individuell simulieren. Damit werden in einer vollständigen Betrachtung die Kostenbausteine der gesamten Versorgungskette je Lieferwerk optimiert.

Aufgabe der ITCS Firma

  • Analyse der Prozess-Sichten zusammen mit Fachbereichsverantwortlichen
  • Identifikation der Datenquellen und Schlüsselparameter
  • Entwicklung einer Simulations- und Visualisierungsumgebung

Kundennutzen

Die Simulations- und Visualisierungsumgebung erlaubt es den Anwendern, Echtdaten-basierte Modellrechnungen anzustellen und damit strategische Alternativen einfacher zu evaluieren. Durch das Projekt werden die bereichsübergreifenden Versorgungskosten reduziert und damit einhergehend positive Klimaeffekte in Form von CO2-Einsparungen erzielt.

Weiterführende Informationen:

https://www.know-center.tugraz.at/business-success-story/magna-logistik/