Forschung

In unserer quantitativen, vorwiegend datenanalytischen Forschung befassen wir uns mit der Gestaltung moderner Informationssysteme im und zwischen Unternehmen insbesondere im Rahmen der – und zur – digitalen Transformation.

Neben Digitalen Geschäftsmodellen und Systemen liegt ein Fokus auf Data Science und Business Analytics zur Integration und Verarbeitung heterogener Unternehmens- und Kundendaten. Speziell geht es darum, komplexe Datenbestände zu analysieren, zu transformieren, in Entscheidungsunterstützungssystemen zu nutzen und damit gewinnbringend im Unternehmen zur Planung, Steuerung und Koordination einzusetzen. Eine wesentliche Rolle in unserer Forschung spielt dabei die Reduktion der Dimensionalität von Daten, die Generierung nützlicher Features aus heterogenen Datenbeständen sowie die Vereinfachung betrieblicher Probleme durch die Integration geometrischer Methodik und mathematischer Optimierung.

Die Entwicklung neuartigen Entscheidungsunterstützungssysteme sowie Methoden und IT-Systeme zur Kombination und Aggregation heterogener Daten, Meinungen und Prognosen sind weitere Schwerpunkte unserer Forschung.

Aktuelle Forschungsthemen

Analytische Modelle zur Prognosekombination

Möglichst genaue Prognosen sind im Unternehmen die Basis für sinnvolles proaktives Handeln und Planen. Interessanterweise liefert dabei ein gewichtetes Mittel von nicht vollständig korrelierten Einzel-Vorhersagen oder -Erwartungen in der Regel genauere Werte als die beste individuelle Prognose bzw. Erwartung. Wenngleich bekannt ist, dass eine Kombination in der Regel vorteilhaft ist (und unter gewissen Rahmenbedingungen sogar beweisbar besser sein muss), existieren keine analytischen Entscheidungsmodelle, welche individuellen Prognosen kombiniert werden sollen, und wie diese relativ zueinander gewichtet werden sollen. In unserer Forschung entwickeln wir asymptotisch-optimale Gewichtungsschemata von Prognosen durch neue Modelle aus der statistischen Lerntheorie zur Bestimmung und Minimierung der Fehlerkomponenten von Kombinationsverfahren.

Hybride Recommender-Systeme

Recommender-Systeme haben die Aufgabe, das Interesses bzw. den Nutzen eines Benutzers an einem Objekt vorherzusagen, um dem Benutzer die für ihn interessantesten Objekte zu empfehlen. Typische Anwendungsbereiche sind Produkte eines Webshops, Musikstücke, Filme, von Suchmaschinen angezeigte Webseiten sowie personalisierte Werbe-Banner im Internet, insbesondere in Affiliate Networks. Zur Ermittlung der passenden Empfehlungen werden dabei Verfahren des Maschinellen Lernens und des Information Retrievals angewendet. In unserer Forschung hierzu entwickeln und erproben wir neue statisch-mathematische Methodik zur Hybridisierung von Recommender-Systemen, d. h., zur gewinnbringenden Integration unterschiedlicher Recommender-Systeme (unterschiedliche Algorithmen, die auch auf unterschiedlichen Daten basierend) zur Verbesserung der Vorhersagekraft.

Reduktion und Orthogonalisierung hoch-dimensionaler kombinatorischer Probleme

Komplexe betriebliche Planungs- und Optimierungsprobleme haben oftmals eine große Anzahl an Nebenbedingungen, sogenannte Dimensionen, wobei die Berechnungs- und Speicherkomplexität eines Problems in aller Regel superlinear mit dessen Dimensionalität steigt. Dadurch können viele Praxisprobleme meist nicht mehr optimal gelöst werden und es kommen Lösungs-Heuristiken aus dem Operations Research zum Einsatz. In unserer Forschung verfolgen wir hierfür neue geometrische Ansätze, bei denen die Matrix der Nebenbedingungen mittels empirisch-orthogonaler Zerlegung so durch eine niedrig-dimensionale Matrix beschrieben werden kann, dass damit neue Optimierungsprobleme formulierbar sind, die auch das originäre Problem lösen, jedoch eine wesentlich geringere Berechnungskomplexität aufweisen.

Reflektive Entscheidungsunterstützungssysteme

Entscheidungen werden heutzutage zunehmen automatisiert oder daten-unterstützt mittels Decision Support Systems (DSS) getroffen. Obwohl DSS das Ziel haben, möglichst rationale und unverzerrte Entscheidungen zu unterstützen, zeigt die Empirie, dass Entscheidungen auch mit modernen DSS in der Regel sogenannten kognitiven Verzerrungen des Benutzers eines DSS unterliegen und daher suboptimal sind. In unserer Forschung arbeiten wir an neuen Formen von DSS, bei denen typische Verzerrungsmuster aus vergangenen Entscheidungen datenanalytisch extrahiert und einem Entscheider bei dessen zukünftigen Entscheidungen, gemeinsam mit automatisiert erzeugten Erklärungen hierzu (Explanation Engineering), zwecks Selbst-Reflektion als Informationsobjekte verfügbar gemacht werden. Die Projektidee wird derzeit mit einem großen deutschen Konzern pilotiert.

Robustes Abwanderungspräventionsmanagement im CRM

Das Ziel von Abwanderungspräventionskampagnen (Churn Prevention Campaigns) ist es, über Daten-analytische Methodik abwanderungsgefährdete Kunden frühzeitig, vor deren Kündigungsaussprache, zu identifizieren und über geeignete Maßnahmen deren Abwanderung abzuwenden. Hierfür sind nicht nur Abwanderungswahrscheinlichkeiten sondern auch deren Reduktionspotenziale pro Kunde durch eine Maßnahme möglichst genau zu schätzen, was in der Praxis aus diversen Gründen meist nur unzureichend gelingt. Solche Kampagnen erhöhen daher meist die Kündigungsquote sogar noch und werden kaum praktiziert. In unserer Forschung entwickeln wir hierfür robustere Verfahren der Wahrscheinlichkeitsdifferenzschätzung, unter anderem basierend auf distanz-suchendem Pruning differenziellen Klassifikationsbäumen und hierarchischen Bootstrapping-Ansätzen.

Sequential Pattern Analysis und Predictive Maintenance

Industrielle Anlagen sowie Fahrzeuge verfügen heutzutage über eine große Anzahl an Sensoren, die das Verhalten sowie die Zustände technischer Komponenten erfassen. Ziel des Predictive Maintenance ist es, mithilfe solcher Daten, die in Data Warehouses verfügbar gemacht werden, kritische Zustände möglichst frühzeitig zu antizipieren und geeignet zu agieren (proaktiver Austausch von Komponenten, Anpassung der Betriebsmodi, Aufsuchen einer Werkstatt etc.). Von besonderem Interesse ist dabei der sequentielle bzw. zeitliche Verlauf der Entwicklung der verschiedenen Sensorwerte, um daraus Trends, Zusammenhänge sowie kausal-diagnostische Aussagen ableiten zu können. In unserer Forschung entwickeln wir hierfür Verfahren des „Frequent Sequential Pattern Mining“ in multivariaten Felddaten. Darauf basierend kommt Methodik des überwachten Lernens und der probabilistischen Netzwerkmodellierung zum Einsatz, um die Wahrscheinlichkeitsverteilungen kritischer Ereignisse über die Zeit zu bestimmen und damit sinnvoll und wirtschaftlich pro-aktiv agieren zu können.