Werkzeuge zur Auswertung von Unternehmensdaten gibt es reichlich. Doch viele Ergebnisse sind oft prädiktiv, also im Voraus „erwartbar“, weil sie mit historischen Daten arbeiten. Analyse-Tools, die selbstoptimierende Machine-Learning-Algorithmen nutzen, kommen dagegen zu völlig neuen und überraschenden Erkenntnissen. In diesem Webcast erfahren Sie, wie dieser Adaptive-Analytics-Ansatz im Detail funktioniert und wofür er sich besonders gut eignet.
Sprecher
Jannis Stegmann
Sales Engineer, InterSystems GmbH
Christian Töpfer
Manager Solutions & Services, heise Business Services
Je mehr Daten ein Unternehmen generiert, desto größer ist der Bedarf an technischen Hilfsmitteln zu deren Auswertung – allen voran Business-Intelligence-Werkzeuge wie IBM Cognos, Qlik View oder Microsoft Power BI. In den meisten Fällen führen BI-Tools ihre Analysen auf Basis vorhandener Daten durch und leiten daraus Prognosen für die Zukunft ab. Dieser prädiktive Ansatz stößt allerdings schnell an Grenzen, wenn bislang unbekanntes unternehmerisches Terrain beschritten werden soll. Denn es liegen ja noch keine Daten vor, mit denen man arbeiten könnte.
Einen Ausweg aus dem Dilemma bietet das Konzept der „Adaptive Analytics“ (= lernfähige Datenanalyse). Damit ist gemeint, dass entsprechende Analyse-Tools Machine-Learning-Algorithmen verwenden, die sich fortwährend selbst optimieren. Dadurch ist gewährleistet, dass auch unvorhergesehene Ereignisse unmittelbar analysiert werden können – sofern die verwendete Datentechnologie dies unterstützt, sogar in Echtzeit. Gleichzeitig optimiert Adaptive Analytics im laufenden Betrieb automatisch die Performance der Abfrage- und Analyseleistung, indem aus den verwendeten Queries Annahmen für verwandte, zukünftige Abfragen abgeleitet werden.
Adaptive Analytics ermöglicht es dadurch, wesentlich schneller zu aufschlussreichen, zum Teil auch überraschenden Erkenntnissen zu gelangen, weil der Zeitbedarf für die Anpassung des verwendeten Datenmodells wesentlich geringer ist als mit herkömmlichen Ansätzen. Dank einer virtuellen Datenmodellschicht ist zudem die Etablierung einer „Single Source of Truth“ gewährleistet, so dass das gesamte Unternehmen auf den gleichen, stets aktuellen Datenbestand zugreifen kann.
In diesem Webcast erklärt Ihnen Jannis Stegmann von InterSystems, wie die Umsetzung eines solchen Konzepts im Detail aussehen kann und wie Unternehmen im Alltag davon profitieren können. Inhaltliche Schwerpunkte des Webcasts:
- Prädiktive vs. lernfähige Analysen – wo liegen die Unterschiede?
- „Single Source of Truth“ als Fundament für bessere Entscheidungen
- Die Vorteile einer virtuellen, semantischen Datenmodellschicht
- Typische Anwendungsfälle für Adaptive Analytics
- Voraussetzungen und Umsetzungsmöglichkeiten
Die Moderation des Webcasts übernimmt Christian Töpfer von Heise Business Services. Registrieren Sie sich jetzt!