Zum Hauptinhalt springen
Was versteht man unter Datenanalyse?
logo-energyblue-3000px.png
Firma: Intel
Sprache: Deutsch
Größe: 2 Seiten
Erscheinungsjahr: 2020
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

Ein Verständnis von Daten auf grundlegender Ebene ist entscheidend für den Aufbau eines erfolgreichen Unternehmens. Die Datenanalyse ist der Prozess, durch den Rohdaten zu nutzbarem Wissen werden, das in der Praxis angewendet werden kann. Intel® Technik kommt in allen Phasen der Daten-Pipeline zum Einsatz, um Unternehmen die Erfassung und Analyse für praktisch jeden Zweck zu erleichtern.

Ein Verständnis von Daten auf grundlegender Ebene ist entscheidend für den Aufbau eines erfolgreichen Unternehmens. Die Datenanalyse ist der Prozess, durch den Rohdaten zu nutzbarem Wissen werden, das in der Praxis angewendet werden kann. Intel® Technik kommt in allen Phasen der Daten-Pipeline zum Einsatz, um Unternehmen die Erfassung und Analyse für praktisch jeden Zweck zu erleichtern.

Überblick über die Datenanalyse

  • Bei einer Datenanalyse werden Rohdaten in Wissen und Erkenntnisse umgewandelt, die zum Treffen besserer Entscheidungen dienen können.
  • Bei der Analyse durchlaufen Daten vier Pipeline-Phasen: Aufnahme (Datenerfassung), Vorbereitung (Datenverarbeitung), Analyse (Datenmodellierung) und Aktion (Entscheidungsfindung).
  • Fortgeschrittene Analysen mithilfe maschinellen Lernens und künstlicher Intelligenz (KI) bieten Unternehmen mit ausgereiften Analysefunktionen neue Möglichkeiten.

Erfahren Sie mehr über die KI-Analyse mit Intel

Für Unternehmen und Organisationen aller Art kann die Umwandlung von Daten in handlungsorientierte Erkenntnisse den Unterschied zwischen Erfolg oder Misserfolg bedeuten. Zur Maximierung des Werts von Informationen sind Datenanalysen erforderlich: Dabei werden Rohdaten analysiert, um Schlussfolgerungen zu ziehen.

Zwar analysieren bereits die meisten Unternehmen bestimmte Daten, doch erst moderne Analysen ermöglichen ein beispielloses Maß an Wissen und Erkenntnissen. Wie weit ist Ihr Unternehmen auf dem Weg zu einer daten- und analysegesteuerten Kultur – und wie sieht der nächste Schritt aus?

Das Fundament stellt die Daten-Pipeline dar.

Informationen zur Daten-Pipeline

Die Entwicklung eines optimalen Datenanalyse-Ansatzes ist ein evolutionärer Prozess, der Zeit und Engagement voraussetzt. Unternehmen, die für den nächsten Schritt bereit sind, sollten die Daten-Pipeline sowie den Lebenszyklus von Daten verstehen, die diese Pipeline durchlaufen.

  • Aufnahme: Datenerfassung
    Die erste Phase der Daten-Pipeline ist die Aufnahme von Daten. In dieser Phase werden Daten aus Quellen erfasst und in ein System verschoben, in dem sie gespeichert werden können. Daten lassen sich als kontinuierlicher Stream oder als Serie von diskreten Ereignissen erfassen.

    Bei den meisten unstrukturierten Daten – Schätzungen der IDC zufolge 80 bis 90 Prozent1 – stellt die Erfassung Anfang und Ende des Datenlebenszyklus dar. Diese Daten, „Dark Data“ genannt, werden aufgenommen, aber nie analysiert oder genutzt, um Handlungen im Rest des Unternehmens zu beeinflussen.

    Einer der größten Trends bei fortgeschrittener Datenanalyse beginnt heute bereits in der Aufnahmephase. Dabei wird parallel zum Aufnahmeprozess eine Echtzeit-Analyse der gestreamten Daten durchgeführt. Dies wird als Edge-Analyse bezeichnet und erfordert eine hohe Rechenleistung bei geringem Stromverbrauch. Die Edge-Analyse umfasst häufig IoT-Geräte und Sensoren, die Daten von Geräten erfassen, darunter von Fabrikmaschinen, Straßenlaternen in der Stadt, landwirtschaftlichen Geräten oder anderen vernetzten Dingen.
  • Vorbereitung: Datenverarbeitung
    In der nächsten Phase der Daten-Pipeline werden die Daten zur Verwendung vorbereitet und Informationen in einem System gespeichert, das für Benutzer und Anwendungen zugänglich ist. Um die Qualität von Daten zu optimieren, müssen sie bereinigt und in Informationen umgewandelt werden, die sich leicht aufrufen und abfragen lassen.

    In der Regel werden Daten in einer Datenbank vorbereitet und gespeichert. Verschiedene Arten von Datenbanken werden verwendet, um Daten in unterschiedlichen Formaten und für verschiedenartige Zwecke zu erschließen und zu analysieren. In der Regel übernehmen relationale SQL*-Datenbankmanagementsysteme wie SAP HANA* oder Oracle DB* die Verarbeitung strukturierter Datensätze. Dazu können Finanzdaten, Anmeldedaten oder Daten zur Auftragsverfolgung gehören. Unstrukturierte Daten-Workloads und Echtzeit-Analysen nutzen eher NoSQL*-Datenbanken wie Cassandra und HBase.

    Eine Optimierung dieser Phase der Daten-Pipeline erfordert für schnellere Abfragen eine hohe Rechen- und Arbeitsspeicherleistung sowie Datenverwaltung. Außerdem ist zur Unterstützung großer Datenmengen eine Skalierbarkeit erforderlich. Daten können je nach Dringlichkeit und Nützlichkeit in bestimmten Stufen gespeichert werden, damit die wichtigsten Daten am schnellsten abgerufen werden können.

    Intel® Technik unterstützt heute mehrere der speicher- und arbeitsspeicherintensivsten Anwendungen im Datenbankbereich. Mit Intel® Optane™ SSDs konnte Alibaba Cloud* 100 TB Speicherkapazität für jede POLARDB-Instanz bereitstellen.
  • Analyse: Datenmodellierung
    In der nächsten Phase der Daten-Pipeline werden die gespeicherten Daten analysiert und Modellierungsalgorithmen erstellt. Daten können über eine End-to-End-Analyseplattform wie SAP, Oracle oder SAS analysiert oder von Tools wie Apache Spark* mit hoher Skalierung verarbeitet werden.

    Die Beschleunigung und Reduzierung der Kosten für diese Phase der Daten-Pipeline ist entscheidend, um einen Wettbewerbsvorteil zu erzielen. Bibliotheken und Toolkits können Entwicklungsdauer und -kosten reduzieren. Unterdessen können Hardware- und Softwareoptimierungen dazu beitragen, die Ausgaben für Server und Rechenzentren zu senken, und gleichzeitig die Reaktionszeiten verbessern.

    Techniken wie In-Memory-Analysen können Datenanalysefunktionen optimieren und Analyseinvestitionen kosteneffektiver machen. Mithilfe von Intel ist es dem Chemieunternehmen Evonik gelungen, Neustarts von SAP HANA*-Datentabellen um das 17-Fache zu beschleunigen.2
  • Aktion: Entscheidungsfindung
    Nachdem Daten aufgenommen, vorbereitet und analysiert wurden, können Unternehmen sie nun in der Praxis anwenden. Datenvisualisierung und Berichterstattung helfen bei der Vermittlung von Analyseergebnissen.

    Traditionell war eine Interpretation durch Datenwissenschaftler oder Analysten erforderlich. Sie mussten die Ergebnisse in Geschäftsinformationen umwandeln, die auf breiterer Basis genutzt werden konnten. Unternehmen nutzen jedoch inzwischen auf Grundlage von Analysen KI zur Automatisierung von Aktionen (wie z. B. Senden eines Wartungsteams oder Ändern der Raumtemperatur).

Mehr Informationen über die Daten-Pipeline und dazu, wie Unternehmen ihre Analysefunktionen weiterentwickeln können, finden Sie in unserem E-Book From Data to Insights: Maximize Your Data Pipeline (Erkenntnisse aus Daten: Optimieren Sie Ihre Daten-Pipeline).

Wie weit ist Ihr Unternehmen auf dem Weg zu einer daten- und analysegesteuerten Kultur – und wie sieht der nächste Schritt aus?

8752 Views / Downloads

Teilen

Was versteht man unter Datenanalyse?

Inhaltstyp: Artikel
logo-energyblue-3000px.png