Unternehmen stehen heute unter Druck, aus ihren großen Datenmengen plausible Schlussfolgerungen zu ziehen und dadurch neue Geschäftsprozesse einzuleiten. Aber was ist nötig, um möglichst in Echtzeit die vorhandenen Daten zu verstehen? In diesem Webcast sprechen wir über drei aktuelle Trends im „Big Data Business“.
Sprecher
Thomas Steimle
Team Lead Workstation Sales, HP Deutschland GmbH
Marc Stampfli
Country Sales Manager, NVIDIA
Axel Oppermann
Analyst des Beratungs- und Analystenhauses Avispador
Christian Töpfer
Manager Solutions & Services, heise Business Services
In jedem Unternehmen werden täglich unzählige Daten gesammelt, die aus Kontakten mit Partnern, Kunden oder Interessenten entstehen. Wer nicht spätestens jetzt damit beginnt, aus diesen Daten neue Geschäftsmodelle zu gewinnen oder bestehende Prozesse zu justieren, für den wird es bald zu spät sein. Denn der Wettstreit um die Echtzeitanalyse von Daten für lukrative Erkenntnisse ist in vollem Gang.
Ein Schlüssel auf dem Weg zu den richtigen Entscheidungen ist die Herangehensweise. In diesem Webcast sprechen Thomas Steimle von HP, Marc Stampfli von Nvidia und Axel Oppermann vom Beratungs- und Analystenhaus Avispador über Trends, Innovationen und Strategien bei der Datennutzung.
Konkret geht es um diese drei Themen:
a) Weg von der Cloud und hin zum Edge
Nach Meinung vieler Experten wird sich die Datenanalyse in Zukunft aus der Cloud an den Rand des Netzwerks, also in die „Edge“, verschieben. Damit sind alle Arten von Geräten gemeint, zum Beispiel Maschinen, Autos, Straßenlaternen, intelligente Geräte im Haus oder medizinische Apparate.
Diskussion: Welche neue Möglichkeiten eröffnen sich, wenn der Sammelpunkt der Daten direkt vor Ort liegt?
b) Machine Learning als Dienstleistung
Aktuelle Untersuchungen zeigen, dass 80 % der Unternehmensdaten unstrukturiert vorliegen. Einfache BI-Tools sind nicht mehr in der Lage, diese Daten zu analysieren – fortschrittliche Werkzeuge sind gefragt. Als Antwort auf diese Herausforderung haben Anbieter begonnen, maschinelles Lernen „as a Service“ anzubieten („MLaaS“).
Diskussion: Welche Konsequenz wird „Machine Learning für alle“ oder „KI für alle“ haben?
c) GPU-Technologie für mehr Rechenleistung nutzen
Datenanalysten sind oft frustriert, wenn ihre Tools durch eine zu geringe Rechenleistung eingeschränkt werden. Um diesen Engpass zu beseitigen, bringen Firmen eine neue Generation von ultramächtigen Grafikprozessoren (GPUs) heraus. Ursprünglich nur für die Grafikverarbeitung der CPU in Games gedacht, erweist sich die GPU-Architektur mittlerweile aber als ebenso effektiv bei der Analyse riesiger Datenmengen.
Diskussion: Welche Folgen hat das für die Hardware-Ausstattung in Rechenzentren? Lesen Sie dazu auch „Laptops und Desktops für Data Science und Analytics“.
Moderiert wird der Webcast von Christian Töpfer von Heise Business Services. Registrieren Sie sich jetzt!