Zum Hauptinhalt springen
Die Zukunft der Data Science

Die Zukunft der Data Science

KI und Machine Learning am Edge: Die Vorteile lokaler Data-Science-Analysen

KI und Machine Learning am Edge: Die Vorteile lokaler Data-Science-Analysen
Z-Logo-Black.jpg
Firma: HP Deutschland GmbH
Sprache: Deutsch
Größe: 1 Seite
Erscheinungsjahr: 2021
Besonderheit: registrierungsfrei

Unternehmen investieren zunehmend in Workstations für Data-Science-Workloads. Das ist kein Wunder, denn die lokale Verarbeitung und Analyse von Daten bringt viele Vorteile. Vor allem der Einsatz von künstlicher Intelligenz und Machine Learning profitiert vom Edge-Ansatz.

Laut einer Umfrage des Beratungsunternehmens Deloitte glauben fast 80 Prozent der deutschen Unternehmen, dass Machine Learning und andere KI-Verfahren sehr bedeutend oder sogar kritisch für ihren Geschäftserfolg sind. Bei der tatsächlichen Nutzung stehen die meisten jedoch erst am Anfang. Im Jahr 2019 setzten einer Studie des Bundesministeriums für Wirtschaft und Energie (BMWi) zufolge gerade einmal 5,8 Prozent aller betrachteten Unternehmen KI in Produkten, Dienstleistungen oder internen Prozessen ein. „Trotz des großen Interesses an Data Science und KI und einiger erster Erfolge gibt es immer noch erhebliche Unsicherheiten darüber, in welche Geschäftschancen und Technologien Unternehmen investieren sollten“, sagt Jack Vernon, Senior Research Analyst bei IDC.

Die Public Cloud scheint dafür der ideale Startpunkt zu sein, da sie fertige KI- und Machine-Learning-Services bereitstellt, die einfach zu abonnieren und zu nutzen sind. Tatsächlich spielt Cloud Computing bei der Verbreitung von künstlicher Intelligenz derzeit aber noch eine untergeordnete Rolle. Laut dem Cloud Monitor 2021 von Bitkom Research und KPMG nutzen nur sieben Prozent der Umfrageteilnehmer KI-Anwendungen aus der Public Cloud, 20 Prozent planen dies. Für zwei Drittel der Befragten kommt deren Einsatz nicht in Frage. „Auch wenn Public-Cloud-Provider oft einen anderen Eindruck erwecken, implementieren die meisten Organisationen KI-Technologien lieber lokal,“ sagt Jack Vernon. Der IDC-Analyst erwartet, dass sich dieser Trend in den kommenden fünf Jahren fortsetzt: „Wir rechnen mit einem durchschnittlichen jährlichen On-Premises-Wachstum von über 17 Prozent.“

Die fünf Schlüsselfaktoren für die lokale Nutzung

Vernon nennt die folgenden fünf wesentlichen Gründe, warum sich Unternehmen für die lokale Nutzung von KI-Technologien entscheiden:

  1. Hohe Sicherheit und garantierter Datenschutz: Geschäftsgeheimnisse, personenbezogene Informationen und andere sensible Daten lassen sich in der Public Cloud nicht oder nur mit großem Aufwand vor fremden Augen schützen. In bestimmten Organisationen und Branchen, etwa bei Behörden oder Finanzdienstleistern ist die Verwendung von Public-Cloud-Ressourcen sogar gesetzlich verboten oder stark erschwert. „Viele Unternehmen wollen Machine Learning und KI auch für Daten nutzen, die sie nicht außer Haus geben können oder wollen“, erklärt der IDC-Analyst.
  2. Geringe Latenz: Trotz aller Fortschritte in der Datenübertragung lassen sich physikalische Gesetzmäßigkeiten nicht aushebeln. Große Entfernungen zwischen dem Ort der Datenentstehung und der Datenanalyse führen daher zwangsläufig zu längeren Laufzeiten. „Bei Anwendungsfällen, in denen Analysen in  Echtzeit erfolgen müssen, reichen Bandbreite und Übertragungsgeschwindigkeit nicht aus, um Daten in der Cloud zu bearbeiten“, erläutert Vernon.
  3. Einfache Weiterverwendung: KI-Services aus der Cloud sind vorkonfektioniert und daher für Pilotprojekte schnell anwendbar. Bei der Übertragung in den operativen Betrieb oder auf andere Anwendungsszenarien stoßen Unternehmen jedoch schnell an Grenzen. „Eine einmal On-Premises aufgebaute KI-Infrastruktur lässt sich dagegen jederzeit auch für andere Use Cases einsetzen“, betont der IDC-Experte.
  4. Bessere Integrierbarkeit: Noch immer befindet sich ein Großteil der Daten, Applikationen und Ressourcen von Unternehmen nicht in der Cloud, sondern in Rechenzentren vor Ort. „Die Einbindung von KI-Technologien in bestehende lokale Infrastrukturen ist bei einer On-Premises-Bereitstellung wesentlich einfacher“, so Vernon weiter.
  5. Möglichkeiten für Experimente und Weiterentwicklung: Die nutzungsbasierte Abrechnung von Cloud-Ressourcen ist Fluch und Segen zugleich. Sie spart einerseits Investitionen, erschwert es aber andrerseits, über die geplanten Projekte hinaus zu denken. Schließlich erzeugt jedes Experiment zusätzliche Kosten. „Eine eigene lokale KI-Infrastruktur lässt sich dagegen unbegrenzt für experimentelle Weiterentwicklungen einsetzen“, sagt der IDC-Analyst.

Warum Unternehmen in Workstations für KI und Machine Learning investieren

Laut Vernon stellen Workstations die ideale Plattform dar, um mit der Entwicklung und Nutzung von KI-Anwendungen zu beginnen: „Mit dem Einsatz von Data-Science-Workstations erhalten Anwender Zugang zu einem ganzen Ökosystem von Technologieressourcen“, erklärt der Experte. So können Data Scientists auf ihrer Workstation Lernplattformen wie Kaggle, Coursera oder Udemy nutzen, Open-Source-Frameworks wie TensorFlow, PyTorch oder Caffe installieren und mit Tools wie RAPIDS oder Kubernetes das Management von Daten und Applikationen vereinfachen und beschleunigen.

Ein weiterer wesentlicher Grund, der für den Workstations-Einsatz spricht, ist die enorme Rechenleistung, die sie für Machine Learning und KI bieten. „Um etwa den BERT-Algorithmus von Google für die Erkennung natürlicher Sprache zu trainieren, müssen 16 Grafikprozessoren sieben Tage lang arbeiten“, erläutert Vernon, „eine solche Arbeitslast lässt sich lokal auf einer Workstation sehr viel besser planen und terminieren als in der Cloud.“ Z by HP bietet beispielsweise mit den Modellen „HP Z4 G4“ und „HP Z8 G4“ für Data Science optimierte Workstations, die mehrere Milliarden Datensätze in wenigen Minuten bearbeiten können. Mit vollständig integrierten NVIDIA Quadro RTX-Grafikprozessoren und beschleunigter CUDA-X AI Data Science-Software sind sie bis zu zehn Mal schneller als herkömmliche CPU-Lösungen.

Fazit: Data Science braucht lokale KI-Ressourcen

Unternehmen haben das Potenzial von Machine Learning und künstlicher Intelligenz zwar erkannt, aber noch längst nicht ausgeschöpft – im Gegenteil: Viele Projekte bleiben in der Proof-of-Concept-Phase stecken und erreichen nie die produktive Umsetzung. Die Gründe dafür sind vielfältig. Häufig fehlt es an Know-how und an der Bereitschaft aller, interdisziplinär und abteilungsübergreifend zusammenzuarbeiten. Sicherheitsbedenken und Datenschutzvorgaben hemmen die KI-Nutzung zusätzlich, vor allem, wenn es um den Einsatz von Public-Cloud-Ressourcen geht. IT-Entscheider tun daher gut daran, KI als strategisches Projekt zu sehen, die unternehmensweite Zusammenarbeit zu fördern und die Data Scientists mit den notwendigen Technologien auszustatten. Workstations spielen dabei eine entscheidende Rolle, denn sie befähigen Datenwissenschaftler, schnell und effizient zu Ergebnissen zu kommen, die nicht nur beeindrucken, sondern auch einen echten Beitrag zum Unternehmenserfolg leisten.

578 Views / Downloads

Teilen

KI und Machine Learning am Edge: Die Vorteile lokaler Data-Science-Analysen

Inhaltstyp: Artikel
Z-Logo-Black.jpg

Kommentare und Feedback (0)