Zum Hauptinhalt springen
Die richtige Hardware für Cloud Computing

Warum Cloud-Services eine leistungsfähige Infrastruktur brauchen

logo-energyblue-3000px.png
Firma: Intel
Sprache: Deutsch
Größe: 0 Seiten
Erscheinungsjahr: 2021
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

Nur mit der richtigen Infrastruktur können Cloud-Provider und Unternehmen die Skalierbarkeit, Hochverfügbarkeit und Sicherheit zur Verfügung stellen, die von den Anwendern erwartet wird. Um die besonderen Hardware-Anforderungen im Cloud Computing zu verstehen und Strategien für den Aufbau eigener Cloud-Ressourcen zu entwickeln, ist ein Blick auf die Infrastrukturen der großen Public-Cloud-Provider sinnvoll. Sie werden gerne auch als „Hyperscaler“ bezeichnet, da sie nahezu unbegrenzt Rechenleistung skalieren können. Dabei spielen vor allem folgende Infrastrukturkomponenten eine wichtige Rolle:

  • Intelligente Verkehrssteuerung: Um Daten und Rechenleistung jederzeit bereitstellen zu können, braucht es Netzwerkkomponenten, die höchsten Durchsatz bieten und die sich flexibel an wechselnde Anforderungen und Arbeitslasten anpassen. Ethernet-Netzwerk-Controller- und -Adapter von Intel unterstützen beispielsweise Bandbreiten von bis zu 100 Gbit/s und können mit Features wie Network Functions Virtualization (NFV) die Paketfilterung, -weiterleitung und -verarbeitung deutlich beschleunigen. Eine erweiterte Verkehrssteuerung mit applikationsspezifischen Warteschlangen (Application Device Queues, ADQ) verbessert Antwortzeiten, senkt die Latenz und erhöht den Durchsatz für priorisierte Applikationen wie Datenbanken und Echtzeitanwendungen. Service Level Agreements (SLA) lassen sich so deutlich einfacher einhalten. Virtuelle Serverumgebungen profitieren darüber hinaus von einer I/O-Virtualisierung. Technologien wie Virtual Machine Device Queues (VMDq) und Flexible Port Partitioning (FPP) mit Single Root I/O-Virtualisierung (SR-IOV) ermöglichen eine I/O-Performance in VMs, die nahezu Hardware-Niveau erreicht.
  • Schutz von Anwendungen und Daten: Wenn Unternehmen personenbezogene Informationen oder Geschäftsgeheimnisse in der Cloud speichern, müssen sie sich auf deren Schutz und Vertraulichkeit verlassen können. Nicht einmal der Cloud-Anbieter sollte auf die Daten zugreifen können. Die Verschlüsselung von Daten während der Speicherung („at Rest“) und Übertragung („in Motion“) ist allerdings rechenintensiv und kann zu Performanceeinbußen führen. Mit der QuickAssist Technology (QAT) bietet Intel in der zweiten Generation der Xeon Scalable Prozessoren hierfür eine Hardware-Beschleunigung, welche die CPU bei der Berechnung von Schlüsseln und Hashes entlastet und so eine Beschleunigung bis zum Faktor 4,3 ermöglicht.

    Selbst wenn Daten at Rest und in Motion gut durch Verschlüsselungsmethoden geschützt werden, können sie bei der Verarbeitung im Arbeitsspeicher angreifbar sein. Mit den Software Guard Extensions (SGX) bietet Intel hier ein zusätzliches Maß an Sicherheit. Sie ermöglichen es, in einer CPU kleine, geschützte Umgebungen, sogenannte „Enklaven“ zu generieren, auf die das normale Betriebssystem keinen Zugriff hat. Nutzer können remote die Unversehrtheit und Echtheit einer Enklave überprüfen und so sicherstellen, dass der darin ausgeführte Code nicht verändert wurde. SGX eignet sich beispielsweise dafür, sensible Daten mehrerer Parteien für das Anlernen von KI-Algorithmen zu nutzen (Federated Machine Learning), Container und VMs in mandantenfähigen Cloud-Umgebungen besser abzusichern, Datenbanken mit vertraulichen Informationen in einer Public Cloud betreiben zu können oder die Sicherheit und den Datenschutz bei der Verarbeitung von Blockchain-Transaktionen zu erhöhen. 
  • Optimierung der Leistung: Die Anforderungen an Rechenleistung und Speicherkapazität steigen beständig. Cloud-Provider und Unternehmen profitieren gleichermaßen von Innovationen bei Prozessoren, Arbeitsspeicher und Storage, und können so ihr Angebot ständig verbessern. Zu den etablierten Technologien in Intel Prozessoren, die ständig weiterentwickelt werden, gehören Hyper-Threading (HT) und Turbo Boost. Mit der Intel HT-Technologie kann ein physischer CPU-Kern vom Betriebssystem in zwei separaten Threads genutzt werden, so dass sich die Zahl der virtuell verfügbaren CPU-Kerne verdoppelt. Die Intel Turbo-Boost-Technik erlaubt es, den Prozessor bei Spitzenlasten zu übertakten, solange er dabei innerhalb der spezifizierten Energieaufnahme- und Temperaturgrenzen bleibt. Cloud-Provider und Unternehmen können Anwendern so auch bei anspruchsvollen Workloads schnell und flexibel die notwendige Leistung zur Verfügung stellen.

    Im Speicherbereich hat vor allem die Optane-Technologie die Verfügbarkeit und Performance von Storage revolutioniert. Intel Optane Persistent Memory bietet sehr kosteneffizient hohe Speicherkapazitäten, die in ihrer Performance nahezu an die der deutlich teureren Arbeitsspeichermodule (Dynamic Random Access Memory, DRAM) heranreichen. Besonders In-Memory-Datenbanken wie SAP HANA profitieren von dieser Speichertechnologie. Dieselbe Technik wird auch in den Intel Optane Solid State Drives (SSD) verwendet, um im Massenspeicherbereich ebenfalls höchste Leistung und Zuverlässigkeit zu ermöglichen.
  • Unterstützung von Spezialanwendungen. Machine Learning, Künstliche Intelligenz (KI) und High-Performance Computing (HPC) stellen besondere Anforderungen an die Hardware. Mit spezialisierten Instanzen sind Cloud-Provider und Unternehmen in der Lage, auch sehr rechenintensive Workloads zu realisieren, ohne dass die Kosten explodieren. Intel bietet hierfür eine Reihe von Technologien. So beschleunigen beispielsweise die Advanced Vector Extensions 512 (Intel AVX-512) in den skalierbaren Intel Xeon Prozessoren der zweiten Generation die Verarbeitung großer Datenmengen deutlich, indem sie arithmetische Operationen auf einer Registerbreite von 512 Bits ermöglichen. Deep Learning Boost (Intel DL Boost) kann den Zeitaufwand bei der Berechnung gefalteter neuronaler Netze (Convolutional Neural Networks) und anderer anspruchsvoller Machine-Learning-Aufgaben um mehr als zwei Drittel reduzieren. Field-Programmable Gate Arrays (FPGA) und die Intel Math Kernel Library for Deep Neural Networks (Intel MKL-DNN) tragen ebenfalls zur schnelleren Verarbeitung KI-basierter Workloads bei. Das OpenVINO-Toolkit (Open Visual Inference and Neural Network Optimization) vereinfacht die Entwicklung von Applikationen im Bereich des künstlichen Sehens (Computer Vision), beschleunigt aber auch andere KI-Workloads wie Audio-, Sprach- und Empfehlungssysteme.

Beispiele aus dem Provider-Alltag

Neben großen Hyperscalern wie Amazon Web Services, Microsoft Azure und Google nutzen auch viele lokale Anbieter von Cloud-Services die aktuellen technischen Möglichkeiten der Intel-Xeon-Plattform und anderer Intel-Technologien. So hat beispielsweise die Secunet Security Networks AG gemeinsam mit der Cloud & Heat Technologies GmbH die Lösung SecuStack entwickelt. Sie ermöglicht die Verwendung von Public-Cloud-Ressourcen in Branchen, die diese aufgrund strenger Sicherheitsbestimmungen bislang nicht nutzen durften. Neben einem besonders gehärteten Cloud-Betriebssystem und kryptographischen Verfahren für Datenspeicherung und -transfer kommen die Intel Software Guard Extensions zum Einsatz, um auch während der Verarbeitung der Daten höchste Vertraulichkeit garantieren zu können.

Als Hoster für Online-Games ist GPORTAL auf leistungsfähige Hardware angewiesen, um seinen Kunden ein exzellentes Spieleerlebnis und geringe Latenz garantieren zu können. Mit Intel Optane Persistent Memory konnte das Unternehmen Speicherkapazität und Leistung erhöhen und die Gesamtbetriebskosten (Total Cost of Ownership, TCO) optimieren.

Mit seinem Private-Cloud-Dienst hat die United-Internet-Tochter IONOS die Nutzung privater Cloud-Ressourcen auch für kleine und mittlere Unternehmen erschwinglich gemacht. Der Service basiert auf skalierbaren Intel Xeon Prozessoren der 2. Generation und bietet ein breites Spektrum an Preis- und Leistungsoptionen. Als Speicher kommen unter anderem Laufwerke der Intel SSD DC P4510 Serie zu Einsatz, während Intel Optane SSDs zur Beschleunigung des vSAN-Zwischenspeichers verwendet werden.

Fazit

Cloud-Services bieten Anwendern eine von der Hardware abstrahierte Nutzung von IT-Ressourcen. Die Virtualisierung sämtlicher Komponenten darf jedoch nicht darüber hinwegtäuschen, dass für eine skalierbare, zuverlässige und sichere Bereitstellung der Dienste eine leistungsfähige Hardware-Basis unabdingbar ist. Cloud-Provider verlassen sich dabei in der Mehrheit auf skalierbare Intel Xeon Prozessoren sowie Intel Netzwerkadapter und Speichermodule. Mit höchster Zuverlässigkeit, Performance und Innovation bilden sie eine solide Basis für jeden Cloud-Service. Das kommt nicht nur großen Public-Cloud-Providern zugute, sondern auch Unternehmen, die ihre eigene Private Cloud aufbauen wollen.

Die richtige Hardware für Cloud Computing

Warum Cloud-Services eine leistungsfähige Infrastruktur brauchen

Inhaltstyp: Artikel
logo-energyblue-3000px.png