Wer KI im eigenen Unternehmen entwickeln will, braucht dafür eine leistungsfähige Infrastruktur. Neue Komponenten und Angebote senken die Hürden auf dem Weg zur Enterprise AI deutlich.
Künstliche Intelligenz (KI) ist in deutschen Unternehmen angekommen. Laut der aktuellen Studie „Künstliche Intelligenz in Deutschland“ des Branchenverbands Bitkom setzen 57 Prozent der deutschen Unternehmen KI bereits ein oder planen den Einsatz. Fast drei Viertel aller Befragten will in Zukunft in KI-Projekte investieren. Das Wertschöpfungspotenzial durch den Einsatz von KI wird vom Institut der deutschen Wirtschaft auf 330 Milliarden Euro geschätzt.
Allerdings tun sich viele Unternehmen hierzulande noch schwer, Pilotprojekte zu skalieren und KI produktiv einzusetzen. Neben Fachkräftemangel und regulatorischen Bedenken sind es vor allem Schwierigkeiten bei der Auswahl und Implementierung geeigneter Technologien, die KI-Projekte ausbremsen.
Fünf Bausteine für Enterprise AI
Wer KI entwickeln und trainieren will, benötigt eine leistungsfähige Infrastruktur. Folgende fünf Faktoren sind dafür unverzichtbar:
- KI-Beschleuniger: Große Sprachmodelle, aber auch viele andere KI-Lösungen, basieren auf tiefen neuronalen Netzen, in denen viele Rechenoperationen parallel ablaufen. Da Hauptprozessoren (Central Processing Unit, CPU) Befehle in der Regel seriell abarbeiten, kommen im KI-Bereich häufig Grafikprozessoren (Graphic Processing Unit, GPU) zum Einsatz, die solche parallelen Berechnungen im großen Maßstab durchführen können. Klassische GPUs sind jedoch für Aufgaben wie 3D-Animationen in Computerspielen optimiert und enthalten daher Module wie Shader und Renderer, die für die Berechnung von KI-Aufgaben nicht benötigt werden. Unternehmen sollten besser optimierte KI-Beschleuniger nutzen, die bei gleichem Platz- und Energiebedarf leistungsfähiger und energieeffizienter als GPUs sind.
- optimierte CPUs: Auch wenn KI-Beschleuniger in neuronalen Netzen die Hauptarbeit erledigen, sind leistungsfähige Hauptprozessoren in einem KI-Rechenzentrum unverzichtbar. Sie müssen nicht nur große Datenmengen schnell verarbeiten können, sondern auch KI-typische Workloads wie Matrix- und Vektorberechnungen unterstützen.
- Hohe Energieeffizienz: Die Performance-Anforderungen für die Entwicklung und Bereitstellung von KI-Modellen treiben nicht nur die Stromkosten in die Höhe, sondern führen auch zu mehr Abwärme. Damit die Kosten für Energiezufuhr und Kühlung nicht explodieren, sollten Unternehmen auf energieeffiziente Komponenten achten, die trotz hoher Leistung eine vergleichsweise geringe Wärmeentwicklung mit sich bringen.
- Größtmögliche Sicherheit: KI-Modelle und die für das Training notwendigen Daten stellen wichtiges geistiges Firmeneigentum dar, das vor Diebstahl und Manipulation geschützt werden muss. Eine Enterprise AI-Infrastruktur sollte deshalb Sicherheitsmechanismen integrieren, die einen Zugriff durch Unbefugte verhindern. Dieser Ansatz wird häufig als Confidential AI bezeichnet.
Empfehlungen für die Komponentenauswahl
Bei Aufbau eines KI-fähigen Rechenzentrums sollten Unternehmen auf Komponenten achten, die alle oben genannten Anforderungen an Leistung, Skalierbarkeit, Energieeffizienz und Sicherheit erfüllen. Der KI-Beschleuniger Intel Gaudi 3 ist beispielsweise mit acht MME-Einheiten (Matrix Multiplication Engines) ausgestattet, von denen jede 64.000 parallele Rechenoperationen durchführen kann. Das erlaubt, die für Deep-Learning-Workloads typischen komplexen Matrixoperationen effizient und damit energiesparend auszuführen.
Die aktuellen Intel Xeon 6 Prozessoren bieten bis zu 128 Performance-Kerne (P-Cores), eine maximale Taktrate von 3,9 GHz und bis zu 504 MB Level 3 Cache. Durch den erstmaligen Einsatz von MRDIMM (Multiplexed Rank Dual Inline Memory Module) konnte die Verarbeitungsgeschwindigkeit im Arbeitsspeicher auf bis zu 8.800 MT/s (Megatransfers pro Sekunde) gesteigert werden. Zusätzliche Befehlssätze wie Intel Deep Learning Boost (Intel DL Boost) die Advance Matrix Extensions (AMX) oder die Advanced Vector Extensions 512 (AVX-512) machen die Nutzung von typischen Deep-Learning-Frameworks wie TensorFlow und PyTorch schneller und effizienter. Die aktuelle Xeon-Generation liefert bei typischer Auslastung laut Hersteller doppelt so viel Performance pro Watt wie ihre Vorgänger und verbraucht damit bei gleicher Leistung deutlich weniger Energie. Durch Erweiterungen für Confidential Computing wie die Intel Software Guard Extensions (Intel SGX) und die Intel Trust Domain Extensions (Intel TDX) lässt sich für Confidential AI eine vertrauenswürdige Verarbeitungsumgebung (Trusted Execution Environment, TEE) erstellen, auf die nur speziell autorisierter und signierter Code Zugriff erhält. Firmendaten und KI-Modelle bleiben so vor fremden Blicken geschützt.
Cloud-Ressourcen als Ergänzung nutzen
Die Entwicklung eigener KI-Modelle erfordert nicht nur eine leistungsfähige Infrastruktur, sondern auch viel Know-how. Es kann daher sinnvoll sein, externe Experten und Tools einzubeziehen. In einer Cloud-Umgebung gehostete vorgefertigte Basismodelle (Foundation Models) erleichtern zudem den Einstieg, beschleunigen die Integration und reduzieren die Gesamtkosten.
Lösungen wie Inflection for Enterprise kombinieren die Vorteile der Cloud mit firmenspezifischen Anforderungen an Datenqualität, Datensouveränität und Datensicherheit. Das System basiert auf Intel Gaudi 3 KI-Beschleunigern und der Intel Tiber AI Cloud. Kunden können in ihrer eigenen Infrastruktur, in der Cloud oder einer hybriden Umgebung das Large Language Model von Inflection mit ihren Daten trainieren. Das angepasste Modell ist Firmeneigentum und wird nicht mit anderen Organisationen geteilt. In Zusammenarbeit mit UiPath hat Inflection AI für Unternehmenskunden außerdem die Agentic Workflows entwickelt, die die Gefahr von Halluzinationen in KI-Modellen reduzieren und die Zuverlässigkeit der Ergebnisse verbessern sollen.
Auch IBM wird die Entwicklung von Enterprise AI mit Intel Xeon Prozessoren und Intel Gaudi 3 unterstützen. Die Prozessoren und KI-Beschleuniger sollen Anfang 2025 als Virtual Cloud Servers in der Virtual Private Cloud (VPC) des Anbieters zur Verfügung stehen. Auch eine Integration in die IBM KI-Plattform watsonx AI ist geplant. Anwender können so KI-Workloads in Hybrid-Cloud-Umgebungen skalieren und ein besseres Preis-Leistungsverhältnis erzielen.
Fazit: Enterprise AI braucht Flexibilität und Skalierbarkeit
Sollte firmenspezifische KI im eigenen Rechenzentrum entwickelt werden oder ist es besser, Cloud-Dienste zu nutzen? Auf diese Frage kann es keine eindeutige Antwort geben, denn zu viele Faktoren spielen dabei eine Rolle – von Art und Umfang der geplanten Lösung über den Einsatzzweck, das Budget und vorhandenes Know-how bis hin zu Sicherheits- und Compliance-Fragen. Unternehmen sollten daher offene Ökosysteme wie die Open Platform for Enterprise AI oder die oneAPI Open-Source-Software-Plattform bevorzugen, die ihnen einen Entwicklungspfad eröffnen und sie nicht auf ein Bereitstellungsmodell festlegen.