Zum Hauptinhalt springen

Wie falsche Infrastrukturentscheidungen Ihre KI-Projekte ausbremsen

Neun Kriterien für eine KI-fähige Speicherinfrastruktur

Pure Storage Germany GmbH
Firma: Pure Storage Germany GmbH
Sprache: Deutsch
Größe: 8 Seiten
Erscheinungsjahr: 2024
Besonderheit: registrierungspflichtig
Exklusiv
für Mitglieder

Premium: Einloggen und Whitepaper lesen

In der Diskussion um die richtige Infrastruktur für KI-Anwendungen werden Speichersysteme oft vergessen. Dabei spielen sie für die Entwicklung und den Einsatz von KI-Modellen eine entscheidende Rolle. Lesen Sie in diesem Dokument, welche besonderen Anforderungen KI an die Speicherinfrastruktur stellt und wie Sie diese erfüllen.

Inhalt:

Große KI-Modelle wie GPT-4 von OpenAI, Google Gemini oder Llama von Meta müssen mit Petabytes an Daten und Milliarden von Parametern trainiert werden. Die Entwicklung ist deshalb nur in einer Cloud wirtschaftlich möglich. Die Weiterentwicklung und Anwendung kann aber auch in einer lokalen Umgebung erfolgen. Die Nutzung eigener Ressourcen empfiehlt sich vor allem dann, wenn sensible Informationen wie personenbezogene Daten oder Geschäftsgeheimnisse für das Training verwendet werden sollen, die nicht in fremde Hände gelangen dürfen.

Beim Aufbau einer lokalen KI-Infrastruktur vergessen die Verantwortlichen jedoch häufig den Storage-Aspekt. Das ist fatal, denn ohne eine leistungsfähige Speicherinfrastruktur ist eine sinnvolle Entwicklung und Anwendung von Machine-Learning-Modellen kaum möglich.

Der Analyst Randy Kerns vom Marktforschungsunternehmen The Futurum Group zeigt in diesem Dokument, welche Anforderungen KI-Anwendungen an die IT-Infrastruktur im Allgemeinen und an die Speicherinfrastruktur im Besonderen stellen.

Sie erfahren unter anderem:

  • Warum Unternehmen oft die falschen Infrastrukturdiskussionen führen.
  • Welche neun Kriterien bei der Auswahl von KI-fähigen Speichersystemen entscheidend sind.
  • Wie Sie mit den richtigen Speichersystemen die KI-Nutzung erleichtern und beschleunigen.

Originalauszug aus dem Dokument:

AI teams have gained experience developing models on public clouds using tool sets and cloud resources. Enterprises have presented them with new challenges in using proprietary information assets for models, now to be developed on-premises to maintain control of the assets. AI data scientists have not needed to deal with critical infrastructure for accessing and storing data in their cloud-based model development. Now, enterprise IT is being tasked with providing the infrastructure required to enable the AI team to continue development without having to deal with the unfamiliar infrastructure areas. Clearly, there is a great deal for IT organizations to learn and limited staff available. IT will lean on vendors for solutions and expertise.

Choosing technology to meet the evolving AI demands involves a number of key decisions for IT, affecting the success and expediency of delivering on the AI aspirations of the organization. While the required compute, graphics processing unit (GPU), and AI tools are well understood by data science teams, efficient, scalable storage that is optimized for AI can make a substantial difference in accelerating results, keeping costs contained, and improving data scientist productivity. IT is responsible for providing an infrastructure for AI that can meet the changing requirements including expected growth in the amount of information that will be used for training models. Understanding the requirements and determining the best solutions is expected from the IT organization by the AI team.

Wie falsche Infrastrukturentscheidungen Ihre KI-Projekte ausbremsen

Neun Kriterien für eine KI-fähige Speicherinfrastruktur

Inhaltstyp: Whitepaper
Pure Storage Germany GmbH