Zum Hauptinhalt springen
Moderne IT-Infrastruktur

Moderne IT-Infrastruktur

E-Guide: Wie Unternehmen die passende IT-Architektur für erfolgreiche KI-Projekte finden

Mit zunehmendem Einsatz von Deep Learning im täglichen Geschäft steigen die Anforderungen, aber auch der wirtschaftliche Nutzen

logo-energyblue-3000px.png
Firma: Intel
Sprache: Deutsch
Größe: 12 Seiten
Erscheinungsjahr: 2019
Besonderheit: registrierungsfrei
Jetzt
runterladen!

Gratis-Inhalt

Soft- und Hardware für Deep Learning arbeiten immer genauer und schneller, der Einsatz in Unternehmen wird damit praktikabler. Eine einzige Hardware-Architektur kann aber nicht alle Bedingungen einer komplexen KI-Umgebung abdecken. Der E-Guide erklärt, welche Anforderungen es gibt und worauf Organisationen bei der Anschaffung achten sollten.

Inhalt:

Deep Learning arbeitet immer effizienter und bringt Unternehmen damit größeren Nutzen. Ein Großteil dieses Mehrwerts wird durch Inferenz geschaffen: Ein Modell leitet Erkenntnisse aus ihm vorher unbekannten Daten ab. Laut Prognosen von Intel verschiebt sich das Verhältnis von Inferenz- zu Trainingszyklen von früher 1:1 auf nun 5:1. Inferenz macht allerdings auch 80 Prozent der Workflows von Künstlicher Intelligenz (KI) aus. Hardware-Architekturen in Unternehmen müssen also sehr komplexe Aufgaben also bewältigen können, wenn KI einen Nutzen bringen soll.

Es geht dabei um flexible Rechenzentren, Speicherressourcen, Konnektivität und um Netzwerke, die Daten bei hoher Geschwindigkeit mit minimaler Latenz übertragen.

Die Ausstattung muss benutzerfreundlich und kosteneffizient sein, und Unternehmen brauchen Richtlinien für Data Governance und Sicherheit.  Eine Universallösung kann aber nicht alle spezifischen Bedingungen jeder Umgebung im Spektrum der KI abdecken.

Dieser E-Guide der Experten von Intel erklärt, welche Anforderungen an eine KI-Architektur bestehen und worauf Unternehmen bei der Anschaffung achten sollten.

In diesem Dokument lesen Sie:

  • Wie Unternehmen ihre KI-Bereitschaft ermitteln.
  • Wie sie Strategien für den Umstieg auf Deep-Learning-Inferenz in großem Maßstab entwickeln.
  • Welche Intel-Lösungen dabei helfen.
  • Welche positiven Auswirkungen optimierte Software hat.

 

 

Originalauszug aus dem Dokument:

Der Großteil von KI geschieht aktuell in Rechenzentren oder in der Cloud. Da sich Milliarden von Geräten mit dem Internet verbinden und der Bedarf an Echtzeit-Intelligenz wächst, wird mehr KI-Inferenz an den Netzwerkrand verschoben, damit Daten nicht in die Cloud übertragen werden müssen.

Eine der sichersten Methoden, KI an den Netzwerkrand zu verschieben, ist das sogenannte Federated Learning. Dieser Prozess ermöglicht es Endgeräten, gemeinschaftlich ein gemeinsames Vorhersagemodell zu erlernen. Dabei bleiben alle Trainingsdaten auf den Geräten. So wird die Möglichkeit, Modelle zu verbessern, davon entkoppelt, die Daten in der Cloud speichern zu müssen. Dadurch wird es auch möglich, die Geräte für das Modell-Training zu nutzen.

Das Gerät lädt sich das neueste Modell herunter und verbessert es, indem es von den Daten auf dem Gerät lernt und die Änderungen zu einer kleinen, gezielten Aktualisierung zusammenfasst. Nur diese Aktualisierung wird mittels verschlüsselter Kommunikation an die Cloud geschickt. Dort wird sie sofort mit anderen Nutzer-Aktualisierungen gemittelt, um das gemeinsame Modell zu verbessern. Alle Trainingsdaten verbleiben auf dem Endgerät und keine individuellen Aktualisierungen werden in der Cloud gespeichert.

Intel bietet Unternehmen Hard- und Software-Tools für den Einsatz von KI auf Endgeräten.

644 Views / Downloads

Teilen

E-Guide: Wie Unternehmen die passende IT-Architektur für erfolgreiche KI-Projekte finden

Mit zunehmendem Einsatz von Deep Learning im täglichen Geschäft steigen die Anforderungen, aber auch der wirtschaftliche Nutzen

Inhaltstyp: Whitepaper
logo-energyblue-3000px.png