Während das Training von Algorithmen sehr rechenintensiv ist, lassen sich die daraus abgeleiteten Modelle auch auf Standard-Servern ausführen. Dieses Whitepaper zeigt Ihnen, wie Sie mit der passenden Plattform und den richtigen Prozessoren Ihre KI-Projekte schnell, effizient und kostengünstig umsetzen.
Inhalt:
Für 94 Prozent der Unternehmen ist künstliche Intelligenz (KI) ein wichtiger Faktor, um auch in Zukunft wettbewerbsfähig zu bleiben. Das geht aus dem „State of AI in the Enterprise Survey“ des Beratungsunternehmens Deloitte hervor, für den mehr als 2.600 Experten befragt wurden. 70 Prozent der deutschen Umfrageteilnehmer wollen in diesem Jahr ihr Budget für KI-Projekte erhöhen.
Um diese Mittel effizient und wirtschaftlich einzusetzen, braucht es jedoch die richtige Strategie und die passende Hardware. Vor allem beim Einsatz von Algorithmen, dem sogenannten Inferencing, genügen oft Standard-Server – vorausgesetzt sie sind mit leistungsfähigen, für KI-optimierten Prozessoren ausgestattet.
Wie Sie mit einem einheitlichen Inferenzmodell und der richtigen Plattform KI-Modelle für Computer Vision, Natural Language Processing und andere KI-Aufgaben nahtlos in den Produktiveinsatz überführen und den gesamten KI-Lebenszyklus optimieren, das erfahren Sie im vorliegenden Whitepaper.
Lesen Sie außerdem:
- Welche Branchen besonders vom KI-Einsatz profitieren.
- Wie Sie die passenden Frameworks und Libraries für Ihr KI-Projekt finden und einsetzen.
- Wie Sie durch Software-Optimierung die Performance Ihrer KI-Modelle um bis zu 67 Prozent steigern.
Originalauszug aus dem Dokument:
The underlying libraries optimize performance for the hardware, and the models in the zoo are optimized themselves to deliver exceptional performance right out of the box. For example, consider the Medical EDD RefineDet model from the AMD UIF 1.1 model zoo. The baseline model uses FP32 data types and quantizes them to INT8, reducing processing time by addressing higher throughput needs without upgrading compute resources. Optimizing the model pruned 88% of the computation, and it used the ZenDNN library, further reducing resource needs. Testing this model on a server with 2x 96-core AMD EPYC 9004 Series engineering samples delivered up to 20.50x the images/second throughput compared to the baseline FP32 model from the same model zoo.
Both the UIF 1.0 and 1.1 models are available from GitHub at: https:// github.com/amd/UIF/tree/main/docs/2_model_setup/model-list. More than 100 models are available to run on the ZenDNN library, with more in process. Example classes of models are listed in Table 1. If you view the list of models by standardized naming conventions, those with the Z4.0 suffix are configured to run on ZenDNN 4.0.