Da KI und ML Modelle leistungsstarke Infrastrukturen benötigen, müssen diese durch entsprechend automatisierte und autoskalierende Systeme bereitgestellt werden. In dem Buch „Skalierbare KI/ML Infrastrukturen“ aus dem Rheinwerk Verlag beschreibt der Autor und Linux-Enterprise-Experte Oliver Liebel wie man dies praktisch umsetzen kann.
Das Buch ist grob in 1 Teile aufgeteilt. Zuerst geht es um die Grundlagen und den Unterbau, dann um die Implementierung und zum Schluss um das Aufsetzen von Machine Learning Stacks auf einem diesen Infrastrukturen.
Im ersten Teil wird recht ausführlich und technisch die Grundlagen zu KI/ML-Infrastrukturen erklärt. Man sollte hier ggf. schon ein gewisses administratives Grundwissen im besten Fall mit VMWare und Linux mitbringen. Im zweiten Teil geht es dann im Detail um Dinge wie Setup, VM-Templates, Nvidia Enterprise Stack, NVidia Licensing System sowie Kubernetes und OpenShift, deren Aufbau und Umsetzung unter VMWare vSphereClustering, spezifische und automatisierte Setups, GPU Management sowie Google Kubernetes Engine Cluster. Nachdem man sein System dann aufgebaut hat, geht es um 3 Teil dann im Detail um Themen wie GitOps-Pipeline-Modelle, Kubeflow, Open Data Hub sowie diverse HandsOn Szenarien, die durchgespielt werden. Der Autor hat hier viel Wissen vermittelt, wobei es kein Handbuch ist, womit man einfach so ein System aufbauen kann, sondern eher wie eine Art Leitfaden und man muss selbst seine Infrastruktur aufbauen, bekommt mit diesem Buch aber eben eine Art roten Faden, an dem man sich langhangeln kann. An manchen Stellen gerade am Anfang versucht der Autor dann mit Verweisen auf z.B. Filmauszügen das Ganze etwas aufzulockern, was eine willkommene Abwechslung für den teilweisen doch recht theoretischen Stoff ist.
Wer hier aber mit einem Team arbeitet, kann sehr gut mit dem Buch in solch einer Enterprise Umgebung eine Infrastruktur aufbauen.
Das Buch ist meiner Meinung nach sehr gut für den Admin bzw. DevOps Bereich in mittleren oder größeren Enterprise Umgebungen geeignet.