Skalierbare KI/ML-Infrastrukturen : NVIDIA-GPUs in Container-Systemen - Expertenwissen zur Evaluierung, Automatisierung und für die Praxis (2023. 468 S. 24 cm)

個数:

Skalierbare KI/ML-Infrastrukturen : NVIDIA-GPUs in Container-Systemen - Expertenwissen zur Evaluierung, Automatisierung und für die Praxis (2023. 468 S. 24 cm)

  • 在庫がございません。海外の書籍取次会社を通じて出版社等からお取り寄せいたします。
    通常6~9週間ほどで発送の見込みですが、商品によってはさらに時間がかかることもございます。
    重要ご説明事項
    1. 納期遅延や、ご入手不能となる場合がございます。
    2. 複数冊ご注文の場合は、ご注文数量が揃ってからまとめて発送いたします。
    3. 美品のご指定は承りかねます。

    ●3Dセキュア導入とクレジットカードによるお支払いについて
  • ≪洋書のご注文について≫ 「海外取次在庫あり」「国内在庫僅少」および「国内仕入れ先からお取り寄せいたします」表示の商品でもクリスマス前(12/20~12/25)および年末年始までにお届けできないことがございます。あらかじめご了承ください。

  • 【入荷遅延について】
    世界情勢の影響により、海外からお取り寄せとなる洋書・洋古書の入荷が、表示している標準的な納期よりも遅延する場合がございます。
    おそれいりますが、あらかじめご了承くださいますようお願い申し上げます。
  • ◆画像の表紙や帯等は実物とは異なる場合があります。
  • ◆ウェブストアでの洋書販売価格は、弊社店舗等での販売価格とは異なります。
    また、洋書販売価格は、ご注文確定時点での日本円価格となります。
    ご注文確定後に、同じ洋書の販売価格が変動しても、それは反映されません。
  • 製本 Hardcover:ハードカバー版
  • 商品コード 9783836273930

Description


(Text)

Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen.

Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.

Aus dem Inhalt:

KI/ML: Grundlagen und Use CasesInfrastruktur planen: On-Premises, Cloud oder Hybrid?Technischer Background: KI/ML mit NVIDIA-GPUsGPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPUNVIDIA-GPUs auf vSphere On-Prem implementierenNVIDIA AI EnterpriseKI/ML-Cluster mit Kubernetes und OpenShiftGPU-spezifische OperatorenGPU-Cluster mit OpenShiftVon CI/CD über GitOps zu MLOpsML-Pipelines & AI End-to-End

(Review)
»Im Rahmen dieser Buchbesprechung ist es gerade einmal möglich, an der Oberfläche von Oliver Liebels Werk zu kratzen. Das liegt weniger an den rund 470 Seiten, als vielmehr am wahrlich komprimierten Inhalt, den der Autor verständlich vermittelt. Er führt Schritt für Schritt durch das Planen und Aufbauen einer eigenen ML/KI-Infrastruktur, ohne unnötige Worte zu verlieren. Auf den Punkt geschrieben, setzt er allerdings Vorkenntnisse in Sachen IT-Administration, Virtualisierung wie auch Cluster voraus.« IT Administrator 202305
(Author portrait)
Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte undoffizieller Business Partner von SUSE und Red Hat. Als Dozent, Autor, Berater und Projektleiter ist er seit vielen Jahren für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Dabei blickt er auf 25 Jahre Berufserfahrung zurück.

最近チェックした商品