AI Systems Performance Engineering : Optimizing Model Training and Inference Workloads with Gpus, Cuda, and Pytorch

個数:

AI Systems Performance Engineering : Optimizing Model Training and Inference Workloads with Gpus, Cuda, and Pytorch

  • 提携先の海外書籍取次会社に在庫がございます。通常3週間で発送いたします。
    重要ご説明事項
    1. 納期遅延や、ご入手不能となる場合が若干ございます。
    2. 複数冊ご注文の場合は、ご注文数量が揃ってからまとめて発送いたします。
    3. 美品のご指定は承りかねます。

    ●3Dセキュア導入とクレジットカードによるお支払いについて
  • ≪洋書のご注文について≫ 「海外取次在庫あり」「国内在庫僅少」および「国内仕入れ先からお取り寄せいたします」表示の商品でもクリスマス前(12/20~12/25)および年末年始までにお届けできないことがございます。あらかじめご了承ください。

  • 【入荷遅延について】
    世界情勢の影響により、海外からお取り寄せとなる洋書・洋古書の入荷が、表示している標準的な納期よりも遅延する場合がございます。
    おそれいりますが、あらかじめご了承くださいますようお願い申し上げます。
  • ◆画像の表紙や帯等は実物とは異なる場合があります。
  • ◆ウェブストアでの洋書販売価格は、弊社店舗等での販売価格とは異なります。
    また、洋書販売価格は、ご注文確定時点での日本円価格となります。
    ご注文確定後に、同じ洋書の販売価格が変動しても、それは反映されません。
  • 製本 Paperback:紙装版/ペーパーバック版/ページ数 954 p.
  • 言語 ENG
  • 商品コード 9798341627789
  • DDC分類 006.3

Full Description

Elevate your AI system performance capabilities with this definitive guide to maximizing efficiency across every layer of your AI infrastructure. In today's era of ever-growing generative models, AI Systems Performance Engineering provides engineers, researchers, and developers with a hands-on set of actionable optimization strategies. Learn to co-optimize hardware, software, and algorithms to build resilient, scalable, and cost-effective AI systems that excel in both training and inference. Authored by Chris Fregly, a performance-focused engineering and product leader, this resource transforms complex AI systems into streamlined, high-impact AI solutions.

Inside, you'll discover step-by-step methodologies for fine-tuning GPU CUDA kernels, PyTorch-based algorithms, and multinode training and inference systems. You'll also master the art of scaling GPU clusters for high performance, distributed model training jobs, and inference servers. The book ends with a 175+-item checklist of proven, ready-to-use optimizations.

Codesign and optimize hardware, software, and algorithms to achieve maximum throughput and cost savings
Implement cutting-edge inference strategies that reduce latency and boost throughput in real-world settings
Utilize industry-leading scalability tools and frameworks
Profile, diagnose, and eliminate performance bottlenecks across complex AI pipelines
Integrate full stack optimization techniques for robust, reliable AI system performance

最近チェックした商品