Domain-Specific Small Language Models

個数:
  • 予約

Domain-Specific Small Language Models

  • 現在予約受付中です。出版後の入荷・発送となります。
    重要:表示されている発売日は予定となり、発売が延期、中止、生産限定品で商品確保ができないなどの理由により、ご注文をお取消しさせていただく場合がございます。予めご了承ください。

    ●3Dセキュア導入とクレジットカードによるお支払いについて
  • 【入荷遅延について】
    世界情勢の影響により、海外からお取り寄せとなる洋書・洋古書の入荷が、表示している標準的な納期よりも遅延する場合がございます。
    おそれいりますが、あらかじめご了承くださいますようお願い申し上げます。
  • ◆画像の表紙や帯等は実物とは異なる場合があります。
  • ◆ウェブストアでの洋書販売価格は、弊社店舗等での販売価格とは異なります。
    また、洋書販売価格は、ご注文確定時点での日本円価格となります。
    ご注文確定後に、同じ洋書の販売価格が変動しても、それは反映されません。
  • 製本 Hardcover:ハードカバー版/ページ数 347 p.
  • 言語 ENG
  • 商品コード 9781633436701

Full Description

Want LLM power without the LLM price tag? Crave models that fit your data, laptop, and budget? Stop renting GPUs you cannot afford. Start building Domain-Specific Small Language Models today. Own your AI stack, end to end. 



Model sizing best practices: pick the smallest architecture that still delivers top-tier accuracy. 



Open-source toolchain: leverage Hugging Face, PEFT, and quantization libraries for zero-license freedom. 



Fine-tuning workflows: adapt existing checkpoints to niche datasets in hours, not weeks. 



Commodity hardware deployment: run chat, code, or bio models locally on a single GPU or CPU. 



Retrieval-augmented generation: fuse SLMs with RAG pipelines for grounded, up-to-date answers. 



Cost-control checklists: slash cloud spends and eliminate dependency on expensive foundation APIs. 

Domain-Specific Small Language Models, by AI director Guglielmo Iozzia, is a field guide packed with runnable Python code and real-world engineering insight. 

Step-by-step chapters demystify transformer architecture, quantization, and PEFT fine-tuning, then walk you through building RAG systems and autonomous agents that rely solely on SLMs. Clear diagrams, annotated notebooks, and troubleshooting tips keep learning smooth. 

You will finish with reusable templates, deployment scripts, and the confidence to deliver performant language models under tight hardware and budget constraints. 

Perfect for Python-savvy machine-learning engineers, data scientists, and technical leads who need domain-tuned AI now.

Contents

PART 1: FIRST STEPS 

1 LARGE LANGUAGE MODELS 

PART 2: CORE DOMAIN-SPECIFIC LLMS 

2 TUNING FOR A SPECIFIC DOMAIN 

3 RUNNING INFERENCE 

4 EXPLORING ONNX 

5 QUANTIZING FOR YOUR PRODUCTION ENVIRONMENT 

PART 3: REAL-WORLD USE CASES 

6 GENERATING PYTHON CODE 

7 GENERATING PROTEIN STRUCTURES 

PART 4: ADVANCED CONCEPTS 

8 ADVANCED QUANTIZATION TECHNIQUES 

9 PROFILING INSIGHTS 

10 DEPLOYMENT AND SERVING 

11 RUNNING ON YOUR LAPTOP 

12 CREATING END-TO-END LLM APPLICATIONS 

13 ADVANCED COMPONENTS FOR LLM APPLICATIONS 

14 TEST-TIME COMPUTE AND SMALL LANGUAGE MODELS 

最近チェックした商品