作ってわかる大規模言語モデルの仕組み - Pytorch入門講座付き

個数:
電子版価格
¥3,630
  • 電子版あり

作ってわかる大規模言語モデルの仕組み - Pytorch入門講座付き

  • 提携先に19冊在庫がございます。(2026年03月23日 21時35分現在)
    通常、5~7日程度で出荷されます。
    ※納期遅延や、在庫切れで解約させていただく場合もございます。
    ※1回のご注文は10冊までとなります
  • 出荷予定日とご注意事項
    ※上記を必ずご確認ください

    【出荷予定日】
    通常、5~7日程度で出荷されます。

    【ご注意事項】 ※必ずお読みください
    ◆在庫数は刻々と変動しており、ご注文手続き中に減ることもございます。
    ◆在庫数以上の数量をご注文の場合には、超過した分はお取り寄せとなり日数がかかります。入手できないこともございます。
    ◆事情により出荷が遅れる場合がございます。
    ◆お届け日のご指定は承っておりません。
    ◆「帯」はお付けできない場合がございます。
    ◆画像の表紙や帯等は実物とは異なる場合があります。
    ◆特に表記のない限り特典はありません。
    ◆別冊解答などの付属品はお付けできない場合がございます。
  • ●3Dセキュア導入とクレジットカードによるお支払いについて
    ●店舗受取サービス(送料無料)もご利用いただけます。
    ご注文ステップ「お届け先情報設定」にてお受け取り店をご指定ください。尚、受取店舗限定の特典はお付けできません。詳細はこちら
  • サイズ B5判/ページ数 304p/高さ 24cm
  • 商品コード 9784296205257
  • NDC分類 007.1
  • Cコード C3004

出版社内容情報

ChatGPTが使う大規模言語モデル(LLM)「GPT」を一から作りながら、LLMの基本から実装まで体形的に学べます!

【本書の特徴】
●Transformerの基礎からGPTモデルまで一から作りながら学べる
●「人間の意図に沿った応答」を生成するアラインメント(SFT、DPO)の仕組みを実装で学べる
●最新の推論強化モデルまでカバー

【LLMの仕組みを3段階で理解】
●図解や平易な解説で直感的に分かる
●実際に動くPyTorchコードで理解
●理論的な背景は数式で補足

Transformerモデルを作った後、GPT-2相当のLLMを実装。さらにGPT-2だけでは実現できなかった「人間の意図に沿った応答」を生成するための技術(SFT、DPO)を、実際のコードで体験します。多数のGPUを使った大規模学習をするための分散学習についてもコードを示しながら解説します。

現代の大規模言語モデルがどのように作られているのか―、その本質をこの1冊で理解できます。


【目次】

第1章 大規模言語モデルの歴史と本書で得られること
 1.1 大規模言語モデル(LLM)の変遷:2017~2026
 1.2 本書の構成
 1.3 実行環境について
 1.4 本書の読み方

第2章 Transformerモデルの作成
 2.1 RNNから、Transformerまで
 2.2 アテンション機構
 2.3 アテンション以外の部品
 2.4 Transformerを作る
 2.5 Transformerの学習と推論

第3章 GPTモデルの作成
 3.1 GPTモデルの概要
 3.2 トークナイザと入力処理
 3.3 GPTモデルの学習
 3.4 他の代表的な、LLM
 
第4章 大規模言語モデルの学習
 4.1 データセットと前処理
 4.2 複数GPUを用いた学習の並列実行
 4.3 分散学習による事前学習
 4.4 学習の効率化(LoRA)

第5章 アラインメント
 5.1 アラインメントの基礎
 5.2 指示への追従性を向上させる学習
 5.3 人間の好みのフィードバックによる学習
 5.4 評価

第6章 推論モデル
 6.1 推論モデルとは何か
 6.2 Chain-of-Thought: 推論の基盤技術
 6.3 強化学習による推論能力の学習

付録 NumPy、PyTorch入門

最近チェックした商品