出版社内容情報
情報理論の重要なポイントをていねいに解説。フルカラーのさまざまな図と、豊富な例題・演習問題で理解を深める。AI・機械学習と情報理論のつながりについても紹介した。はじめて学ぶ読者に最適の教科書。
《おもな目次》
第1章 序論
第2章 情報量
第3章 情報量の性質
第4章 情報源とエントロピーレート
第5章 情報源符号とクラフトの不等式
第6章 語頭符号の平均符号語長
第7章 情報源符号化定理
第8章 ハフマン符号
第9章 その他の情報源符号
第10章 通信路と通信路容量
第11章 通信路符号化定理
第12章 通信路符号化逆定理
第13章 誤り検出・訂正符号
第14章 線形符号の具体例
【目次】
第1章 序論
1.1 通信の数学的理論
1.2 Step 1:n個の根元事象の情報量
1.3 Step 2:事象の情報量
1.4 Step 3:複数の事象の情報量
1.5 Step 4:不確定度の減少量としての情報量
1.6 情報源符号化定理と通信路符号化定理
第2章 情報量
2.1 確率変数に関連する記号のまとめ
2.2 エントロピー
2.3 同時エントロピーと条件付きエントロピー
2.4 相互情報量
2.5 相対エントロピー(ダイバージェンス)
第3章 情報量の性質
3.1 エントロピーのチェイン則
3.2 相互情報量のチェイン則
3.3 イェンセンの不等式
3.4 イェンセンの不等式から導かれる性質
第4章 情報源とエントロピーレート
4.1 情報源
4.2 定常無記憶情報源
4.3 定常マルコフ情報源
4.4 2元定常マルコフ情報源と状態遷移図
4.5 エントロピーレート
第5章 情報源符号とクラフトの不等式
5.1 情報源符号の例
5.2 情報源符号の定義と平均符号語長
5.3 情報源符号に要求される条件
5.4 クラフトの不等式
5.5 定理5.1の証明
第6章 語頭符号の平均符号語長
6.1 平均符号語長の限界
6.2 理想符号語長とシャノン符号
6.3 最適な語頭符号の平均符号語長
第7章 情報源符号化定理
7.1 複数の記号をまとめた符号化
7.2 情報源符号化定理
7.3 推定した分布を用いたときの平均符号語長
第8章 ハフマン符号
8.1 ハフマン符号の構成法
8.2 最適符号の性質
8.3 ハフマン符号の最適性
第9章 その他の情報源符号
9.1 ファノ符号
9.2 シャノン符号
9.3 シャノン・ファノ・イライアス符号
9.4 算術符号
9.5 LZ符号
第10章 通信路と通信路容量
10.1 情報通信のモデル
10.2 通信路の定義と例
10.3 通信路容量の定義と例
第11章 通信路符号化定理
11.1 繰り返し符号
11.2 通信路符号化定理
11.3 典型系列と典型集合
11.4 通信路符号化定理の証明
第12章 通信路符号化逆定理
12.1 通信路符号化逆定理
12.2 ファノの不等式
12.3 データ処理不等式
12.4 無記憶通信路に対する通信路容量の性質
12.5 通信路符号化逆定理の証明
第13章 誤り検出・訂正符号
13.1 2元体
13.2 2元対称通信路と誤りベクトル
13.3 最小距離と誤り検出・訂正
-
- 和雑誌
- 装苑 (2026年6月号)



