シリーズ 情報科学における確率モデル1<br> 統計的パターン認識と判別分析

個数:1
紙書籍版価格 ¥3,740
  • Kinoppy

シリーズ 情報科学における確率モデル1
統計的パターン認識と判別分析

  • 著者名:栗田多喜夫/日高章理
  • 価格 ¥3,740(本体¥3,400)
  • コロナ社(2021/05発売)
  • ポイント 34pt (実際に付与されるポイントはご注文内容確認画面でご確認下さい)
  • ISBN:9784339028317

ファイル: /

内容説明

本書は,ベイズ識別の仮定と同様に,データの背後の確率的な関係が完全にわかっている場合について,変分法を用いて機械学習の基本的なタスクである回帰や識別、そして判別基準のための最適な関数を導出する手法について解説した。

目次

1. パターン認識とベイズ決定理論
1.1 パターン認識
1.2 ベイズ決定理論
 1.2.1 特徴ベクトルとクラスとの確率的関係
 1.2.2 ベイズ決定理論の定式化
 1.2.3 0-1損失の場合
1.3 正規分布の場合のベイズ識別
 1.3.1 二次識別関数
 1.3.2 線形識別関数
 1.3.3 テンプレートマッチング
 1.3.4 Fisherのアヤメのデータのベイズ識別

2. 最適な回帰と識別
2.1 機械学習
2.2 予測のための最適非線形回帰
 2.2.1 平均二乗誤差を最小とする最適な非線形関数の導出
 2.2.2 非線形回帰関数fopt(x)の最適性
 2.2.3 最適な非線形回帰関数fopt(x)で達成される誤差
 2.2.4 最適な非線形回帰関数の統計量
2.3 識別のための最小二乗非線形関数
 2.3.1 識別のための非線形関数を構成する方法
 2.3.2 識別のための最適な非線形回帰関数で達成される平均二乗誤差
2.4 識別のための非線形識別関数
 2.4.1 2クラス識別の場合
 2.4.2 Kクラスの場合

3. 確率分布の推定
3.1 確率分布の推定法
3.2 パラメトリックモデルによる確率分布の推定
 3.2.1 最尤法
 3.2.2 最尤法による確率密度関数の推定の応用
3.3 ノンパラメトリックモデルを用いる方法
 3.3.1 ノンパラメトリックな確率密度関数の推定
 3.3.2 核関数に基づく方法
 3.3.3 K-最近傍法
 3.3.4 K-最近傍法による確率分布の推定の応用
3.4 セミパラメトリックな手法
 3.4.1 混合分布モデル
 3.4.2 混合分布モデルのパラメータの最尤推定
 3.4.3 EMアルゴリスム
 3.4.4 混合分布モデルによる確率密度関数の推定の応用

4. 予測のための線形モデル
4.1 線形回帰分析
 4.1.1 線形回帰分析のモデル
 4.1.2 最小二乗法
 4.1.3 最適な線形回帰関数flinreg(x)で達成される平均二乗誤差
 4.1.4 最適な線形回帰関数の統計量
 4.1.5 線形回帰分析の応用
4.2 最適な非線形回帰関数との関係
 4.2.1 予測のための最適な線形回帰関数
 4.2.2 最適非線形回帰関数の線形近似
 4.2.3 条件付き確率の線形近似
 4.2.4 条件付き確率の線形近似による最適な非線形回帰関数の近似
4.3 線形モデルを用いた非線形回帰
 4.3.1 多項式回帰
 4.3.2 基底関数の線形モデルによる回帰
 4.3.3 回帰式のカーネル関数による表現
4.4 回帰分析と汎化性能
 4.4.1 多項式回帰と汎化性能
 4.4.2 モデルの良さの評価
4.5 正則化回帰
 4.5.1 リッジ回帰
 4.5.2 L1正則化回帰(lasso)

5. 識別のための線形モデル
5.1 線形識別関数とその性質
 5.1.1 線形識別関数
 5.1.2 線形識別関数の性質
 5.1.3 線形分離可能
5.2 単純パーセプトロン
 5.2.1 単純パーセプトロンのモデル
 5.2.2 単純パーセプトロンの学習
 5.2.3 アヤメのデータの単純パーセプトロンでの識別
5.3 Adaptive Linear Neuron(ADALINE)
 5.3.1 ADALINEのモデル
 5.3.2 ADALINEの学習
 5.3.3 回帰分析との関係
 5.3.4 正則化ADALINE
 5.3.5 アヤメのデータのADALINEでの識別
5.4 ロジスティック回帰
 5.4.1 ロジスティック回帰のモデル
 5.4.2 ロジスティック回帰のパラメータの学習
 5.4.3 Fisher情報行列を用いる学習法
 5.4.4 正則化ロジスティック回帰
 5.4.5 アヤメのデータのロジスティック回帰での識別
5.5 サポートベクトルマシン
 5.5.1 サポートベクトルマシンのモデル
 5.5.2 線形分離可能な場合のパラメータの学習
 5.5.3 線形分離可能でない場合のパラメータの学習
 5.5.4 サポートベクトルマシンとロジスティック回帰
 5.5.5 アヤメのデータの線形サポートベクトルマシンでの識別
5.6 多クラス識別のための線形識別関数の学習
 5.6.1 多クラス識別のための線形モデル
 5.6.2 最小二乗線形識別関数
 5.6.3 多項ロジスティック回帰
 5.6.4 アヤメのデータの多クラス識別
5.7 識別のための最適な非線形関数との関係
 5.7.1 識別のための最適な線形関数
 5.7.2 事後確率の線形近似
5.8 多層パーセプトロン
 5.8.1 多層パーセプトロンのモデル
 5.8.2 多層パーセプトロンの能力
 5.8.3 誤差逆伝播学習法
 5.8.4 畳込みニューラルネットワーク(CNN)

6. 主成分分析と判別分析
6.1 主成分分析
 6.1.1 主成分分析の問題設定
 6.1.2 第一主成分の導出
 6.1.3 第二主成分の導出
 6.1.4 高次の主成分の導出
 6.1.5 寄与率と累積寄与率
 6.1.6 主成分分析の適用例
 6.1.7 元のデータの再構成
 6.1.8 主成分スコアベクトル間の距離
6.2 線形判別分析
 6.2.1 一次元の判別特徴の抽出
 6.2.2 多次元の判別特徴の構成
 6.2.3 2段階写像としての判別写像
 6.2.4 判別特徴ベクトル間の距離
 6.2.5 線形判別分析の適用例

7. カーネル法
7.1 カーネル法とは
7.2 カーネル回帰分析
 7.2.1 カーネル回帰分析とは
 7.2.2 カーネル法を用いた最小二乗識別関数の学習
7.3 カーネルサポートベクトルマシン
 7.3.1 カーネルサポートベクトルマシンとは
 7.3.2 最適なハイパーパラメータの探索
7.4 カーネル主成分分析
7.5 カーネル判別分析
 7.5.1 カーネル判別分析とは
 7.5.2 カーネル判別分析の適用例

8. 最適非線形判別分析と判別カーネル
8.1 最適非線形判別写像
 8.1.1 最適非線形判別写像の導出
 8.1.2 事後確率ベクトルの線形判別分析
 8.1.3 最適非線形判別写像の線形近似
8.2 事後確率の近似を通した非線形判別分析
 8.2.1 正規分布を仮定することによる非線形判別分析
 8.2.2 K-最近傍法を用いた非線形判別分析
 8.2.3 ロジスティック回帰に基づく非線形判別分析
 8.2.4 非線形判別空間の比較
8.3 判別カーネル
 8.3.1 最適非線形判別分析の双対問題
 8.3.2 有効なカーネルの条件
 8.3.3 判別カーネルと周辺化カーネルの関係
 8.3.4 判別カーネルの族

付録
A.1 線形代数のまとめ
A.2 ベクトル・行列の微分と最適化の基礎
A.3 確率統計の基礎

引用・参考文献
あとがき
索引