内容説明
深層学習(ディープラーニング)の仕組みを,ベクトル,微分などの基礎数学から丁寧に解説。〔内容〕深層学習とは/深層学習のための数学入門/ニューラルネットワークの構造を知る/ニューラルネットワークをどう学習させるか/他
目次
1. 深層学習とは#br# 1.1 ニューラルネットワークのブームは繰り返される#br# 1.2 何が深いのか#br# 1.3 学習するとはどういうことか#br# 1.4 深層学習はなぜうまく行くのか#br##br#2. 機械学習で使う用語#br# 2.1 機械学習における各種のタスク#br# 2.2 モデルとパラメータ#br# 2.3 過去問だけ解けてもダメ#br##br#3. 深層学習のための数学入門#br# 3.1 数を並べたものはベクトル#br# 3.2 ベクトルの演算#br# 3.3 数を縦横に並べたのが行列#br# 3.4 スカラー・ベクトル・行列はすべてテンソル#br# 3.5 微分・勾配・ヤコビ行列#br# 3.6 確率と統計量#br# 3.7 クロスエントロピーとKLダイバージェンス#br##br#4. ニューラルネットワークはどのような構造をしているか#br# 4.1 線形分類器は直線でデータを分類する#br# 4.2 重みはデータに基づいて最適化される#br# 4.3 単純パーセプトロン#br# 4.4 損失関数としてのクロスエントロピー#br# 4.5 経験リスク最小化#br# 4.6 単純パーセプトロンにおけるクロスエントロピー#br# 4.7 ソフトマックス関数#br# 4.8 正規分布と平均二乗誤差#br# 4.9 多層パーセプトロン#br# 4.10 活性化関数#br##br#5. ニューラルネットワークをどう学習させるか#br# 5.1 パラメータ空間を動き回るパラメータベクトル#br# 5.2 勾配降下法で山を下る#br# 5.3 確率的勾配降下法#br# 5.4 誤差逆伝播法(バックプロパゲーション)#br# 5.4.1 順伝播でひとまず予測を行う#br# 5.4.2 出力ユニット直前の重み行列の更新規則#br# 5.4.3 中間的な重み行列の更新規則#br# 5.4.4 逆伝播で間違いを伝えていく#br# 5.4.5 デルタの更新規則#br# 5.4.6 勾配消失問題#br# 5.4.7 順伝播と逆伝播の反復#br# 5.5 適応的最適化#br# 5.6 ドロップアウト#br# 5.7 バッチ正規化#br##br#6. 畳み込みニューラルネットワーク#br# 6.1 局所特徴#br# 6.2 フィルタリングによって局所特徴を検出する#br# 6.3 畳み込み層#br# 6.3.1 受容野#br# 6.3.2 カーネルの勾配#br# 6.3.3 パディングで縮小を補填#br# 6.3.4 ストライドで大またぎ#br# 6.3.5 チャネルを増やして多数の局所特徴を捉える#br# 6.4 プーリング#br# 6.5 2D-CNN#br##br#7. 再帰型ニューラルネットワーク#br# 7.1 系列データ#br# 7.2 再帰型ニューラルネットワークは記憶を持つ#br# 7.3 通時的逆伝播(BPTT)#br# 7.4 LSTMは記憶力をコントロールする#br##br#8. 深層生成モデル#br# 8.1 生成モデル#br# 8.2 敵対的生成ネットワーク(GAN)#br# 8.3 転置畳み込み(デコンボリューション)#br##br#9. おわりに#br##br#章末問題解答#br#文献案内#br#索 引#br#
感想・レビュー
※以下の感想・レビューは、株式会社ドワンゴの提供する「読書メーター」によるものです。
Shu
tossy
Kaz
Wisdom
-
- 電子書籍
- 特集1:糖鎖の森を踏破するグライコミク…




