感想・レビュー
※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。
nbhd
13
ディープラーニングって、なんか超頭よさげなことをしてそうなイメージだったけど、どうやらその本質は「関数の微分にある」と言っても間違いではなさそうだ。要は、y=3x**2(2乗)を微分すると、y'=6xのようなことをしている。だけど、ハンパないのは、そんな微分を数万数億の単位で実行していることだ。きっと、地球上でコンピュータが行っている1日ぶんの微分計算をすべて足したら、兆単位、もっとそれ以上の単位になるかもしれない。それくらい微分はそこらへんにあふれているんだね。2024/01/17
まろにしも
12
Coursera,kaggle,Udemyなど、機械学習、ディープラーニングを独学する環境は本当に充実している。この本も素晴らしかった。Pythonは人工知能に関するライブラリが充実しているので、これを活用することで比較的簡単に機械学習を実装できてしまう。が、逆に言うと、アルゴリズムがブラックボックス化されていて、理屈がよく分からない。この本は、ライブラリに頼ることなく、機械学習のアルゴリズムを数式で紐解いてくれている。この本を読んで、統計学をもう一度、じっくり勉強したくなってきた。2019/10/27
jjm
8
「損失関数=残差平方和(予測値と正解データの差の平方)」、勾配降下法「損失関数を最小とするような最適なモデルのパラメータを見つけるためのアルゴリズム」「機械学習における繰り返し計算の本質は損失関数の微分」「ディープラーニングはロジスティック回帰の応用(非回帰モデル、分類モデル))」勾配降下法の目的からすると、導関数=0から最適パラメータを求めればいいのではないかと思ってしまうが、計算機にはそれが容易ではないので、微分という引き算と割り算という汎用性のある仕組み(と繰り返し)が編み出された。なるほど。2022/09/25
ハム太郎
5
ディープラーニングに至るまでの機械学習の方法はいろいろあるが, 一貫して基本的方針が; 「予測関数の作成」→「評価関数の作成」→「勾配降下法による最適なパラメータ値探索」というアイディア. 予測したいもの次第で予測関数が違ってくるだけ. 丁寧に書いてあるが, 肝心のディープラーニングの予測関数作成の際に, 隠れ層を入れる意味・哲学が説明されてなく, ネット検索しなければならなかったところだけ不満.2019/08/22
悟
4
まさに最短コースという内容。なぜ行列?なぜ微分?など恥ずかしくて聞けない疑問に答えてくれた。ただし、コードの掲載はそこまで多くなく、本書を片手に実装。というわけにはいかないと思う。この本を足がかりにより詳細な内容が書かれている本に進むのがいいと思う。2019/11/04