内容説明
第三次人工知能(AI)ブームの中核的役割を果たす深層学習(ディープ・ラーニング)は,その高い信頼性と汎用性ゆえに様々な領域に応用されていく一方で,「なぜうまくいくのか」すなわち「なぜ優れた性能を発揮するのか」ということは分かっていない.深層学習の原理を数学的に解明するという難題に,気鋭の研究者が挑む.
目次
まえがき┴第1章 深層学習の登場┴第2章 深層学習とは何か┴第3章 なぜ多層が必要なのか┴第4章 膨大なパラメータ数の謎┴第5章 なぜパラメータの学習ができる?┴第6章 原理を知ることに価値はあるか┴引用文献
感想・レビュー
※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。
月をみるもの
17
「パラメーターのがデータより圧倒的に多いのに、なんで過学習にならないのか」とか「SGDはなんで、ミニマムっぽいところをロバストに発見できるの?」といった、基本的な疑問をわかりやくまとめてくれていて論文100本まとめたレビューくらいの価値がある。とか書いてたら、最近もっとも流行ってた「深層学習(Transformer)の真相」を明らかにした論文が出てたんで、こっちも読まねば。 https://arxiv.org/abs/2105.080502021/05/21
塩崎ツトム
16
数学的には上手くいかなさそうな深層学習がなぜか上手くいっているその秘密を数学的に考証。上手くいかないはずなのに上手く行っているって、まるで生き物ではないか。2023/11/27
nbhd
14
かなり難解な本だけど、わかったことが3つある。ひとつ、ディープラーニングというのは「関数」だということ。その関数ってのは、いわゆるy=2x+3みたいなやつを、めっちゃくっちゃ複雑にしたものらしい。ふたつ、ディープラーニングは技術としては実装されていて、けっこうイケてるんけど、その原理は数学的には解明されていないっていうこと。みっつ、本の中に「深層学習の損失関数を次元削減して可視化したもの」っていうイメージが載っているんだけど、それがとにかくウニョウニョしていて気持ち悪いこと。数学が生命体のように見えたわ。2024/01/10
mft
11
既存の理論ではうまくいかないはずの深層学習が成功を収めているため、理論の見直しを迫られている。たとえば、パラメータ数を増やせば過学習に陥るはずなのにそうならないのはなぜなのか、など。答えが出るまでしばらく面白い時代なんだろうね2021/06/17
hurosinki
7
insouさんの本。かなり薄くて数式も最小限なのでありがたい(が、それでも内容を十分理解できている自信がない)。 高い性能を発揮する深層学習(以下DL)だが、「なぜうまくいくのか」ということは実はよくわかっていない。本書はこの点に関する近年の理論的成果と限界をわかりやすく解説しており、主な内容は以下の3つ。 ①DLが多層をもつメリット ②膨大なパラメータをもつのに過適合が生じない理由 ③損失関数が凸関数とかけ離れているのにパラメータを(予想より短い時間で)学習できる理由2023/08/21