岩波科学ライブラリー<br> 深層学習の原理に迫る―数学の挑戦

個数:
電子版価格
¥1,320
  • 電書あり

岩波科学ライブラリー
深層学習の原理に迫る―数学の挑戦

  • ウェブストアに14冊在庫がございます。(2024年04月24日 07時55分現在)
    通常、ご注文翌日~2日後に出荷されます。
  • 出荷予定日とご注意事項
    ※上記を必ずご確認ください

    【ご注意事項】 ※必ずお読みください
    ◆在庫数は刻々と変動しており、ご注文手続き中に減ることもございます。
    ◆在庫数以上の数量をご注文の場合には、超過した分はお取り寄せとなり日数がかかります。入手できないこともございます。
    ◆事情により出荷が遅れる場合がございます。
    ◆お届け日のご指定は承っておりません。
    ◆「帯」はお付けできない場合がございます。
    ◆画像の表紙や帯等は実物とは異なる場合があります。
    ◆特に表記のない限り特典はありません。
    ◆別冊解答などの付属品はお付けできない場合がございます。
  • ●店舗受取サービス(送料無料)もご利用いただけます。
    ご注文ステップ「お届け先情報設定」にてお受け取り店をご指定ください。尚、受取店舗限定の特典はお付けできません。詳細はこちら
  • サイズ B6判/ページ数 126p/高さ 19cm
  • 商品コード 9784000297035
  • NDC分類 007.1
  • Cコード C0304

出版社内容情報

第三次人工知能(AI)ブームの中核的役割を果たす深層学習(ディープ・ラーニング)は、その高い信頼性と汎用性ゆえに様々な領域に応用されていく一方で、「なぜうまくいくのか」すなわち「なぜ優れた性能を発揮するのか」ということは分かっていない。深層学習の原理を数学的に解明するという難題に、気鋭の研究者が挑む。

内容説明

第三次人工知能(AI)ブームの中核的役割を果たす深層学習(ディープラーニング)は、その高い信頼性と汎用性ゆえに様々な領域に応用されていく一方で、「なぜうまくいくのか」すなわち「なぜ優れた性能を発揮するのか」ということは分かっていない。深層学習の原理を数学的に解明するという難題に、気鋭の研究者が挑む。

目次

第1章 深層学習の登場
第2章 深層学習とは何か
第3章 なぜ多層が必要なのか
第4章 膨大なパラメータ数の謎
第5章 なぜパラメータの学習ができる?
第6章 原理を知ることに価値はあるか

著者等紹介

今泉允聡[イマイズミマサアキ]
1988年に宮城県仙台市に生まれる。2007年に私立開成高校卒業。2011年に東京大学文学部卒業。2017年に東京大学経済学研究科博士課程を修了し博士号取得(統計学専攻)。統計数理研究所助教などを経て、2020年より東京大学総合文化研究科先進科学研究機構准教授。理化学研究所革新知能統合研究センター客員研究員、JSTさきがけ研究員、統計数理研究所客員准教授を兼ねる。研究領域は数理統計学および統計的学習理論。深層学習の理論研究や現代的複雑データの解析を行う(本データはこの書籍が刊行された当時に掲載されていたものです)
※書籍に掲載されている著者及び編者、訳者、監修者、イラストレーターなどの紹介情報です。

感想・レビュー

※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。

月をみるもの

17
「パラメーターのがデータより圧倒的に多いのに、なんで過学習にならないのか」とか「SGDはなんで、ミニマムっぽいところをロバストに発見できるの?」といった、基本的な疑問をわかりやくまとめてくれていて論文100本まとめたレビューくらいの価値がある。とか書いてたら、最近もっとも流行ってた「深層学習(Transformer)の真相」を明らかにした論文が出てたんで、こっちも読まねば。 https://arxiv.org/abs/2105.080502021/05/21

塩崎ツトム

16
数学的には上手くいかなさそうな深層学習がなぜか上手くいっているその秘密を数学的に考証。上手くいかないはずなのに上手く行っているって、まるで生き物ではないか。2023/11/27

nbhd

14
かなり難解な本だけど、わかったことが3つある。ひとつ、ディープラーニングというのは「関数」だということ。その関数ってのは、いわゆるy=2x+3みたいなやつを、めっちゃくっちゃ複雑にしたものらしい。ふたつ、ディープラーニングは技術としては実装されていて、けっこうイケてるんけど、その原理は数学的には解明されていないっていうこと。みっつ、本の中に「深層学習の損失関数を次元削減して可視化したもの」っていうイメージが載っているんだけど、それがとにかくウニョウニョしていて気持ち悪いこと。数学が生命体のように見えたわ。2024/01/10

mft

11
既存の理論ではうまくいかないはずの深層学習が成功を収めているため、理論の見直しを迫られている。たとえば、パラメータ数を増やせば過学習に陥るはずなのにそうならないのはなぜなのか、など。答えが出るまでしばらく面白い時代なんだろうね2021/06/17

hurosinki

7
insouさんの本。かなり薄くて数式も最小限なのでありがたい(が、それでも内容を十分理解できている自信がない)。 高い性能を発揮する深層学習(以下DL)だが、「なぜうまくいくのか」ということは実はよくわかっていない。本書はこの点に関する近年の理論的成果と限界をわかりやすく解説しており、主な内容は以下の3つ。 ①DLが多層をもつメリット ②膨大なパラメータをもつのに過適合が生じない理由 ③損失関数が凸関数とかけ離れているのにパラメータを(予想より短い時間で)学習できる理由2023/08/21

外部のウェブサイトに移動します

よろしければ下記URLをクリックしてください。

https://bookmeter.com/books/17752317
  • ご注意事項

    ご注意
    リンク先のウェブサイトは、株式会社ブックウォーカーの提供する「読書メーター」のページで、紀伊國屋書店のウェブサイトではなく、紀伊國屋書店の管理下にはないものです。
    この告知で掲載しているウェブサイトのアドレスについては、当ページ作成時点のものです。ウェブサイトのアドレスについては廃止や変更されることがあります。
    最新のアドレスについては、お客様ご自身でご確認ください。
    リンク先のウェブサイトについては、「株式会社ブックウォーカー」にご確認ください。