内容説明
哲学と情報工学の研究者が手を携え、統計的学習理論を帰納的推論の信頼性の問題に応用することを試みる。
目次
第1章 帰納の問題(問題;推論と含意 ほか)
第2章 帰納とVC次元(パターン認識;背景確率分布 ほか)
第3章 帰納と「単純性」(経験的誤差の最小化;普遍的一致性 ほか)
第4章 ニューラルネットワーク、サポートベクターマシン、トランスダクション(機械学習―パーセプトロン;フィードフォワードニューラルネット ほか)
著者等紹介
ハーマン,ギルバート[ハーマン,ギルバート][Harman,Gilbert]
1938年生まれ。1964年、ハーバード大学にて博士号を取得。専攻は哲学。プリンストン大学哲学科教授
クルカルニ,サンジェーヴ[クルカルニ,サンジェーヴ][Kulkarni,Sanjeev]
1991年、マサチューセッツ工科大学にて博士号を取得。専攻は情報科学・情報工学。プリンストン大学電子工学科教授
蟹池陽一[カニイケヨウイチ]
1962年生まれ。2002年、インディアナ大学にて博士号を取得。國學院大学兼任講師(本データはこの書籍が刊行された当時に掲載されていたものです)
※書籍に掲載されている著者及び編者、訳者、監修者、イラストレーターなどの紹介情報です。
感想・レビュー
※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。
愛楊
3
深層学習全盛期である2025年から見ると、2007年に原書が出版されていた本書の先見の明には驚かされる。これはむしろ必然かもしれない。2016年にはBucknerの深層学習の哲学的導入が、2024年には大規模言語モデルの哲学的入門が出版されているのだから、着実に機械学習の哲学は発展していると言える。ただ、大文字の分析哲学は数学ができないせいで全くこの流れを追えていないというのが現実であるらしい。グッドマンディスが本当に良かった。コネクショニストはグッドマンが嫌いだろう。2025/05/12
さとす
0
帰納的な推論がいかにして可能なのか確率論、統計学を使って述べている。解説もついているのでよろしいかと2013/03/12