機械学習を解釈する技術―予測力と説明力を両立する実践テクニック

個数:

機械学習を解釈する技術―予測力と説明力を両立する実践テクニック

  • ウェブストアに2冊在庫がございます。(2025年06月23日 01時28分現在)
    通常、ご注文翌日~2日後に出荷されます。
  • 出荷予定日とご注意事項
    ※上記を必ずご確認ください

    【ご注意事項】 ※必ずお読みください
    ◆在庫数は刻々と変動しており、ご注文手続き中に減ることもございます。
    ◆在庫数以上の数量をご注文の場合には、超過した分はお取り寄せとなり日数がかかります。入手できないこともございます。
    ◆事情により出荷が遅れる場合がございます。
    ◆お届け日のご指定は承っておりません。
    ◆「帯」はお付けできない場合がございます。
    ◆画像の表紙や帯等は実物とは異なる場合があります。
    ◆特に表記のない限り特典はありません。
    ◆別冊解答などの付属品はお付けできない場合がございます。
  • ●3Dセキュア導入とクレジットカードによるお支払いについて
    ●店舗受取サービス(送料無料)もご利用いただけます。
    ご注文ステップ「お届け先情報設定」にてお受け取り店をご指定ください。尚、受取店舗限定の特典はお付けできません。詳細はこちら
  • サイズ A5判/ページ数 255p/高さ 22cm
  • 商品コード 9784297122263
  • NDC分類 007.1
  • Cコード C3055

出版社内容情報

機械学習の研究開発が急速な勢いで進んでいます。理論研究はもちろん、機械学習手法が実装されたオープンソースのパッケージ開発も進み、それらを実務で利用するためのノウハウも蓄積されてきています。結果として、機械学習をはじめたばかりの入門者でも比較的高い精度の予測モデルを構築できるようになりました。
Deep Learning

内容説明

あらゆる予測モデルを解釈する4つの手法PFI、PD、ICE、SHAP/特徴量の重要度/特徴量と予測値の関係性/インスタンスごとの異質性/予測の理由―そのモデルの振る舞いを説明できますか?

目次

1章 機械学習の解釈性とは
2章 線形回帰モデルを通して「解釈性」を理解する
3章 特徴量の重要度を知る―Permutation Feature Importance
4章 特徴量と予測値の関係を知る―Partial Dependence
5章 インスタンスごとの異質性をとらえる―Individual Conditional Expectation
6章 予測の理由を考える―SHapley Additive exPlanations
付録A Rによる分析例―tidymodelsとDALEXで機械学習モデルを解釈する
付録B 機械学習の解釈手法で線形回帰モデルを解釈する

著者等紹介

森下光之助[モリシタミツノスケ]
東京大学大学院経済学研究科で計量経済学を用いた実証分析を学び、経済学修士号を取得。株式会社グリッドに入社し、機械学習を用いたデータ分析プロジェクトに従事。現在はTVISION INSIGHTS株式会社で執行役員兼データ・テクノロジー本部副本部長。テレビデータの分析、社内データの利活用の促進、データ部門のマネジメントを行っている(本データはこの書籍が刊行された当時に掲載されていたものです)
※書籍に掲載されている著者及び編者、訳者、監修者、イラストレーターなどの紹介情報です。

感想・レビュー

※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。

ぶう

16
予測モデルの用途は予測と解釈である。シンプルな線形回帰モデルは予測精度はそこそこであるが、解釈性が高い。逆にディープニューラルネットワークを始めとする複雑な機械学習モデルは予測精度を高められる分、解釈性が犠牲となりやすい。つまり予測精度と解釈性はトレードオフの関係にあるのだ。本書では、ブラックボックス化しやすい機械学習モデルを解釈する手法を解説してくれている。紹介されている手法はPFI、PD、ICE、SHAPの4つ。解釈性の高い線形回帰モデルを比較のベースとして解説されており、理解しやすい構成であった。2021/11/04

Taizo

8
機械学習はもともと解釈性を犠牲にして予測性能を高める目的で発展してきた。なのでそもそも「解釈性」というものは相性が悪いものだったりする。するんだけど、ブラックボックスのままじゃあまりにも危険だよねってことで、少しでもその振る舞いを理解する試みが最近活発に。本書はその機械学習の解釈する技術を非常に分かりやすく網羅的に記述している。アルゴリズムによらないPFI、PDP、ICE、SHAPという4つのテクニックを順々に解説。個人的には何よりも理解を促すための実験が非常に秀逸だと感じた。2022/05/12

yyhhyy

5
ブラックボックスの機械学習の特徴量の影響を推察する技術について。なかなかこのテーマで書かれた本がない中、とても貴重。2021/12/18

PenguinTrainer

4
ブラックボックスな機械学習手法の推論結果の寄与度計算方法が紹介された本。 PFI、PD、ICE、SHAPと4つ紹介されているが、計算負荷の問題を除けばSHAPが最も使い勝手が良い方法であるという印象を受けた。他の手法では特定の引数や特定の出力に特化した説明性の付与であった。 CNNにおけるGradCAMやtransformerにおけるattentionでは、ネットワーク構造に制約を受けて適用範囲が狭いのでSHAPを使いこなすのと計算量の削減が適用されたSHAPの活用を進めていきたい。2024/05/31

しろっこー

4
特徴量と予測値の関係を理解する助けとなる指標である, PFI, PD, ICE, SHAPの概説. 誌面のcode割合(Python)が多いためpage数ほど中身はないが最小toy modelと実dataに対する計算を行なっており, 特に最小toy modelの結果は概念理解の助けとなると感じた. 付録では上述の4指標を線形回帰で計算し直したりRでのcode例を記載したりと初学者向けの配慮がなされている.2022/03/21

外部のウェブサイトに移動します

よろしければ下記URLをクリックしてください。

https://bookmeter.com/books/18140349
  • ご注意事項

    ご注意
    リンク先のウェブサイトは、株式会社ブックウォーカーの提供する「読書メーター」のページで、紀伊國屋書店のウェブサイトではなく、紀伊國屋書店の管理下にはないものです。
    この告知で掲載しているウェブサイトのアドレスについては、当ページ作成時点のものです。ウェブサイトのアドレスについては廃止や変更されることがあります。
    最新のアドレスについては、お客様ご自身でご確認ください。
    リンク先のウェブサイトについては、「株式会社ブックウォーカー」にご確認ください。

最近チェックした商品