内容説明
深層学習をベースとした自然言語処理の基礎が体系的に身につく!
本書は、深層学習に基づく自然言語処理の基礎となる知識や考え方を、丁寧に展開し解説するものです。自然言語処理技術の概観から始め、機械学習の基本的枠組み、言語モデル・系列変換モデルとして非常に有用なTransformerとそれを活用した事前学習モデルの詳解、さらに自然言語処理の基本的なタスクである系列ラベリング、構文解析、意味解析と、自然言語処理を学ぶうえで必須の基礎知識や背景となる仕組みを幅広くカバーし、体系的に身につけることができる構成としました。
大学の学部上級から大学院の学生、さらには自然言語処理を学び始めた若手技術者にお薦めの教科書です。
目次
第1章 自然言語処理の概要
第2章 自然言語処理のための機械学習の基礎
第3章 単語ベクトル表現
第4章 系列に対するニューラルネットワーク
第5章 言語モデル・系列変換モデル
第6章 Transformer
第7章 事前学習済みモデルと転移学習
第8章 系列ラベリング
第9章 構文解析
第10章 意味解析
第11章 応用タスク・まとめ
演習問題略解
参考文献
感想・レビュー
※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。
愛楊
3
2022年8月出版。IT Text シリーズの一。全11章からなり、大学の科目の教科書を意図としている。RNN や Transformer など、ニューラルモデル以降の技術要素に主眼がある点が特徴である。本書は、マルコフモデルやトピックモデル、クラスタリング、語義曖昧性解消といった話題は含んでいない。arxiv の論文が参考文献として用いられている点を見ると、その点でも革新が起こりつつあることを確認する。ニューラルモデル以降の自然言語処理の要素の一覧として有用な書。2024/05/28
smatsu
2
NLPで押さえるべき基本知識がきっちり網羅。オーム社らしい手堅い書籍だ。もちろんTransformerの説明もある。自己注意機構の説明を読んでいつも疑問なのがQKVのベクトルを作るウェイトの学習の仕方。QをQっぽく、KをKっぽく、VをVっぽく学習するってどういう学習するのか。出来上がったQとKの内積を取ることがすなわち2トークン間の関連度=Attentionの強さを示すという事はなんとなくわかるのですが、それってどうやって学習するの?と。答えは、大量のテキストデータ自体を教師データとして(コメントへ続く)2025/03/30
tyfk
2
仕事関連。この一年あれこれやってたことがコンパクトにまとまってた。2022/10/24
まっつん
0
自然言語処理の基本が網羅されている。常に持っておきたい一冊。2023/09/09
tossy
0
最新の自然言語処理の話題を理論面から詳細に書いている本。Transformerや事前学習済みモデル、転移学習などの話も詳しくかかれている。章末の演習問題を解くことでより理解が深まる。2023/05/04
-
- 電子書籍
- 異世界に召喚されて私が国王!? そんな…
-
- 電子書籍
- 墓穴 GRAY COMICS
-
- 電子書籍
- 自由と愛の方程式【タテヨミ】第38話 …
-
- 電子書籍
- 田舎のホームセンター男の自由な異世界生…
-
- 電子書籍
- ラブ・ザ・ドッグ