出版社内容情報
最新の自然言語解析(NLP)では、Transformerという種類のニューラルネットワークが使われるようになりました。
本書ではBERTやGPT2などのAIで採用され、NLP技術にブレークスルーをもたらしたTransformerを、基礎から解説します。
ニューラルネットワークの実装は、Tensorflowを利用します。
内容説明
自然言語処理(NLP)技術にブレークスルーをもたらしたTransformerを基礎から解説!ニューラルネットワークを自分で実装することで理解が深まる!
目次
01 Transformerとは
02 自然言語処理の前準備
03 Self‐Attentionと学習の準備
04 Transformerの実装
05 BERT
06 BERTによるテキスト分類
07 文章の抽出
08 GPT2
09 抽象型文章要約
著者等紹介
坂本俊之[サカモトトシユキ]
機械学習エンジニア・兼・AIコンサルタント。現在はAIを使用した業務改善コンサルティングや、AIシステムの設計・実装支援などを行う(本データはこの書籍が刊行された当時に掲載されていたものです)
※書籍に掲載されている著者及び編者、訳者、監修者、イラストレーターなどの紹介情報です。
感想・レビュー
※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。
多分マグマグ
3
自然言語処理について、文章要約にも、抽出型文章生成と抽象型文章生成があると分かった。難しい言葉ばかりであるが、ほんの少しでも理解できると楽しい。2023/07/18
smatsu
3
ある程度勉強して大分わかって来たと思ったので改めて読んでみたが、やっぱりこれ何言ってるかわからない…こういう場合は、自分がまだ全然未熟でこの本を読める段階に来ていないか、この本の説明が下手なのかどちらかなのだが…本当にすみませんが後者のような気がしてきました。なぜなら他の本での説明だと数式も含めて結構わかった個所(例えばAttentionについて)でも、この本での説明だと何を言ってるのかよくわからない箇所が多いから。決定的に自分とは相性悪そうな本なので、当面お蔵入りとします。2023/03/12
takao
1
ふむ2024/10/11
smatsu
0
お蔵入りと書いたけれどもMHAについて改めて勉強する中でその辺りの理論的な説明をしている第3章を中心に読み直した。結論から言うとやっぱりこの本の説明はダメだと思う。 例えば「チャンネル」とか「チャンネル方向」とか言う言葉を何の定義も説明もせずにいきなり使いだすのは、読者からしたら全くわけがわからないと思います。 他の本で勉強した後なのでなんとなく何を言っているかは全体的にはわかるようになってきましたが、かなり説明が残念な本であり入門者にはお勧めできないという本書への評価は変わらない。辛口ですみません。2023/10/18
-
- 洋書
- Computaçã…