BERT入門―プロ集団に学ぶ新世代の自然言語処理

個数:
  • ポイントキャンペーン

BERT入門―プロ集団に学ぶ新世代の自然言語処理

  • 提携先に4冊在庫がございます。(2025年05月01日 00時03分現在)
    通常、5~7日程度で出荷されます。
    ※納期遅延や、在庫切れで解約させていただく場合もございます。
    ※1回のご注文は10冊までとなります
  • 出荷予定日とご注意事項
    ※上記を必ずご確認ください

    【出荷予定日】
    通常、5~7日程度で出荷されます。

    【ご注意事項】 ※必ずお読みください
    ◆在庫数は刻々と変動しており、ご注文手続き中に減ることもございます。
    ◆在庫数以上の数量をご注文の場合には、超過した分はお取り寄せとなり日数がかかります。入手できないこともございます。
    ◆事情により出荷が遅れる場合がございます。
    ◆お届け日のご指定は承っておりません。
    ◆「帯」はお付けできない場合がございます。
    ◆画像の表紙や帯等は実物とは異なる場合があります。
    ◆特に表記のない限り特典はありません。
    ◆別冊解答などの付属品はお付けできない場合がございます。
  • ●3Dセキュア導入とクレジットカードによるお支払いについて
    ●店舗受取サービス(送料無料)もご利用いただけます。
    ご注文ステップ「お届け先情報設定」にてお受け取り店をご指定ください。尚、受取店舗限定の特典はお付けできません。詳細はこちら
  • サイズ B5判/ページ数 180p/高さ 24cm
  • 商品コード 9784865943405
  • NDC分類 007.1
  • Cコード C3055

出版社内容情報

◆Attention機構、Transformerアルゴリズム、BERTモデルを徹底解説◆

BERTの登場により、自然言語処理(NLP)におけるAIのビジネス適用が劇的に進展し、続々と新しい技術が生まれています。主流となったBERTをきちんと理解すれば、新世代のNLPにキャッチアップできます。
本書では、技術開発はもちろん実務経験も豊富なNLPの専門家集団が、Attention機構、Transformerアルゴリズム、BERTモデルを徹底解説。プロフェッショナルチームが仕組みを詳しく、現場で使えるコードをやさしく手引きします。

内容説明

BERTの登場により、自然言語処理(NLP)におけるAIのビジネス適用が劇的に進展し、続々と新しい技術が生まれています。主流となったBERTをきちんと理解すれば、新世代のNLPにキャッチアップできます。本書では、技術開発はもちろん実務経験も豊富なNLPの専門家集団が、Attention機構、Transformerアルゴリズム、BERTモデルを徹底解説。プロフェッショナルチームが仕組みを詳しく、現場で使えるコードをやさしく手引きします。

目次

第1章 NLPの基礎知識
第2章 NLPの技術解説
第3章 BERTの技術解説
第4章 BERTの環境構築
第5章 代表タスクを通じて理解する
第6章 練習問題
第7章 ビジネス適用における課題と解決

著者等紹介

佐藤大輔[サトウダイスケ]
2012年、株式会社NTTデータに入社。自然言語処理技術のR&D組識にて研究開発に従事。様々な業界のビジネスデータへBERTを中心とした自然言語処理技術を適用するPoCをプロジェクトリーダとして推進している

和知〓磨[ワチトクマ]
2016年、株式会社NTTデータに入社。ディープランニング技術を専門とし、自然言語処理・画像処理・説明可能AIなどの研究開発に従事。研究開発成果の技術・ノウハウ基にビジネス適用のための実現性検証やシステム開発なども行っている

湯浅晃[ユアサアキラ]
株式会社NTTデータのR&D部門にてチャットボット、文書検索等の自然言語処理技術の研究やプロダクト開発に従事。NTTデータ社内塾のAI分野の塾長としてAI人材の育成も行っている

片岡紘平[カタオカコウヘイ]
2021年、株式会社NTTデータに中途入社。前職ではソーシャルゲームの分析・データドリブンコンサルティング業務に、現職では自然言語処理技術のR&D組識にて研究開発・PoC等に従事。ウェルビーイングを含む、人にフォーカスしたAIなどに興味がある

野村雄司[ノムラユウジ]
2005年、株式会社NTTデータに入社。自然言語処理に関する研究開発および事業に従事。自身で開発した技術のビジネス適用、最新技術のトレンド調査の経験を経て、現在はR&Dチームをマネジメントする立場で、自然言語処理を中心とするAI技術の開発、ビジネス適用を推進(本データはこの書籍が刊行された当時に掲載されていたものです)
※書籍に掲載されている著者及び編者、訳者、監修者、イラストレーターなどの紹介情報です。

感想・レビュー

※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。

Tenouji

12
最新の言語モデルの内容を知りたくて読んでみた。 AttentionとTransformer、想像していたのと、全然、違ってた。ある意味、シンプルな仕組み。これで、知性のようなものが発現してるのか…本だけでは、理解が及ばなかったのでYouTube動画も参照。2023/04/26

yorip

1
Colaboratoryをポチポチしてただけなのであまり理解できてない2023/01/20

kk

1
知っていることが大半なので隙間時間に読んで約二日で読了。コロナ鬱治ってきたな(喜)!青いBERT本とわりと内容がかぶります。一番の違いはこちらはTrainer、あちらはLightningということ。Attentionの説明はこっちのほうが詳しい。マルチラベル文書分類とかをしたければあちら。7章が一番マニアックというか、おそらく著者らが関心があって書いていて楽しかっただろうという部分でした。読んでいて一番楽しかったのもそこ。知らないライブラリを知ることができたのが一番の収穫です。 2023/01/16

外部のウェブサイトに移動します

よろしければ下記URLをクリックしてください。

https://bookmeter.com/books/19991031
  • ご注意事項

    ご注意
    リンク先のウェブサイトは、株式会社ブックウォーカーの提供する「読書メーター」のページで、紀伊國屋書店のウェブサイトではなく、紀伊國屋書店の管理下にはないものです。
    この告知で掲載しているウェブサイトのアドレスについては、当ページ作成時点のものです。ウェブサイトのアドレスについては廃止や変更されることがあります。
    最新のアドレスについては、お客様ご自身でご確認ください。
    リンク先のウェブサイトについては、「株式会社ブックウォーカー」にご確認ください。

最近チェックした商品