Evaluation by Alignment : A Framework for Robust End-to-End NLP Assessment (Synthesis Lectures on Computer Science)

個数:
  • 予約

Evaluation by Alignment : A Framework for Robust End-to-End NLP Assessment (Synthesis Lectures on Computer Science)

  • 現在予約受付中です。出版後の入荷・発送となります。
    重要:表示されている発売日は予定となり、発売が延期、中止、生産限定品で商品確保ができないなどの理由により、ご注文をお取消しさせていただく場合がございます。予めご了承ください。

    ●3Dセキュア導入とクレジットカードによるお支払いについて
  • 【入荷遅延について】
    世界情勢の影響により、海外からお取り寄せとなる洋書・洋古書の入荷が、表示している標準的な納期よりも遅延する場合がございます。
    おそれいりますが、あらかじめご了承くださいますようお願い申し上げます。
  • ◆画像の表紙や帯等は実物とは異なる場合があります。
  • ◆ウェブストアでの洋書販売価格は、弊社店舗等での販売価格とは異なります。
    また、洋書販売価格は、ご注文確定時点での日本円価格となります。
    ご注文確定後に、同じ洋書の販売価格が変動しても、それは反映されません。
  • 製本 Hardcover:ハードカバー版/ページ数 120 p.
  • 言語 ENG
  • 商品コード 9783032165626

Full Description

This book presents a novel, alignment-based evaluation framework that tackles a persistent challenge in natural language processing (NLP): how to fairly and accurately evaluate systems when preprocessing steps such as tokenization and sentence boundary detection (SBD) misalign between gold-standard and system outputs. By introducing the jointly preprocessed evaluation algorithm (jp-algorithm), this book proposes a solution that brings precision and flexibility to the assessment of modern, end-to-end NLP systems. Traditional evaluation methods assume identical sentence and token boundaries between references and hypotheses, making them poorly suited to real-world data and increasingly common end-to-end architectures. The jp-algorithm addresses these shortcomings by introducing a linear-time alignment strategy inspired by techniques in machine translation. This method allows for robust comparisons even when input segmentation differs, enabling reliable evaluation in tasks such as preprocessing, constituency parsing, and grammatical error correction (GEC). The book explores how misaligned preprocessing impacts standard evaluation metrics including PARSEVAL for constituency parsing and F0.5 for GEC and provides empirical solutions for preserving evaluation accuracy without sacrificing methodological integrity. By offering detailed case studies, formal algorithmic descriptions, and practical implementations, this book equips researchers, tool developers, and instructors with a generalizable framework for improving NLP evaluation practices. This book is intended for researchers, graduate students, and professionals working in NLP, corpus linguistics, and computational linguistics.

Contents

Preface.- A Joint Preprocessing Framework for Evaluation.- Applications of JP-Algorithm.- Conclusion.

最近チェックした商品