Information Retrieval : 30th China Conference, CCIR 2024, Wuhan, China, October 18-20, 2024, Revised Selected Papers (Lecture Notes in Computer Science)

個数:

Information Retrieval : 30th China Conference, CCIR 2024, Wuhan, China, October 18-20, 2024, Revised Selected Papers (Lecture Notes in Computer Science)

  • 提携先の海外書籍取次会社に在庫がございます。通常3週間で発送いたします。
    重要ご説明事項
    1. 納期遅延や、ご入手不能となる場合が若干ございます。
    2. 複数冊ご注文の場合、分割発送となる場合がございます。
    3. 美品のご指定は承りかねます。

    ●3Dセキュア導入とクレジットカードによるお支払いについて
  • 【入荷遅延について】
    世界情勢の影響により、海外からお取り寄せとなる洋書・洋古書の入荷が、表示している標準的な納期よりも遅延する場合がございます。
    おそれいりますが、あらかじめご了承くださいますようお願い申し上げます。
  • ◆画像の表紙や帯等は実物とは異なる場合があります。
  • ◆ウェブストアでの洋書販売価格は、弊社店舗等での販売価格とは異なります。
    また、洋書販売価格は、ご注文確定時点での日本円価格となります。
    ご注文確定後に、同じ洋書の販売価格が変動しても、それは反映されません。
  • 製本 Paperback:紙装版/ペーパーバック版/ページ数 151 p.
  • 言語 ENG
  • 商品コード 9789819617098

Full Description

This book constitutes the refereed proceedings of the 30th China Conference on Information Retrieval, CCIR 2024, held in Wuhan, China, during October 18-20, 2024.

The 11 full papers presented in this volume were carefully reviewed and selected from 26 submissions. As the flagship conference of CIPS, CCIR focuses on the development of China's internet industry and provides a broad platform for the exchange of the latest academic and technological achievements in the field of information retrieval.

Contents

.- Play to Your Strengths: Collaborative Intelligence of Conventional Recommender Models and Large Language Models.

.- A Dual-Aligned Model for Multimodal Recommendation.

.- CASINet: A Context-Aware Social Interaction Rumor Detection Network.

.- A Claim Decomposition Benchmark for Long-form Answer Verification.

.- Dual-granularity Hierarchical Fusion Network for Multimodal Humor Recognition on Memes.

.- Exploring the Potential of Dimension Reduction in Building Efficient Dense Retrieval Systems.

.- Relation Extraction Model Based on Overlap Rules and Abductive Learning.

.- Multi-task Instruction Tuning for Temporal Question Answering over Knowledge Graphs.

.- On the Capacity of Citation Generation by Large Language Models.

.- Are Large Language Models More Honest in Their Probabilistic or Verbalized Confidence?.

.- QUITO: Accelerating Long-Context Reasoning through Query-Guided Context Compression.

最近チェックした商品