zikele

zikele

人生如此自可乐

大規模言語モデルに基づく補完製品の再順位付け方法

2507.16237v1

日本語タイトル#

大規模言語モデルに基づく補完製品の再ランキング方法

英文タイトル#

LLM-Enhanced Reranking for Complementary Product Recommendation

日本語摘要#

補完製品推薦は、顧客価値を高めるために一緒に使用されるアイテムを提案することを目的とした、重要でありながら挑戦的なタスクです。既存のグラフニューラルネットワーク(GNN)アプローチは、複雑な製品関係を捉える上で顕著な進展を遂げていますが、特にロングテール商品に対しては、精度と多様性のトレードオフに苦しむことがよくあります。本論文では、大規模言語モデル(LLMs)を利用して補完製品推薦の再ランキングを強化するモデル非依存のアプローチを紹介します。従来の研究が主にデータ前処理とグラフ強化に LLMs を使用していたのとは異なり、私たちの方法は、既存の推薦モデルから取得した候補アイテムの再ランキングに LLM ベースのプロンプト戦略を直接適用し、モデルの再トレーニングを必要としません。公開データセットでの広範な実験を通じて、私たちのアプローチが補完製品推薦における精度と多様性のバランスを効果的に取ることを示し、すべてのデータセットのトップ推薦アイテムにおいて、平均して精度指標が 50%以上向上し、多様性指標が 2%向上しました。

英文摘要#

Complementary product recommendation, which aims to suggest items that are used together to enhance customer value, is a crucial yet challenging task in e-commerce. While existing graph neural network (GNN) approaches have made significant progress in capturing complex product relationships, they often struggle with the accuracy-diversity tradeoff, particularly for long-tail items. This paper introduces a model-agnostic approach that leverages Large Language Models (LLMs) to enhance the reranking of complementary product recommendations. Unlike previous works that use LLMs primarily for data preprocessing and graph augmentation, our method applies LLM-based prompting strategies directly to rerank candidate items retrieved from existing recommendation models, eliminating the need for model retraining. Through extensive experiments on public datasets, we demonstrate that our approach effectively balances accuracy and diversity in complementary product recommendations, with at least 50% lift in accuracy metrics and 2% lift in diversity metrics on average for the top recommended items across datasets.

PDF 取得#

中文 PDF を見る - 2507.16237v1

スマート達人抖店 QR コード

抖音でスキャンしてさらに素晴らしいコンテンツを見る

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。