大模型知识库扒皮库
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
-
+
首页
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索来自:大语言模型论文跟踪进入星球  HuggingAI 2024-03-28 02:20 KC-GenRe:借助大型语言模型,推出一种知识约束的生成式重排技术,旨在完善知识图谱。 知识图谱补全(KGC)旨在预测实体间缺失的信息。传统KGC重排序方法多依赖非生成性语言模型来评估候选事实的概率。近期,生成性大型语言模型(LLMs)在信息提取、对话系统等领域展现出卓越性能。将其应用于KGC重排序,可充分利用其丰富的预训练知识和强大的生成能力。然而,这一过程中可能面临不匹配、顺序错乱和信息遗漏等新挑战。为此,我们提出了KC-GenRe,一种基于LLMs的知识约束生成式重排序方法。我们通过将KGC重排序问题转化为候选标识符的生成排序问题,利用生成性LLMs进行解决。针对顺序错乱问题,我们开发了一种知识引导的交互训练方法,提升了候选事实的识别和排序准确性。为应对遗漏问题,我们设计了一种知识增强的约束推理方法,通过上下文提示和控制生成,确保排名的有效性。实验结果显示,KG-GenRe在四个数据集上达到了最先进的水平,相较于传统方法,在平均排名倒数回收率(MRR)和命中率@1(Hits@1)指标上分别提升了6.7%和7.7%,与未进行重排序的方法相比,提升了9.0%和11.1%。深入分析验证了KC-GenRe各组件的有效性。 原文链接:[\[2403.17532\] KC-GenRe: A Knowledge-constrained Gen...](https://arxiv.org/abs/2403.17532 "[2403.17532] KC-GenRe: A Knowledge-constrained Gen...") #arXiv论文# #LLM应用# #知识图谱# #信息检索# 展开全部  arXiv论文 LLM应用 知识图谱 信息检索
yg9538
2024年3月30日 23:08
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码