大模型知识库扒皮库
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
-
+
首页
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231134_9703560.6951000905984461.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_0789550.4322847814017934.jpeg) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231134_9785780.22572619421138163.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_1172040.4495080382730974.jpeg) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231134_9804680.17314978033209416.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_1587610.19557947296552614.jpeg) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231134_9819590.8274163352229665.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_1440590.6309377215868245.jpeg) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231134_9916080.2023796547092358.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_2517600.363726048821405.jpeg) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_0406410.7909855697715898.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_1911480.7715796478542233.jpeg) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_0757560.561599052386557.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_2468000.9314124726551507.jpeg) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_0821570.3158562618381553.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://images.zsxq.com/FkOKyGMuBa0PDIHLSnSW4PdAa3vL?imageMogr2/auto-orient/thumbnail/750x/format/jpg/blur/1x0/quality/75&e=1714492799&s=jtvmyvvymvvttyv&token=kIxbL07-8jAj8w1n4s9zv64FuZZNEATmlU_Vm6zD:da3rofeO8kflidoUvp80ECKL3gw=) arXiv论文 LLM应用 开放领域问答 多跳推理来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_231135_0647650.4657274468816205.jpeg) HuggingAI 2024-03-23 02:20 Dr3 提议,在处理开放领域多跳问题回答时,应引导大语言模型避免提供与主题无关的答案。 开放领域多跳问答(ODMHQA)对于借助外部知识源检索信息并经过多阶段推理以解答复杂问题的NLP至关重要。近期,得益于强大的规划、推理及运用工具能力,大型语言模型(LLMs)在解决此类问题上展现出卓越成果。然而,在处理ODMHQA时,LLMs有时会产生偏离主题的答案,这类答案与原问题并无关联,且占据约三分之一的错误答案比例,却尚未得到深入探讨。为此,我们创新性地设计了“判别-重构-重解-再分解”(Dr3)机制。该机制中的判别组件会利用LLMs自身特性鉴别答案是否跑题,一旦发现跑题答案,校正组件就会沿着逆向推理链条逐步调整(重构-重解-再分解),直至得出切题的最终答案。实验证明,在HotpotQA和2WikiMultiHopQA两个数据集上,我们的Dr3机制成功将ODMHQA中偏离主题答案的发生率降低了接近13%,相较于无Dr3机制的基准方法,精确匹配(EM)指标提升了近3%。 原文链接:[\[2403.12393\] Dr3: Ask Large Language Models Not to...](https://arxiv.org/abs/2403.12393 "[2403.12393] Dr3: Ask Large Language Models Not to...") #arXiv论文# #LLM应用# #开放领域问答# #多跳推理# 展开全部 ![](https://images.zsxq.com/FkOKyGMuBa0PDIHLSnSW4PdAa3vL?imageMogr2/auto-orient/thumbnail/750x/format/jpg/blur/1x0/quality/75&e=1714492799&s=jtvmyvvymvvttyv&token=kIxbL07-8jAj8w1n4s9zv64FuZZNEATmlU_Vm6zD:da3rofeO8kflidoUvp80ECKL3gw=) arXiv论文 LLM应用 开放领域问答 多跳推理
yg9538
2024年3月30日 23:11
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码