大模型知识库扒皮库
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
-
+
首页
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_8489480.3768064332198292.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_9411320.8235133088482893.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_8572790.4839817632464184.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_9622810.8135475117424741.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_8698220.5075605719602949.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_9679580.07013503483360128.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_8726690.4239663076159981.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_0343280.3140578059472835.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_8742610.6948786886460112.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_0851140.8262702611927123.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_9393830.2762779225937929.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_0778210.06339569094216302.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230840_9976960.1008591664886358.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_0833440.7813737624277028.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_1390880.8670110315597864.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_0318660.14767805306219628.jpeg) arXiv论文 LLM应用 人工智能来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_1551200.416507259832263.jpeg) HuggingAI 2024-03-28 02:40 为了大型语言模型,我们研究了一种既稳健又可扩展的模型编辑方法。 大型语言模型能够运用内置的参数知识或依赖上下文信息进行预测。理想情况下,当两者冲突时,模型应优先采纳相关的上下文信息,并在缺乏上下文时依赖固有的参数知识。这种方法使得我们能够通过上下文编辑来更新和修正模型知识,而无需重新训练。然而,以往的研究指出,模型往往忽视上下文信息,在无关上下文出现时也未能有效回退至参数知识。本研究揭示,通过恰当的提示技巧,经过指令精细化调整的LLMs能够被上下文信息有效控制,并对无关信息展现出鲁棒性。基于这一发现,我们提出了EREN新方法,旨在提升LLM编辑的扩展性和抗干扰能力。为了更准确地评估编辑工具的鲁棒性,我们汇集了一组包含更具挑战性的无关问题的新型数据集。实践证明,EREN在性能上大幅超越了现有的顶尖技术。它能够整合多处编辑的知识,并精准应对那些结构相似而意义不同的输入——这是以往技术所难以做到的。相关源代码已在 [GitHub - thunlp/EREN: Official codes for COLING 20...](https://github.com/thunlp/EREN "GitHub - thunlp/EREN: Official codes for COLING 20...") 上公布。 原文链接:[\[2403.17431\] Robust and Scalable Model Editing for...](https://arxiv.org/abs/2403.17431 "[2403.17431] Robust and Scalable Model Editing for...") #arXiv论文# #LLM应用# #人工智能# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230841_1560170.8589038794945413.jpeg) arXiv论文 LLM应用 人工智能
yg9538
2024年3月30日 23:08
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码