大模型知识库扒皮库
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
-
+
首页
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_7628900.31499267621137017.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_9183960.4193981471943611.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_7837110.13827743886412647.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_8873410.770251135301226.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_7816990.5337481695551134.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_9681430.21289245783899746.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_7807670.4122284366796445.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_9677340.9123569592887011.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_7711340.15447622488697021.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230814_0029550.29445594213767057.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_8366480.27050818566992907.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_9634520.8900956885745643.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_8609230.8730002881505341.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_9968140.11833781822421918.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_8788080.4804219218124002.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230814_0449040.8149464413824127.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230813_8800110.5896011194965449.jpeg) HuggingAI 2024-03-28 06:30 本研究全面探讨了大型语言模型在识别安全漏洞方面的能力。 大型语言模型(LLMs)在编码及软件工程领域展现出巨大潜力。确保软件系统的安全性、完整性和可靠性,漏洞检测起着至关重要的作用。精准的漏洞检测需对代码进行深入推理,成为检验LLMs推理能力边界的理想场景。尽管已有研究尝试利用LLMs进行漏洞检测,但其在此领域的真正潜力及解释漏洞时可能出现的错误尚未明确。本研究对十一个业界领先的代码生成LLMs进行了深入调研,评估了它们在漏洞检测方面的表现。我们系统性地探索了最有效的提示策略,运用了上下文学习和思维链等技巧,并提出了三种新的提示方法。研究结果显示,尽管这些方法在一定程度上提升了模型的检测效果,但LLMs在漏洞识别上仍面临挑战。模型的平衡准确度介于0.5至0.63之间,平均来看,它们在76%的情况下无法准确区分程序的缺陷版和修复版。通过对287个模型推理样本的细致分析,我们发现超过半数的LLM响应存在错误,模型常误判代码错误位置并错误识别错误类型。在DbgBench的27个错误样本中,LLMs仅正确识别出6个,而人类参与者的正确识别率高达70-100%。这一发现提示我们,尽管LLMs在其他领域有着显著潜力,但在理解和处理关键代码结构及安全概念方面,它们可能仍显不足。相关数据和代码已公开于 [LLM Vulnerability Detection](https://figshare.com/s/78fe02e56e09ec49300b "LLM Vulnerability Detection")。 原文链接:[\[2403.17218\] A Comprehensive Study of the Capabili...](https://arxiv.org/abs/2403.17218 "[2403.17218] A Comprehensive Study of the Capabili...") #arXiv论文# #LLM应用# #软件工程# #漏洞检测# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230814_0501190.5610923666571782.jpeg) arXiv论文 LLM应用 软件工程 漏洞检测
yg9538
2024年3月30日 23:08
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码