大模型知识库扒皮库
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
-
+
首页
知识星球 | 深度连接铁杆粉丝,运营高品质社群,知识变现的工具
来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_3627390.8543950288822292.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_6530800.38046955734655263.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_3657070.20259660987366113.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_6492490.9463671365161463.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_3639660.9817038312993929.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_6690180.29909562209251184.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_3605130.701345905381849.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_6727470.503601039723843.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_3751220.44867275521329797.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_6641440.5305317681148474.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_4481710.07273337848769057.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_7553540.8773286208362568.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_4482480.6731859714628673.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_7534590.9764468258346957.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_4586900.04201336030394087.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_7900180.4716426940061548.jpeg) arXiv论文 LLM应用 推荐系统来自:大语言模型论文跟踪进入星球 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_4627190.823938210189767.jpeg) HuggingAI 2024-03-19 21:30 整体胜于局部:本研究探讨将聚合演示应用于序列推荐任务的上下文学习,以期实现超越单个示例之和的效果。 LLMs 在多种 NLP 任务上表现出色,本研究尝试利用 ICL 方法将其打造成高效的序列推荐器。我们深入探究了指令形式、任务连贯性、示范选取以及示范数量对序列推荐效果的影响,并发现仅增加示范数量并不能有效提升准确性。为此,我们创新设计了 LLMSRec-Syn 算法,巧妙地将多个用户示范融合为一个综合示范。实验证明,在三个推荐数据集上,LLMSRec-Syn 显著优于当前最先进的基于 LLM 的序列推荐技术,且在部分场景下,其性能堪比甚至超过监督学习方法。相关代码已开源,地址为 [GitHub - demoleiwang/LLMSRec\_Syn: Code for Our NAA...](https://github.com/demoleiwang/LLMSRec_Syn "GitHub - demoleiwang/LLMSRec_Syn: Code for Our NAA...")。 原文链接:[\[2403.10135\] The Whole is Better than the Sum: Usi...](https://arxiv.org/abs/2403.10135 "[2403.10135] The Whole is Better than the Sum: Usi...") #arXiv论文# #LLM应用# #推荐系统# 展开全部 ![](https://yg9538.kmgy.top/img/2024/03/30/2024-03-30_230649_7876800.04804722596257138.jpeg) arXiv论文 LLM应用 推荐系统
yg9538
2024年3月30日 23:06
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码