章节 01
导读:提示词礼貌程度对国产大模型输出的影响研究
本文针对国产大语言模型开展系统性实验,探讨提示词礼貌程度对模型输出的影响。研究团队通过九轮迭代实验,对比DeepSeek、豆包、通义千问等模型在不同礼貌等级提示词下的表现,发现礼貌程度可能显著影响模型的正确率、拒答率和输出稳定性。本研究旨在填补中文语境下国产模型相关研究空白,为提示工程实践提供实证依据。
正文
本文介绍了一项针对国产大语言模型的实验研究,探讨提示词礼貌程度对模型输出结果的影响。研究团队通过九轮迭代实验,对比了不同礼貌等级提示词下 DeepSeek、豆包、通义千问等模型的作答表现,发现礼貌程度可能显著影响模型的正确率、拒答率和输出稳定性。
章节 01
本文针对国产大语言模型开展系统性实验,探讨提示词礼貌程度对模型输出的影响。研究团队通过九轮迭代实验,对比DeepSeek、豆包、通义千问等模型在不同礼貌等级提示词下的表现,发现礼貌程度可能显著影响模型的正确率、拒答率和输出稳定性。本研究旨在填补中文语境下国产模型相关研究空白,为提示工程实践提供实证依据。
章节 02
在人机对话中,用户常使用礼貌用语,但这些用语是否影响模型输出质量尚不明确。此前跨语言研究表明礼貌程度可能影响模型性能,但针对国产大语言模型的系统性研究仍缺乏。本研究聚焦中文语境,探索礼貌提示词对国产模型输出的系统性影响,以填补这一空白。
章节 03
基于Python 3.10+开发,依赖openai、requests、pandas,通过api_keys.json配置模型接入信息。
章节 04
章节 05
章节 06
章节 07