章节 01
正文
llm-eval:轻量级大语言模型一致性评估工具
llm-eval是一个基于C++开发的轻量级大语言模型评估工具,专注于测试模型输出的一致性。它通过多次运行相同提示并比较结果,帮助开发者量化模型的稳定性,无需额外依赖即可在Windows上运行。
LLM评估一致性测试C++工具模型稳定性提示工程Windows开源工具性能评估
正文
llm-eval是一个基于C++开发的轻量级大语言模型评估工具,专注于测试模型输出的一致性。它通过多次运行相同提示并比较结果,帮助开发者量化模型的稳定性,无需额外依赖即可在Windows上运行。
章节 01