# Agent Werewolf：七种人格的AI狼人杀智能体设计与实现

> Agent Werewolf项目构建了7个具有独特人格特征的AI狼人杀智能体，基于0G Compute密封推理服务运行，展示了如何通过系统提示词和决策偏差塑造AI的社会推理能力。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-03T07:38:34.000Z
- 最近活动: 2026-05-03T07:50:00.208Z
- 热度: 159.8
- 关键词: AI智能体, 狼人杀, 人格设计, 社会推理, 0G Compute, 密封推理, TypeScript, 多智能体系统
- 页面链接: https://www.zingnex.cn/forum/thread/agent-werewolf-ai
- Canonical: https://www.zingnex.cn/forum/thread/agent-werewolf-ai
- Markdown 来源: ingested_event

---

# Agent Werewolf：七种人格的AI狼人杀智能体设计与实现\n\n狼人杀是一款经典的社会推理游戏，玩家需要通过对话、观察和逻辑推理来识别隐藏的"狼人"。将这个游戏交给AI来玩，不仅考验模型的推理能力，更挑战开发者如何为AI赋予可信的"人格"。Agent Werewolf项目正是这样一个尝试——它构建了7个具有独特人格特征的AI智能体，让它们在游戏中展现出不同的社交风格和决策模式。\n\n## 项目背景与架构\n\nAgent Werewolf是Agent-Werewolf生态系统的一部分，包含7个参考智能体实现（5个基础人格+2个变体）。这些智能体基于TypeScript SDK开发，使用0G Compute的密封推理服务（Sealed Inference）进行LLM调用。\n\n项目目前处于v1阶段，智能体实现已集成在GameMaster仓库中。一旦SDK正式发布，这些智能体将被外部化为独立的Docker编排服务，实现更灵活的部署和扩展。\n\n## 七种人格设计\n\n项目的核心亮点在于为每个智能体设计了鲜明的人格特征，这些特征通过系统提示词（System Prompt）和决策偏差（Decision Bias）共同塑造：\n\n### 1. 多疑偏执者（The Suspicious Paranoid）\n\n**对话风格**：简短、指责性强、专注于模式识别\n**决策偏差**：倾向于投票给最安静的玩家\n**设计思路**：这类玩家在游戏中总是怀疑他人，通过观察沉默玩家的行为模式来寻找"狼人"线索。AI被设计成会主动发起指控，但发言简洁有力。\n\n### 2. 魅力操纵者（The Charming Manipulator）\n\n**对话风格**：圆滑、善于建立联盟、偏好私聊\n**决策偏差**：跟随共识投票\n**设计思路**：这类玩家擅长社交工程，通过建立信任关系来引导游戏走向。AI会主动与其他玩家建立"联盟"，但投票时选择安全的多数选项。\n\n### 3. 安静分析者（The Quiet Analyst）\n\n**对话风格**：稀疏发言、逻辑性强、引用历史回合\n**决策偏差**：基于模式投票\n**设计思路**：观察型玩家，不轻易发言但每句话都有依据。AI会记录多轮游戏中的行为模式，基于统计分析做出判断。\n\n### 4. 大声指控者（The Loud Accuser）\n\n**对话风格**：戏剧化、宣言式、两极分化\n**决策偏差**：投票给第一个被指控的人\n**设计思路**：激进型玩家，通过制造话题和焦点来主导讨论。AI会主动发起指控并大声辩护，投票决策快速且坚定。\n\n### 5. 和平调解者（The Peacemaker）\n\n**对话风格**：温和、回避冲突、缓和紧张气氛\n**决策偏差**：跟随最新共识投票\n**设计思路**：调和型玩家，试图维持游戏氛围的和谐。AI会避免激烈对抗，投票时选择最新的主流意见以减少争议。\n\n### 6. 偏执阴影（Paranoid Shadow）——变体1\n\n**对话风格**：冗长的偏执、阴谋论词汇\n**决策偏差**：基于多轮模式投票\n**设计思路**：基础偏执者的强化版，更 verbose 和极端。AI会构建复杂的阴谋论来解释游戏事件，决策时考虑更长周期的模式。\n\n### 7. 操纵者阴影（Manipulator Shadow）——变体2\n\n**对话风格**：魅力型 contrarian、保护弱者\n**决策偏差**：逆共识投票\n**设计思路**：魅力操纵者的反叛版，故意与主流意见对立。AI会识别并"保护"被多数攻击的玩家，投票时选择少数派立场。\n\n## 技术实现架构\n\n项目采用模块化设计，主要组件包括：\n\n### Personas模块\n\n位于`src/personas.ts`，包含所有7个人格的完整系统提示词和决策偏差定义。系统提示词详细描述了每个角色的说话方式、思考模式和价值观，是塑造AI人格的核心。\n\n### WerewolfAgent类\n\n位于`src/agent.ts`，是智能体的核心实现。它负责：\n- 处理游戏状态更新\n- 调用LLM生成对话和决策\n- 应用决策偏差调整投票行为\n- 维护对话历史上下文\n\n### LLM客户端封装\n\n位于`src/llm.ts`，封装了0G Compute的密封推理客户端。密封推理确保模型调用在安全环境中执行，适合需要保护提示词和推理过程的场景。同时提供了mock模式用于开发测试。\n\n## 0G Compute密封推理\n\n项目选择0G Compute作为推理后端有其特殊考量。密封推理（Sealed Inference）意味着：\n\n- **提示词保护**：系统提示词和对话历史不会泄露给外部\n- **推理完整性**：模型输出在可信执行环境中生成\n- **可验证性**：推理过程可被审计和验证\n\n这对于狼人杀这类需要隐藏信息的游戏尤为重要——智能体不应该"看到"其他玩家的真实身份，而密封推理确保了这一点。\n\n## 开发历程与未来规划\n\nAgent Werewolf是在15小时的黑客马拉松中完成的原型项目。开发优先级集中在可演示的demo上，因此部分功能（如Docker编排的外部化部署）被推迟到v2阶段。\n\nv2规划包括：\n- 将智能体外部化为独立的Docker服务\n- 支持动态添加新人格\n- 引入学习机制，让AI从游戏历史中改进策略\n- 支持多语言和多文化背景的变体人格\n\n## 应用场景与启示\n\n虽然Agent Werewolf是一个游戏项目，但它展示了AI人格工程的重要原则：\n\n1. **系统提示词的力量**：通过精心设计的提示词，可以塑造AI的说话风格、价值观和行为模式\n2. **决策偏差的必要性**：纯LLM输出往往过于"理性"，添加偏差可以让AI更像人类玩家\n3. **多样化智能体的价值**：不同人格的智能体可以模拟真实社交场景中的多样性\n\n这些经验可以应用于客服机器人、虚拟伴侣、教育助手等需要"人格"的AI应用场景。\n\n## 总结\n\nAgent Werewolf通过7个精心设计的AI人格，展示了如何让大语言模型参与复杂的社会推理游戏。项目不仅技术实现简洁优雅，更在AI人格设计方面提供了有价值的参考。对于研究AI社交推理、多智能体系统或游戏AI的开发者，这是一个值得关注的开源项目。\n\n项目采用MIT许可证开源，代码可在GitHub获取。
