# Tachi：面向AI时代的智能威胁建模与安全漏洞检测框架

> Tachi是一个专为Claude Code设计的威胁建模与AI推理漏洞检测工具，通过14个专用智能体实现STRIDE威胁分类与MAESTRO分层映射，为现代AI应用提供架构级安全分析能力。

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-08T17:42:20.000Z
- 最近活动: 2026-05-08T17:51:58.546Z
- 热度: 145.8
- 关键词: 威胁建模, 漏洞检测, AI安全, Claude Code, STRIDE, MAESTRO, Agent安全, LLM安全, SAST, 安全审计
- 页面链接: https://www.zingnex.cn/forum/thread/tachi-ai
- Canonical: https://www.zingnex.cn/forum/thread/tachi-ai
- Markdown 来源: ingested_event

---

# Tachi：面向AI时代的智能威胁建模与安全漏洞检测框架

## 背景：传统安全工具的局限性

在软件开发的安全实践中，静态应用安全测试（SAST）和软件成分分析（SCA）已经成为标准配置。这些工具擅长发现语法层面的漏洞，比如SQL注入、跨站脚本攻击等常见模式。然而，随着AI Agent和大型语言模型（LLM）应用的普及，安全威胁的形态发生了根本性变化。

现代AI系统面临的安全挑战往往存在于架构层面：身份验证流程的断裂、权限边界的缺失、提示注入攻击路径、Agent自主性缺口、跨层攻击链路等。这些问题无法通过简单的语法扫描发现，需要对整个系统架构进行深度推理分析。

## Tachi项目概述

Tachi是由David Matousek开发的开源威胁建模与AI推理漏洞检测框架，专门为Claude Code环境设计。它填补了传统安全工具在逻辑层漏洞检测方面的空白，通过AI推理能力分析架构描述，发现架构层面的安全风险。

项目的核心理念是将威胁建模与漏洞扫描整合到同一个引擎中，提供两种互补的视角：威胁建模视图生成结构化安全文档，漏洞扫描视图则针对每个发现的风险进行评分和分类映射。

## 核心架构与技术特性

### 14类专用威胁分析智能体

Tachi的核心优势在于其多智能体架构。执行一次`/tachi.threat-model`命令会同时调度14个专门的威胁分析智能体，这些智能体覆盖三大威胁类别：

**STRIDE六大威胁类别**：欺骗（Spoofing）、篡改（Tampering）、否认（Repudiation）、信息泄露（Information Disclosure）、拒绝服务（Denial of Service）、权限提升（Elevation of Privilege）。这是微软提出的经典威胁分类框架，适用于任何软件系统。

**五大LLM专项威胁**：针对大型语言模型特有的安全风险，包括提示注入、模型窃取、训练数据污染、输出操控等。

**三大Agent专项威胁**：面向AI Agent系统的独特风险，如过度授权、工具滥用、自主决策失控等。

### MAESTRO七层威胁分类体系

Tachi采用CSA（云安全联盟）提出的MAESTRO七层分类法，将AI系统威胁从物理基础设施到应用层进行完整映射：

- **L1 基础设施层**：计算资源、网络、存储的物理和虚拟安全
- **L2 模型层**：模型文件、权重、推理引擎的安全
- **L3 数据层**：训练数据、提示数据、输出数据的保护
- **L4 运行时层**：模型推理过程中的安全控制
- **L5 编排层**：Agent调度、工作流管理的安全
- **L6 接口层**：API、用户界面的访问控制
- **L7 应用层**：业务逻辑、集成点的安全

这种分层方法使安全团队能够精确定位风险所在的具体层面，制定针对性的缓解措施。

### OWASP框架全覆盖

Tachi实现了对五个主要OWASP框架的全面覆盖：

- **LLM Top 10:2025**：大语言模型应用十大安全风险
- **Agentic Top 10:2026**：AI Agent系统的新兴威胁
- **ML Top 10:2023**：传统机器学习系统的安全漏洞
- **Mobile Top 10:2024**：移动应用安全（适用于移动端AI应用）
- **Web/API Top 10:2021/2023**：Web应用和API安全基础

这种多框架覆盖确保了Tachi能够识别跨领域的复合风险。

## 丰富的输出格式与可视化能力

### 六种核心命令与二十余种输出产物

Tachi提供六个主要命令，每个命令生成特定的安全分析文档：

**`/tachi.threat-model`**：主威胁建模命令，生成 threats.md（主要威胁清单）、threats.sarif（SARIF 2.1.0格式用于CI/CD集成）、threat-report.md（叙事式安全报告）、attack-trees/（每个关键/高危发现的攻击树图）。

**`/tachi.risk-score`**：定量风险评分，基于CVSS标准计算可利用性、可扩展性、可达性等指标，输出risk-scores.md和risk-scores.sarif。

**`/tachi.compensating-controls`**：分析代码库中已有的安全控制措施，识别残余风险，推荐缺失的控制手段。

**`/tachi.infographic`**：生成可视化风险图表，提供5种预设模板，直观展示威胁分布和影响范围。

**`/tachi.security-report`**：生成专业的PDF安全评估手册，使用Typst排版引擎，适合向管理层和审计人员汇报。

**`/tachi.architecture`**：自动生成架构描述文档，支持从现有代码库推断系统架构。

### 多格式架构输入支持

Tachi支持五种架构描述格式，使其能够适应不同的文档习惯：

- **Mermaid图表**：流程图、时序图、类图等
- **自由文本**：自然语言描述的系统设计
- **ASCII艺术**：简单的文本图形表示
- **PlantUML**：专业的UML建模语言
- **C4模型**：软件架构的上下文、容器、组件、代码四层视图

这种灵活性意味着团队可以使用已有的架构文档，无需重新学习新的建模工具。

## 基线对比与持续追踪

Tachi内置基线对比功能，可以跟踪不同时间点的扫描结果变化，识别新增风险、已修复问题和持续存在的威胁。这一特性对于敏捷开发团队尤为重要，能够在快速迭代中保持安全态势的可视性。

对比报告清晰展示：
- 本次扫描新发现的安全问题
- 上次发现但已修复的漏洞
- 长期存在需要持续关注的风险

这种时间维度的追踪帮助团队评估安全投入的效果，优化安全工作的优先级。

## 与Agentic开发工具链的集成

Tachi基于Agentic Oriented Development Kit（AOD Kit）构建，这是一个AI Agent辅助开发的治理框架。这种设计使Tachi天然适合集成到现代AI驱动的开发工作流中。

安装过程简单直接，通过install.sh脚本即可完成，支持macOS、Linux和WSL环境。安装后，重启Claude Code即可加载新的智能体和命令。

## 技术依赖与系统要求

Tachi需要两个外部CLI工具来实现完整功能：

- **Typst**：用于编译PDF安全报告
- **Mermaid CLI (mmdc)**：用于渲染攻击路径图

这两个工具的安装命令在不同操作系统上略有差异，项目文档提供了详细的安装指南。如果缺少这些工具，`/tachi.security-report`命令会在预检阶段提示并提供安装命令。

可选依赖包括Google AI Studio的GEMINI_API_KEY，用于生成信息图表的图像文件。没有这个密钥，所有基于文本的输出功能仍然可以正常使用。

## 实际应用场景与价值

### AI应用开发团队
对于正在构建LLM应用或AI Agent的团队，Tachi提供了架构层面的安全审查能力。在编码之前识别潜在的安全设计缺陷，远比在上线后修复漏洞成本更低。

### 安全审计与合规
Tachi生成的SARIF格式输出可以直接集成到GitHub Code Scanning和其他CI/CD工具中，满足DevSecOps流程的自动化要求。PDF安全报告则适合向审计人员和合规团队展示安全状况。

### 教育与培训
项目提供的完整开发者指南（DEVELOPER_GUIDE_TACHI.md）包含详细的工作示例，是学习威胁建模和AI安全的优质资源。攻击树和风险评分的可视化输出也适合用于安全培训。

## 社区与生态

Tachi项目建立了完善的社区支持体系：

- **GitHub Discussions**：用于问题讨论、功能请求和经验分享
- **GitHub Issues**：用于报告可复现的缺陷
- **私有安全建议**：通过GitHub Security Advisories报告安全漏洞
- **实际使用案例**：社区成员可以分享 anonymized 的使用经验

项目采用开源许可证发布，代码完全透明，适合企业评估和定制化改造。

## 总结与展望

Tachi代表了安全工具向AI原生方向演进的重要趋势。传统安全扫描工具基于规则匹配，而Tachi利用AI的推理能力进行架构分析，能够发现更深层次的逻辑漏洞。

随着AI Agent在软件开发中扮演越来越重要的角色，专门针对Agent系统的安全工具将成为必需品。Tachi的MAESTRO七层分类法和Agent专项威胁类别为这一领域建立了有价值的参考框架。

对于正在采用Claude Code等AI辅助开发工具的团队，Tachi提供了一个自然的安全增强层。它不需要改变现有的开发流程，只需添加几个命令即可获得专业的威胁建模能力。

项目的持续发展方向包括扩展威胁智能体的覆盖范围、增强与其他开发工具的集成、以及优化大型代码库的分析性能。随着AI安全领域的快速发展，Tachi有望成为AI应用安全开发生命周期中的标准工具。
