Zing 论坛

正文

AI会议总结器:基于本地LLM的隐私优先会议记录自动化工具

介绍一款使用C# .NET 8开发的开源工具,通过Ollama本地大语言模型自动生结构化的会议总结,支持参与者追踪、个人状态更新提取和待办事项生成,完全本地处理确保数据隐私。

会议总结本地LLMOllama隐私保护自动化工具.NET开源项目
发布时间 2026/05/11 11:55最近活动 2026/05/11 11:59预计阅读 2 分钟
AI会议总结器:基于本地LLM的隐私优先会议记录自动化工具
1

章节 01

导读:AI会议总结器——隐私优先的本地LLM会议记录工具

本文介绍开源工具ai-meeting-summarizer,旨在解决会议记录耗时费力且云端工具存在隐私风险的痛点。该工具基于C# .NET 8开发,利用Ollama本地大语言模型实现完全离线的会议内容自动总结,支持参与者追踪、个人状态更新提取和待办事项生成,核心特点是隐私优先的本地处理。

2

章节 02

项目背景与设计初衷

现代工作环境中,知识工作者每周平均参加15小时以上会议,整理纪要耗时且易遗漏;现有云端AI工具存在敏感数据上传的合规风险。开发者针对此空白,采用.NET 8和Ollama本地推理引擎,遵循Clean Architecture架构,将流程抽象为读取、预处理、总结、评估、输出的管道,保证可维护性与扩展空间。

3

章节 03

核心功能与技术实现

多格式输入支持

支持纯文本对话(每行发言人姓名开头)和JSON数组格式(兼容Whisper输出),自动检测并预处理转换。

结构化总结生成

输出包含参与者列表、会议概述、个人状态更新(已完成/进行中/阻碍)及行动项清单,提升信息可读性与操作性。

LLM-as-a-Judge质量评估

生成的总结经二次本地模型评估,从完整性、准确性等5维度(0-2分)打分,给出定性评价,为优化提供数据支撑。

4

章节 04

本地部署与隐私保障

所有处理环节均在本地完成,会议数据不离开用户设备,适合处理商业机密或受NDA约束的内容。用户需运行Ollama服务,可使用Llama3、Mistral、Qwen2.5等开源模型;推荐Llama3/Qwen2.5 7B版本,消费级硬件即可平衡性能与质量,显存受限可选Mistral,默认模型可通过配置修改。

5

章节 05

技术架构与代码组织

遵循分层架构:Domain层定义核心模型(总结/评估结果);Application层负责管道接口与流程编排;Infrastructure层细分Ollama客户端、文件IO、数据处理。单元测试覆盖率90%+,使用xUnit和Moq;配置文件为appsettings.json,支持自定义Ollama地址、模型、超时等参数。

6

章节 06

使用场景与局限性

适用场景:技术团队站会/同步会、处理敏感客户信息的咨询公司、合规要求严格的金融机构等。

当前局限:未集成音频转录(需先转文本)、不支持未标注说话人的自动分离、受本地模型上下文窗口限制(4K-8K token),分块处理功能待开发。

7

章节 07

未来发展方向

开发计划包括:集成Whisper实现音频到总结全流程自动化;添加说话人分离技术;突破上下文限制的分块处理与多轮总结;开发图形界面;集成Jira、Confluence、Slack等协作工具。

8

章节 08

结语:隐私与效率平衡的务实AI应用

ai-meeting-summarizer聚焦特定场景核心需求,通过合理架构与本地化处理实现隐私与效率的平衡,是重视数据主权又希望享受AI便利的组织值得关注的开源项目。