章节 01
导读:AI会议总结器——隐私优先的本地LLM会议记录工具
本文介绍开源工具ai-meeting-summarizer,旨在解决会议记录耗时费力且云端工具存在隐私风险的痛点。该工具基于C# .NET 8开发,利用Ollama本地大语言模型实现完全离线的会议内容自动总结,支持参与者追踪、个人状态更新提取和待办事项生成,核心特点是隐私优先的本地处理。
正文
介绍一款使用C# .NET 8开发的开源工具,通过Ollama本地大语言模型自动生结构化的会议总结,支持参与者追踪、个人状态更新提取和待办事项生成,完全本地处理确保数据隐私。
章节 01
本文介绍开源工具ai-meeting-summarizer,旨在解决会议记录耗时费力且云端工具存在隐私风险的痛点。该工具基于C# .NET 8开发,利用Ollama本地大语言模型实现完全离线的会议内容自动总结,支持参与者追踪、个人状态更新提取和待办事项生成,核心特点是隐私优先的本地处理。
章节 02
现代工作环境中,知识工作者每周平均参加15小时以上会议,整理纪要耗时且易遗漏;现有云端AI工具存在敏感数据上传的合规风险。开发者针对此空白,采用.NET 8和Ollama本地推理引擎,遵循Clean Architecture架构,将流程抽象为读取、预处理、总结、评估、输出的管道,保证可维护性与扩展空间。
章节 03
支持纯文本对话(每行发言人姓名开头)和JSON数组格式(兼容Whisper输出),自动检测并预处理转换。
输出包含参与者列表、会议概述、个人状态更新(已完成/进行中/阻碍)及行动项清单,提升信息可读性与操作性。
生成的总结经二次本地模型评估,从完整性、准确性等5维度(0-2分)打分,给出定性评价,为优化提供数据支撑。
章节 04
所有处理环节均在本地完成,会议数据不离开用户设备,适合处理商业机密或受NDA约束的内容。用户需运行Ollama服务,可使用Llama3、Mistral、Qwen2.5等开源模型;推荐Llama3/Qwen2.5 7B版本,消费级硬件即可平衡性能与质量,显存受限可选Mistral,默认模型可通过配置修改。
章节 05
遵循分层架构:Domain层定义核心模型(总结/评估结果);Application层负责管道接口与流程编排;Infrastructure层细分Ollama客户端、文件IO、数据处理。单元测试覆盖率90%+,使用xUnit和Moq;配置文件为appsettings.json,支持自定义Ollama地址、模型、超时等参数。
章节 06
适用场景:技术团队站会/同步会、处理敏感客户信息的咨询公司、合规要求严格的金融机构等。
当前局限:未集成音频转录(需先转文本)、不支持未标注说话人的自动分离、受本地模型上下文窗口限制(4K-8K token),分块处理功能待开发。
章节 07
开发计划包括:集成Whisper实现音频到总结全流程自动化;添加说话人分离技术;突破上下文限制的分块处理与多轮总结;开发图形界面;集成Jira、Confluence、Slack等协作工具。
章节 08
ai-meeting-summarizer聚焦特定场景核心需求,通过合理架构与本地化处理实现隐私与效率的平衡,是重视数据主权又希望享受AI便利的组织值得关注的开源项目。