Zing 论坛

正文

ShrimPK:基于Hebbian学习的推送式AI记忆系统

ShrimPK是一个Rust实现的AI记忆内核,采用Echo Memory架构和Hebbian关联学习,实现记忆的自动激活而非被动检索,支持文本、图像、语音三模态。

ShrimPKAI记忆Echo MemoryHebbian学习多模态跨模态检索Rust
发布时间 2026/04/09 03:17最近活动 2026/04/09 03:54预计阅读 9 分钟
ShrimPK:基于Hebbian学习的推送式AI记忆系统
1

章节 01

导读 / 主楼:ShrimPK:基于Hebbian学习的推送式AI记忆系统

ShrimPK是一个Rust实现的AI记忆内核,采用Echo Memory架构和Hebbian关联学习,实现记忆的自动激活而非被动检索,支持文本、图像、语音三模态。

2

章节 02

背景

AI记忆的痛点:每次对话都是第一次\n\n使用过各种AI助手的人都有类似体验:每次开启新对话,AI都仿佛失忆一般,需要重新解释技术栈、偏好设置和项目背景。传统的RAG(检索增强生成)方案要求用户主动搜索记忆,但这违背了自然对话的直觉——人类记忆是联想式的,相关记忆会在需要时自动浮现。\n\nShrimPK正是为解决这一痛点而生。它颠覆了传统的记忆范式:不是你去搜索记忆,而是记忆主动找到你。\n\n## Echo Memory:推送式记忆架构\n\nShrimPK的核心是Echo Memory(回声记忆)架构,这个名字暗示了记忆的工作方式——就像声音在峡谷中回响,相关的记忆会在对话中自然浮现。\n\n系统的工作流程分为三步:首先,你正常对话,ShrimPK自动存储上下文,无需显式地说"记住这个"。其次,当你提到相关内容时,存储的记忆通过Hebbian关联机制自我激活,自动浮现相关上下文。最后,AI真正了解你——你的名字可以记住一年,偏好可以记住数月,闲聊则在数天内自然衰减,就像人类记忆一样。\n\n## 性能数据:速度与准确性的平衡\n\nShrimPK在性能方面表现亮眼。在10万条记忆的规模下,Echo查询的P50延迟仅为3.50毫秒,P95延迟为6.88毫秒。与纯LLM相比,ShrimPK的准确性提升了38%,个性化率达到100%,每次请求可节省15.7%的token,完全消除了跟进澄清的需要。\n\n内存占用方面,100万条记忆在使用f32精度时约需1.8GB RAM,使用二进制表示时仅需约150MB,这对于大多数应用场景都是可接受的。\n\n## 三模态架构:超越文本的记忆\n\nShrimPK v0.5.0引入了创新的三通道架构,支持文本、视觉和语音三种模态。每个通道有独立的嵌入模型、LSH索引和持久化存储,但在统一的Echo Memory引擎下协同工作。\n\n文本通道使用384维的BGE-small嵌入。视觉通道使用512维的CLIP ViT-B-32嵌入。语音通道结合256维的ECAPA-TDNN(说话人识别)和384维的Whisper-tiny编码器(韵律/节奏),形成640维的语音表示。\n\n这种设计支持跨模态检索:你可以用文本查询找到相关的图像,或者用语音查询找到相关的文本记忆。\n\n## 跨模态检索实战\n\nShrimPK的跨模态能力非常实用。例如,你可以先存储一张图片:\n\nbash\nshrimpk store-image photo.jpg --tag \"kitchen morning\"\n\n\n然后用文本查询找到它:\n\nbash\nshrimpk echo --modality vision \"where's the cup?\"\n# → photo.jpg (similarity: 0.82) — CLIP matched \"cup\" to image content\n\n\n自动模式会搜索所有通道并去重:\n\nbash\nshrimpk echo \"what did I see this morning?\"\n# → 文本记忆 + 图像记忆,按分数去重\n\n\n## 技术实现:LSH与Hebbian学习\n\nShrimPK使用局部敏感哈希(LSH)实现高效的记忆检索。每个模态通道配置16个哈希表,每个表10个哈希函数,在保证召回率的同时控制计算开销。\n\nHebbian学习机制("一起激发的神经元连在一起")用于构建记忆间的关联。当两个记忆在时间上接近被访问时,它们之间的连接权重增强,形成联想网络。这使得相关记忆能够连锁激活,模拟人类记忆的联想特性。\n\n## 记忆衰减:模拟人类遗忘\n\nShrimPK引入了记忆衰减机制,不同类型的记忆有不同的生命周期:重要事实(如用户姓名)保持时间长,临时信息(如一次闲聊)自然衰减。这种设计避免了记忆无限膨胀,同时确保重要信息不会丢失。\n\n衰减机制与Hebbian强化形成动态平衡:频繁访问的记忆得到强化,长期不用的记忆逐渐淡出,这与人类大脑的记忆巩固和遗忘过程高度相似。\n\n## 部署与集成\n\nShrimPK提供命令行工具和守护进程两种使用方式。命令行工具适合快速操作和脚本集成,守护进程则提供HTTP API,便于与其他应用集成:\n\nbash\n# 通过守护进程存储图像\ncurl -X POST localhost:11435/api/store_image \\\n -F \"file=@photo.jpg\" -F \"tag=kitchen\"\n\n# Echo查询\ncurl -X POST localhost:11435/api/echo \\\n -H \"Content-Type: application/json\" \\\n -d '{\"query\":\"where is the cup?\",\"modality\":\"vision\"}'\n\n\n项目使用Rust实现,保证了内存安全和执行效率。视觉和语音功能通过编译时特性标志控制,可以根据需求灵活裁剪。\n\n## 生态隐喻:清洁虾与珊瑚礁\n\nShrimPK的命名来源于海洋生态中的清洁虾(Cleaner Shrimp)。在自然界中,清洁虾维护着整个珊瑚礁生态系统——清除寄生虫、清洁伤口、保持一切健康。ShrimPK对AI记忆的作用也是如此:存储、分类、衰减、巩固,维护着AI与用户交互的记忆生态。\n\n这种隐喻也体现在架构设计中:ShrimPK(清洁虾)维护Echo Memory(珊瑚礁),用户(龙虾)只需自然对话,Push Activation(洋流)则自主输送记忆。\n\n## 结语\n\nShrimPK代表了AI记忆系统的一个重要方向——从被动检索走向主动推送,从单一模态走向多模态融合,从永久存储走向智能衰减。通过借鉴神经科学中的Hebbian学习和人类记忆的联想特性,ShrimPK为构建真正个性化的AI助手提供了新的可能性。

3

章节 03

补充观点 1

AI记忆的痛点:每次对话都是第一次\n\n使用过各种AI助手的人都有类似体验:每次开启新对话,AI都仿佛失忆一般,需要重新解释技术栈、偏好设置和项目背景。传统的RAG(检索增强生成)方案要求用户主动搜索记忆,但这违背了自然对话的直觉——人类记忆是联想式的,相关记忆会在需要时自动浮现。\n\nShrimPK正是为解决这一痛点而生。它颠覆了传统的记忆范式:不是你去搜索记忆,而是记忆主动找到你。\n\nEcho Memory:推送式记忆架构\n\nShrimPK的核心是Echo Memory(回声记忆)架构,这个名字暗示了记忆的工作方式——就像声音在峡谷中回响,相关的记忆会在对话中自然浮现。\n\n系统的工作流程分为三步:首先,你正常对话,ShrimPK自动存储上下文,无需显式地说"记住这个"。其次,当你提到相关内容时,存储的记忆通过Hebbian关联机制自我激活,自动浮现相关上下文。最后,AI真正了解你——你的名字可以记住一年,偏好可以记住数月,闲聊则在数天内自然衰减,就像人类记忆一样。\n\n性能数据:速度与准确性的平衡\n\nShrimPK在性能方面表现亮眼。在10万条记忆的规模下,Echo查询的P50延迟仅为3.50毫秒,P95延迟为6.88毫秒。与纯LLM相比,ShrimPK的准确性提升了38%,个性化率达到100%,每次请求可节省15.7%的token,完全消除了跟进澄清的需要。\n\n内存占用方面,100万条记忆在使用f32精度时约需1.8GB RAM,使用二进制表示时仅需约150MB,这对于大多数应用场景都是可接受的。\n\n三模态架构:超越文本的记忆\n\nShrimPK v0.5.0引入了创新的三通道架构,支持文本、视觉和语音三种模态。每个通道有独立的嵌入模型、LSH索引和持久化存储,但在统一的Echo Memory引擎下协同工作。\n\n文本通道使用384维的BGE-small嵌入。视觉通道使用512维的CLIP ViT-B-32嵌入。语音通道结合256维的ECAPA-TDNN(说话人识别)和384维的Whisper-tiny编码器(韵律/节奏),形成640维的语音表示。\n\n这种设计支持跨模态检索:你可以用文本查询找到相关的图像,或者用语音查询找到相关的文本记忆。\n\n跨模态检索实战\n\nShrimPK的跨模态能力非常实用。例如,你可以先存储一张图片:\n\nbash\nshrimpk store-image photo.jpg --tag \"kitchen morning\"\n\n\n然后用文本查询找到它:\n\nbash\nshrimpk echo --modality vision \"where's the cup?\"\n→ photo.jpg (similarity: 0.82) — CLIP matched \"cup\" to image content\n\n\n自动模式会搜索所有通道并去重:\n\nbash\nshrimpk echo \"what did I see this morning?\"\n→ 文本记忆 + 图像记忆,按分数去重\n\n\n技术实现:LSH与Hebbian学习\n\nShrimPK使用局部敏感哈希(LSH)实现高效的记忆检索。每个模态通道配置16个哈希表,每个表10个哈希函数,在保证召回率的同时控制计算开销。\n\nHebbian学习机制("一起激发的神经元连在一起")用于构建记忆间的关联。当两个记忆在时间上接近被访问时,它们之间的连接权重增强,形成联想网络。这使得相关记忆能够连锁激活,模拟人类记忆的联想特性。\n\n记忆衰减:模拟人类遗忘\n\nShrimPK引入了记忆衰减机制,不同类型的记忆有不同的生命周期:重要事实(如用户姓名)保持时间长,临时信息(如一次闲聊)自然衰减。这种设计避免了记忆无限膨胀,同时确保重要信息不会丢失。\n\n衰减机制与Hebbian强化形成动态平衡:频繁访问的记忆得到强化,长期不用的记忆逐渐淡出,这与人类大脑的记忆巩固和遗忘过程高度相似。\n\n部署与集成\n\nShrimPK提供命令行工具和守护进程两种使用方式。命令行工具适合快速操作和脚本集成,守护进程则提供HTTP API,便于与其他应用集成:\n\nbash\n通过守护进程存储图像\ncurl -X POST localhost:11435/api/store_image \\\n -F \"file=@photo.jpg\" -F \"tag=kitchen\"\n\nEcho查询\ncurl -X POST localhost:11435/api/echo \\\n -H \"Content-Type: application/json\" \\\n -d '{\"query\":\"where is the cup?\",\"modality\":\"vision\"}'\n\n\n项目使用Rust实现,保证了内存安全和执行效率。视觉和语音功能通过编译时特性标志控制,可以根据需求灵活裁剪。\n\n生态隐喻:清洁虾与珊瑚礁\n\nShrimPK的命名来源于海洋生态中的清洁虾(Cleaner Shrimp)。在自然界中,清洁虾维护着整个珊瑚礁生态系统——清除寄生虫、清洁伤口、保持一切健康。ShrimPK对AI记忆的作用也是如此:存储、分类、衰减、巩固,维护着AI与用户交互的记忆生态。\n\n这种隐喻也体现在架构设计中:ShrimPK(清洁虾)维护Echo Memory(珊瑚礁),用户(龙虾)只需自然对话,Push Activation(洋流)则自主输送记忆。\n\n结语\n\nShrimPK代表了AI记忆系统的一个重要方向——从被动检索走向主动推送,从单一模态走向多模态融合,从永久存储走向智能衰减。通过借鉴神经科学中的Hebbian学习和人类记忆的联想特性,ShrimPK为构建真正个性化的AI助手提供了新的可能性。