章节 01
【导读】SOMA:基于ViT与JEPA的类器官神经状态自监督发现框架
SOMA是NinjaFury开发的开源自监督学习框架,结合Vision Transformer、JEPA联合嵌入预测架构和Barlow Twins损失,从类器官多电极阵列(MEA)脉冲数据中自动发现离散神经网络状态,无需人工标注;还引入Vedanā Gate模块提升可解释性,为神经科学与AI交叉研究提供重要工具。
正文
SOMA是一个自监督学习框架,结合Vision Transformer、JEPA联合嵌入预测架构和Barlow Twins损失,从多电极阵列数据中自动发现生物神经网络的离散状态,无需人工标注。
章节 01
SOMA是NinjaFury开发的开源自监督学习框架,结合Vision Transformer、JEPA联合嵌入预测架构和Barlow Twins损失,从类器官多电极阵列(MEA)脉冲数据中自动发现离散神经网络状态,无需人工标注;还引入Vedanā Gate模块提升可解释性,为神经科学与AI交叉研究提供重要工具。
章节 02
SOMA(Self-Organized MEA Architecture)是针对类器官MEA脉冲数据的自监督学习框架,目标是无需标签、监督或先验假设,自动发现生物神经网络的离散状态。该框架由NinjaFury开发并开源,聚焦解决神经科学与人工智能交叉领域的关键问题。
章节 03
章节 04
章节 05
SOMA v0.2引入Vedanā Gate模块,灵感来自佛教“vedanā”概念:1. 设计:在patch嵌入与transformer编码器间插入效价评分层,通过两层线性变换+GELU激活+sigmoid生成0-1评分作为门控信号;2. 优势:仅增加0.4%参数,可端到端学习(无需额外监督),通过get_gate_scores方法可视化每个时空patch的重要性,增强模型可解释性。
章节 06
数据来源:使用FinalSpark Neuroplatform的MEA记录数据(需联系获取访问权限);应用场景:神经科学研究者的无监督分析工具、计算神经科学的自监督应用案例、AI研究者的表示学习参考架构,还引发佛教概念启发神经网络设计的讨论。
章节 07
SOMA代表神经科学与AI交叉领域的前沿探索,通过结合Vision Transformer、JEPA和Barlow Twins,实现从原始脉冲数据到可解释网络状态的自动发现。其严格验证流程、层次化状态发现及Vedanā Gate创新设计,为类器官智能研究提供了宝贵的开源工具。