中国科学院自动化研究所李国齐、徐波团队联合多家科研机构,近日成功研制出全球首个基于"内生复杂性"理论的类脑脉冲大模型"瞬悉1.0"(SpikingBrain-1.0)。该模型在国产GPU算力集群上完成全流程训练,标志着我国在新型人工智能架构领域取得重大突破。
与传统Transformer架构不同,"瞬悉1.0"通过模拟人脑神经元工作机制,构建出独特的脉冲神经网络结构。实验数据显示,该模型仅需主流模型2%的训练数据,即可在文本理解、逻辑推理等任务中达到同等性能水平。特别是在处理超长文本序列时,其运算效率较现有模型提升数十倍,显著降低了算力消耗。
当前主流人工智能模型普遍采用Transformer架构,这类模型在处理法律文书、医学报告等超长文本时,存在计算速度慢、能耗高等问题。研究团队指出,现有大模型的发展高度依赖算力堆砌,资源消耗问题日益突出,迫切需要开发低功耗的新型架构。
该成果首次实现了大规模类脑线性基础模型架构的国产化构建,其超长序列处理能力在多个前沿领域展现出应用潜力。在DNA序列分析、高能物理实验数据处理等场景中,模型可高效完成传统架构难以处理的复杂任务。研究团队强调,这种新型架构为神经形态计算芯片设计提供了重要理论支撑。
据科研人员介绍,"瞬悉1.0"的突破性在于建立了从神经科学原理到工程实现的完整技术路径。通过引入生物神经系统的动态调节机制,模型在保持高性能的同时,将运算能耗控制在极低水平。这项研究为下一代人工智能系统开辟了非Transformer架构的技术路线。
相关文章
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读
2025-09-090阅读