Notebookcheck Logo

中国推出在国产 MetaX 芯片上运行的脑启发 LLM SpikingBrain 1.0

图为中国科学院大楼 3D 效果图(图片来源:中国科学院)
图为中国科学院大楼 3D 效果图(图片来源:中国科学院)
中国科学院推出了 SpikingBrain 1.0,这是首个为提高能效而设计的 "类脑 "大型语言模型。该模型完全在中国制造的 MetaX 芯片上运行,性能比传统系统快 100 倍。
AI Chinese Tech

位于北京的中国科学院自动化研究所最近发布了其最新的 SpikingBrain 1.0 大型语言模型。其最新的 SpikingBrain 1.0 大型语言模型。该大型语言模型号称是世界上首个 "类脑 "大型语言模型,其设计能耗大大低于 ChatGPT 等传统人工智能系统。它不依赖 Nvidia 硬件,而是完全使用中国制造的 MetaX 芯片,标志着神经形态计算的重大进步。

该系统利用 "尖峰计算 "技术,模仿人脑神经元的发射模式。这种技术只激活必要的神经元,而不是像传统模型那样激活整个网络。这种事件驱动方法还能保持系统的能效,降低功耗。与传统系统相比,该系统还能从极少的 2% 的训练数据中学习。目前已开发出两个版本:一个有 70 亿个参数,另一个有 760 亿个参数。

研究人员报告说,在某些任务中,该系统的性能比传统模型快达 100 倍,较小的模型对 400 万个令牌提示的响应速度比标准系统至少快 100 倍。此外,在首次令牌生成方面,速度比传统的 Transformer 架构提高了 26.5 倍。新模型在大约 1500 亿个令牌上进行了训练,这只是传统系统典型要求的一小部分。尽管训练数据减少了,但该系统的性能仍可与其他流行的开源替代系统媲美。

新系统对中国具有重要的战略意义,因为 LLM 利用 MetaX 芯片平台,完全在中国本土的人工智能生态系统内运行。随着美国加强对先进人工智能芯片的出口管制,这一点变得尤为重要。这项研究还证明,在非英伟达平台上训练一个高效的大型模型是可能的。首席研究员李国琦还强调了针对中国芯片架构的优化。此类系统的潜在应用包括法律文件、医疗记录甚至科学模拟。

该团队已将较小版本的模型开源供公众使用,较大版本的模型仅通过一个演示网站在线供公众测试。这项研究还作为未经同行评审的论文发表在 arXiv 资料库上,因此最好对所有这些说法持谨慎态度。不过,这一突破可能会为更节能的人工智能系统铺平道路,并推动大脑启发计算方法的发展。

资料来源

南华早报(英文)

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2025 09 > 中国推出在国产 MetaX 芯片上运行的脑启发 LLM SpikingBrain 1.0
Nathan Ali, 2025-09-12 (Update: 2025-09-12)