当前位置:首页 > 智能

上海人工智能实验室开源书生万亿科学大模型

发布时间:2026-02-09 14:43:51|来源:|作者:

  日前,上海人工智能实验室宣布,开源基于“通专融合”技术架构SAGE打造的万亿参数科学多模态大模型Intern(书生)-S1-Pro,为AI for Science(科学智能)从“工具革命”的1.0阶段迈向以“革命的工具”驱动科学发现的2.0时代,提供了系统性开源基座。

  上海人工智能实验室主任、首席科学家周伯文提出,可深度专业化通用模型是实现通用人工智能(AGI)的可行路径,其关键挑战在于:专家化模型在训练过程中需要低成本、能规模化的密集反馈;能够持续不断地学习与主动探索,并具备为同一个问题提供多视角、多种解决方案的能力;并能引入对物理世界规律的考量,兼顾多项差异化能力的学习效率与性能。

  作为全球开源社区中参数规模最大的科学多模态模型之一,Intern-S1-Pro的性能表现稳居全球第一梯队。其通过多项SAGE基础模型层的技术创新,拓宽了模型应用边界、提升了超大规模训练可行性,推进了可深度专业化通用模型的探索。

  为构建能更深层次理解物理世界规律的科学大模型,研究团队引入了傅里叶位置编码(FoPE)并重构了时序编码器。FoPE为AI赋予了双重视角:既能像看“粒子”一样捕捉文字之间的相对距离,又能像分析“波”一样把握科学信号的整体规律与频率。科学数据与语言的差异还体现在多尺度上,基于能自动适应数据密度的时序编码器,模型首次能统一处理从寥寥数个到百万级采样的各类信号,支持的分析对象从天文、地理直接拓展至生理信号、生物声学等领域,从而实现感知能力的重大跃迁。

  为了高效训练承载这些能力的万亿参数超大规模模型,研究团队革新了其内部的“路由机制”。传统方法存在训练低效和算力浪费两大痛点。新技术通过“路由稠密估计”,让模型在高效运行的同时能进行更充分的学习,提升了稳定性;进而通过“分组路由”策略,像智能交通系统一样使海量计算芯片实现负载均衡,避免了资源闲置。

  通过算法与系统的协同创新,Intern-S1-Pro同时攻克了超大规模模型训练在“学习效率”和“资源调度”上的核心瓶颈,为高效、稳健地训练下一代万亿参数模型提供了关键基础。通过上述底层架构的创新,Intern-S1-Pro不仅在规模上刷新了科学多模态模型的参数规模上限,也为SAGE架构所提出的“通用能力与专业能力协同演进”提供了可落地的实现路径。

  值得一提的是,Intern-S1-Pro验证了从原创模型架构到国产算力基座自主技术的完整链路。模型从架构设计之初,就与昇腾计算生态确立了联合研发路线,实现了从最底层的算子、编译优化到上层的训练、推理框架的深度全栈适配。此外,Intern-S1-Pro还与沐曦联合研发利用模型加速算子适配,为开放共享、面向未来的科学智能基础设施奠定了坚实基础。

财经视野

经济动态

新闻排行

关于我们

北京华宇时尚广告传媒有限公司

京市怀柔区南华园四区附近

邮政编码:101499

网站信息

环球经济网-环球经济门户网站

www.chinahqjjw.com

京ICP备19024101号-3

环球经济网 ©2018-2021 版权所有

环球经济网 Copyright ©2018-2021 版权所有 未经书面授权不得复制或建立镜像,违者将追究法律责任!