2025年6月6日,在第七届“北京智源大会”上,智源研究院院长王仲远发布了“悟界”系列大模型,包括原生多模态世界模型Emu3、脑科学多模态通用基础模型见微Brainμ、跨本体具身大小脑协作框架RoboOS 2.0与具身大脑RoboBrain 2.0以及全原子微观生命模型OpenComplex2。这一系列大模型的发布,标志着智源研究院在人工智能领域从数字世界迈向物理世界的技术趋势探索上取得了重要进展。
一、原生多模态世界模型Emu3:构建统一的多模态框架
Emu3是全球首个原生多模态世界模型,它基于下一个token预测,无需扩散模型或组合方法,即可完成文本、图像、视频三种模态数据的理解和生成。该模型支持多模态输入、多模态输出的端到端映射,验证了自回归框架在多模态领域的普适性与先进性,为跨模态交互提供了强大的技术基座。Emu3利用全新的视觉Tokenizer技术,把图像和视频像文本一样编码成离散符号,实现同框架下的统一表征和生成,让文字、图像、视频不再“各说各话”,而是被AI放进同一个“大脑”里理解和使用。

二、脑科学多模态通用基础模型见微Brainμ:推动神经科学研究
见微Brainμ是全球首个脑科学多模态通用基础模型,基于Emu3架构,引入脑信号这一新的模态数据,实现了单一模型完成多种神经科学任务的大一统。它将fMRI、EEG、双光子等神经科学与脑医学相关的脑信号统一token化,利用预训练模型多模态对齐的优势,可以实现多模态脑信号与文本、图像等模态的多向映射,并实现跨任务、跨模态、跨个体的统一通用建模。见微Brainμ已整合超百万单位神经信号数据,与清华、北大、复旦和强脑科技等多个机构达成合作,验证在睡眠分型、脑疾病诊断、脑机接口等领域的潜力。
三、跨本体具身大小脑协作框架RoboOS 2.0与具身大脑RoboBrain 2.0:提升具身智能性能
RoboOS 2.0是全球首个支持MCP的跨本体大小脑协作框架,相较于初代版本整体性能提升30%,可将全链路平均响应时延缩短至毫秒级,支持像下载App一样快速整合开发者插件。RoboBrain 2.0相比于RoboBrain 1.0,进一步扩展了基于多本体-环境动态建模的多机协同规划能力,可实时构建包含本体定位的场景图,并自动完成跨本体的任务规划。这两个模型的发布,为具身智能的发展提供了更强大的技术支持,推动机器人技术的进步,实现更高效的智能互动。

四、全原子微观生命模型OpenComplex2:探索微观生命科学
OpenComplex2是全原子微观生命模型,它能在原子分辨率层面模拟分子运动中的功能生成,弥补AI只能做静态结构预测的短板。该模型可捕捉分子相互作用及平衡构象,探索微观构象波动与宏观生物功能的跨尺度关联。智源研究院希望OpenComplex2能加速药物研发和生物研究,缩短周期、降低成本。