全球首个生成式通用具身大脑企业眸深智能获天使轮追加投资
作者:系统管理员 发布日期:2026-01-15 浏览次数:

近日,全球首个生成式通用具身大脑公司——上海眸深智能科技有限公司(下称“眸深智能”)完成超千万人民币天使轮追加投资,投资方为徐汇资本。本轮融资资金主要用于算力采购、工程化团队扩建及机器人实验平台搭建。同时,公司正式入驻徐汇区人工智能产业核心载体“模速空间”。

眸深智能成立于2025年,专注于生成式跨本体通用具身大脑研发,致力于为人形机器人及多形态物理智能体提供可泛化、可落地的“大脑级”能力。眸深智能团队融合了学术机构的研究能力与全球科技企业的产业化经验,由复旦大学未来信息创新学院教授、深度学习实验室主任陈涛,原英特尔中国首席科学家张益民,以及连续创业者共同组建。其中,创始人兼首席科学家陈涛曾在新加坡华为海思任职,拥有丰富的大模型压缩与芯片适配实践经验。

值得关注的是,眸深智能的技术布局早在2021年便已启动,早于行业相关概念的广泛普及,其第一代模型已实现空间动作生成能力。团队创新研发的“动作基元”技术,将复杂动作序列拆解为上千个基础元素,模型可依据自然语言指令,动态调用并组合这些基元,生成全新的未训练过的动作序列,从而具备出色的泛化能力。

在数据运用与训练效率方面,眸深智能采用独特的三段式训练架构:90%的互联网开源人体运动视频用于预训练,帮助模型掌握通用运动规律;10%的仿真器数据用于微调适配;仅需5%的真机数据进行强化学习校准。这一架构大幅降低了对高成本真机数据的依赖,同时将新本体的适配周期缩短至数周。

在模型轻量化与端侧部署领域,团队同样积累深厚。通过自研的模型压缩与推理加速技术,可将模型参数量压缩至原来的1/4,推理速度提升10倍,成功实现百亿参数模型在机器人端侧芯片上的高效运行,相关研究成果已在IJCAI等顶级学术会议上发表并斩获奖项。而三维感知与交互能力则由LL3DA模型提供,该模型作为全球首款点云驱动的三维多模态具身视觉问答和任务推理大模型(发布于CVPR2024),可直接处理三维点云输入,支持语言、图像、视频等多模态指令,助力机器人沉浸式理解环境并完成任务规划。

目前,眸深智能开创性地提出业内首个“世界动作模型(World Motion Model)”,使机器人能够根据外部环境实时反应,实现环境沉浸式动作生成,向通用物理智能稳步迈进。据悉,该公司是业内唯一打通动作生成、三维世界模型、模型压缩、软硬协同等具身落地全链路的团队。

现阶段,眸深智能的技术已进入产业化验证阶段,已与宇树科技、国地中心、禾川科技、小米集团等多家行业头部企业达成业务合作,累计获得上千万元订单收入,当前订单主要源于其动作数据生成服务能力,为客户提供专业的数据生成支持。

在落地场景规划上,眸深智能明确聚焦工业物流搬运与家庭健康养老两大垂直领域。在工业物流搬运场景中,模型需满足动态避障、多机协同等核心需求;在家庭健康养老场景,则计划推出从安全监护到肢体辅助的渐进式服务。

谈及商业模式,陈涛表示,眸深智能立志成为机器人领域的通用“大脑”供应商,专注于为全球多样化的机器人本体提供可高效部署的智能核心,而非涉足硬件制造。他认为,具身智能产业生态将朝着分工协作的方向发展,单一公司难以垄断全栈业务。眸深智能将聚焦“世界动作模型”这一核心层,凭借轻量化、泛化能力强的技术优势,赋能下游本体厂商与集成商,共同推动物理智能的规模化落地。未来,公司将以“世界动作模型+端侧+场景”为核心路径,持续推进技术突破与产业融合。

文章来源:硬氪