TAG:多模态学习

仅0.77B参数碾压3.5B大模型!上海交大Evo-1刷新VLA模型纪录,集成lerobot框架可用于SO100/SO101部署

仅0.77B参数碾压3.5B大模型!上海交大Evo-1刷新VLA模型纪录,集成lerobot框架可用于SO100/SO101部署

上海交大Evo-1模型仅用0.77B参数在机器人VLA领域实现突破,无需机器人数据预训练即可超越3.5B大模型性能。该模型通过轻量化设计、16.4Hz高推理频率和创新训练范式,解决了参数臃肿、实时性不足、泛化能力弱和数据依赖四大核心问题,已集成lerobot框架支持SO100/SO101部署,为消费级GPU上的机器人智能操控提供高效解决方案。

2025-11-17 12:07
0
0

最火VLA,看这一篇综述就够了

最火VLA,看这一篇综述就够了

这篇综述全面解析了ICLR 2026爆火领域VLA(视觉-语言-动作)的最新进展。作者Moritz Reuss作为Apple AI/ML学者奖得主,系统阐述了VLA的核心概念、八大技术趋势,包括离散扩散模型、具身思维链、动作分词器等关键突破。文章还厘清了VLA与LBM的区别,帮助读者深入理解这一让机器人'听懂人话、看懂世界、动手干活'的前沿技术。

2025-11-01 18:38
6
0

阿里新研究:统一了VLA和世界模型

阿里新研究:统一了VLA和世界模型

阿里巴巴达摩院联合浙江大学提出WorldVLA框架,首次将视觉语言动作模型与世界模型相统一。该框架通过三套独立分词器处理图像、文本和动作,采用创新的注意力掩码设计,实现了动作生成与视觉理解的相互增强。实验证明WorldVLA在机器人操作任务中显著优于独立模型,为具身智能发展提供了新思路。

2025-10-30 12:02
0
0

字节提出Robix大模型!三阶训练+统一架构,打破机器人认知瓶颈,真实场景任务完成率领先

字节提出Robix大模型!三阶训练+统一架构,打破机器人认知瓶颈,真实场景任务完成率领先

字节跳动Seed团队推出Robix大模型,通过三阶训练和统一架构打破机器人认知瓶颈。该模型将视觉、语言和行动规划整合于单一架构,支持动态环境中的理解-决策-响应闭环,实现真实场景下的多轮对话和任务中断处理。实验显示在3D空间理解、任务规划和真实场景执行方面领先GPT-4o等模型,任务完成率显著提升。

2025-09-21 12:15
0
0