TAG:视觉语言动作模型

北大发布ManualVLA模型 长程精细任务成功率显著提升

北大发布ManualVLA模型 长程精细任务成功率显著提升

北京大学联合团队提出的ManualVLA模型,通过创新的双专家架构和手册链式思维机制,显著提升了机器人在乐高组装、物体重排等长程精细任务中的规划与执行能力,平均成功率比现有最佳方案高出32%。

2025-12-29 17:51
14
0

突破机器人空间感知瓶颈!中山大学与拓元智慧团队提出TAVP框架

突破机器人空间感知瓶颈!中山大学与拓元智慧团队提出TAVP框架

中山大学与拓元智慧团队提出TAVP框架,通过动态视角规划和任务感知特征提取,突破机器人3D感知局限与任务干扰问题。该框架在RLBench基准测试的18项操控任务中表现优异,显著提升机器人在复杂场景下的动作预测准确性和任务泛化能力,为具身智能发展提供新思路。

2025-10-29 16:06
0
0