TAG:多模态融合

VT-WM突破视觉局限 机器人更懂物理接触

VT-WM突破视觉局限 机器人更懂物理接触

本文介绍了VT-WM(视觉-触觉世界模型)如何突破纯视觉世界模型的局限,通过融合视觉与触觉感知,让机器人能够更准确地理解和预测物理接触任务。该模型解决了在抓取、堆叠等高接触操作中常见的物体消失、幻觉等问题,显著提升了任务规划成功率,为机器人交互提供了更可靠的多模态解决方案。

2026-02-27 16:53
0
0

朱晓辉谈华威科:出货量破万,多模态融合引领机器人触觉发展

朱晓辉谈华威科:出货量破万,多模态融合引领机器人触觉发展

本文报道了华威科CEO朱晓辉在第六届中国机器人行业年会上的核心观点,重点阐述了公司如何通过‘多模态融合’技术路径,在触觉传感器领域实现突破,并率先达到一万台出货量的产业化里程碑。文章深入探讨了多模态融合(结合压力、温度、纹理等感知)的技术优势及其对于人形机器人实现灵巧操作和自然交互的关键意义,同时揭示了华威科在装备、材料和算法上的创新如何支撑其规模化量产能力,定义了机器人触觉感知的未来方向。

机器人大讲堂 2026-01-04 16:29
0
0

π0.5宣布开源!这下机器人泛化难题有解了?

π0.5宣布开源!这下机器人泛化难题有解了?

Physical Intelligence公司开源的π0.5 VLA模型通过异构数据协同训练和多模态数据融合,显著提升了机器人在复杂现实场景下的泛化能力。该模型能理解任务语义、拆解复杂流程并精准执行动作,在家庭环境中成功完成物品整理、餐具清洗等任务,为解决机器人泛化难题提供了有效方案。

2025-09-16 10:16
23
0