TAG:机器人感知
当机器人学会“眼观六路”:环视智能如何用低成本打开全知世界
天津大学校友团队创立的环视智能在四个月内完成两轮融资,专注于机器人空间感知技术研发。公司推出全向3D立体视觉感知模组,集成四个摄像头实现800度无死角视野,结合独创的2D转3D数据技术和无监督学习框架,显著降低机器人感知成本60%。产品已应用于无人机、清洁机器人等领域,推动机器人从专用向通用转型。
突破机器人空间感知瓶颈!中山大学与拓元智慧团队提出TAVP框架
中山大学与拓元智慧团队提出TAVP框架,通过动态视角规划和任务感知特征提取,突破机器人3D感知局限与任务干扰问题。该框架在RLBench基准测试的18项操控任务中表现优异,显著提升机器人在复杂场景下的动作预测准确性和任务泛化能力,为具身智能发展提供新思路。
IROS2025视触觉结合磁硅胶的MagicGel传感器
IROS 2025论文提出MagicGel视触觉传感器,通过融合视觉与磁传感模态解决传统视触觉传感器力估计精度不足的问题。该传感器采用磁颗粒标记点和霍尔传感器,构建视觉-磁场异构数据融合框架,利用递归神经网络和卷积神经网络结合处理多模态数据。实验表明,视觉-磁融合方法显著提升了法向力估计精度,并赋予传感器非接触式接近感知能力,增强了机器人在未知环境中的适应性和操作安全性。
让机器“看懂”物体如何摆放:单视图3D生成新框架,解决机器人空间感知核心难题
OnePoseViaGen创新框架,通过单视图3D生成技术解决机器人6D位姿估计的核心难题。该技术仅需一张参考图像即可精确估计未知物体的3D位置和姿态,突破传统方法在尺度模糊、背景干扰等限制,在工业分拣、AR应用和自动驾驶等领域具有重要价值。实验显示其精度达81.27%,并在真实机器人任务中验证了强鲁棒性。
机器人感知大升级!轻量化注入几何先验,成功率提升31%
上海交通大学与剑桥大学联合提出Evo-0方法,通过隐式注入3D几何先验增强机器人视觉语言动作模型的空间理解能力。该方法利用VGGT模型从多视角RGB图像提取3D结构信息,无需额外传感器或深度输入,在仿真实验中成功率提升31%,真实世界操作任务成功率提升28.88%,显著提升了机器人对空间结构和物体布局的感知精度。
又一国家级专精特新“小巨人”获国资加持,金额累计近亿元!
灵明光子作为国家级专精特新'小巨人'企业,近日完成近亿元C3轮融资,获浙江省国资平台加持。公司专注于dToF传感芯片和系统解决方案,致力于激光雷达摄像头化技术,产品广泛应用于智能驾驶、机器人和空间感知等领域。凭借全球领先的SPAD技术实力,灵明光子正推动产业智能化变革,降低消费级机器人感知成本,提升市场竞争力。