TAG:多模态感知
国地中心发布全球首个跨本体视触觉数据集,助力具身智能发展
国地中心与纬钛机器人联合发布全球首个跨本体视触觉多模态数据集——白虎-VTouch,规模超6万分钟,涵盖轮臂机器人、双足机器人等多种本体构型。该数据集针对具身智能机器人面临的真实交互数据稀缺、触觉信息不足等核心难题,提供矩阵式任务构建与多模态采集方案,为下一代具身VTLA模型提供关键数据基础与工程底座,加速机器人从感知到精细操控的落地进程。
全球首款跨本体视触觉大模型数据集白虎VTouch发布
国地中心与纬钛机器人联合发布全球首个跨本体视触觉大模型数据集“白虎-VTouch”,规模达60,000分钟,包含约9072万对真实接触样本。该数据集整合了视触觉、RGB-D深度及关节位姿等多模态数据,覆盖人形机器人、轮式机器人及智能终端等多种构型,并围绕家居家政、餐饮服务等四大真实场景构建了系统化任务矩阵,旨在推动机器人实现更精细的感知与操作能力,加速具身智能发展。
北大与BIGAI联合推出TacThru传感器 触觉视觉双感知提升操作精度
北京大学与北京通用人工智能研究院联合推出TacThru传感器,通过透明弹性体材质、关键线标记和高效追踪算法,实现了触觉与视觉的同步感知。结合TacThru-UMI模仿学习框架,该系统在拾取、分拣、插入等机器人操作任务中展现出85.5%的平均成功率,显著超越传统方案,为精细操作提供了突破性解决方案。
昆虫触角附体,机器人长出感知超能力!浙大仿生微光学天线登《Science》子刊
浙江大学团队在《Science Advances》发表创新研究,成功研制出仿生微光学天线(MOA),灵感源自昆虫触角。这种微型天线仅约100微米大小,通过微纳光纤和功能化聚合物薄膜,实现了触觉、听觉和嗅觉的高灵敏度多模态感知。MOA在力、声波和气体检测方面性能卓越,并已集成到扑翼蝴蝶机器人和瓢虫地面机器人中,展示了在自主感知与操作中的实际应用潜力。
科大讯飞发布AI软硬一体方案:在90分贝噪声中也能精准识别
科大讯飞在2025开发者节发布AI软硬一体解决方案,通过软硬件深度融合实现在高噪声环境下的精准识别。该方案使智能办公本在90分贝工厂噪声中仍保持98.69%识别率,翻译耳机在复杂场景达97.1%准确率。同时推出的星火语音大模型支持一句录音复刻任意音色,推动个性化语音创作普及。
湖北构建行业首个超大规模多模态触觉数据引擎与认知训练中心
湖北人形机器人创新中心联合多家机构共建行业首个超大规模多模态触觉数据引擎与认知训练中心,填补国内真人触觉对齐数据空白,破解触觉数据碎片化难题。该中心包含10+场景实验室、双场景数据入口和千万级触觉数据库,为人形机器人产业构建核心感知基座,推动泛生态应用发展。