TAG:视觉语言导航
深大团队提升机器人导航成功率至72.5%
深圳大学李坚强教授团队联合多所高校提出视觉-语言导航新框架UNeMo,通过多模态世界模型与分层预测反馈机制,让机器人能预测未来视觉状态并做出更智能的导航决策。该框架在资源消耗大幅降低的同时,在未知环境中的导航成功率可达72.5%,推理效率提升40%,尤其在长轨迹导航中表现突出,相关论文已入选AAAI2026。
2025中国家电科技年会:正负压微环境技术开辟冰箱AI保鲜新赛道
2025-12-11
0 浏览
钧控科技赋能中医药全球化
2025-12-11
0 浏览
前字节视觉AI负责人潘欣加盟美团 执掌多模态创新业务
2025-12-11
0 浏览
美州检察长敦促强化AI安全防护
2025-12-11
0 浏览
具身智能元年未达预期
2025-12-11
0 浏览
星云科技太空成功训练大语言模型
2025-12-11
0 浏览
Okta班加罗尔扩招AI研发团队 未来三年员工数增五成
2025-12-11
0 浏览
阿里通义发布Qwen3-Omni-Flash新版本
2025-12-11
0 浏览
OpenAI警示新一代AI模型能力激增,网络安全风险升至高位
2025-12-11
0 浏览
福田汽车新能源王牌产品12月18日亮相国家会议中心
2025-12-11
0 浏览