TAG:深度学习

英伟达小模型成本仅为GPT-5 Pro三十六分之一

英伟达小模型成本仅为GPT-5 Pro三十六分之一

英伟达4B小模型NVARC在ARC-AGI2评测中以27.64%的成绩超越GPT-5 Pro,同时单任务成本仅为20美分,远低于对手的7美元。文章详细介绍了其零预训练深度学习方法和创新的合成数据管道,展示了小模型在特定领域的高效适应性和成本优势。

爱力方 2025-12-08 16:28
0
0

vLLM-Omni开源:把扩散模型、ViT、LLM塞进一条流水线,多模态推理一次跑完

vLLM-Omni开源:把扩散模型、ViT、LLM塞进一条流水线,多模态推理一次跑完

vLLM团队推出首个全模态推理框架vLLM-Omni,将文本、图像、音频、视频的统一生成从概念变为可落地的代码。该框架采用解耦流水线架构,支持模态编码器、LLM核心和模态生成器独立部署,资源弹性伸缩,显存利用率最高提升40%。通过Python装饰器@omni_pipeline,开发者仅需三行代码即可将单模态模型拼装成多模态应用,吞吐量提升2.1倍,延迟降低35%。开源项目已上线GitHub,支持PyTorch2.4+和CUDA12.2,未来计划扩展视频与语音模型,助力多模态AI应用快速落地。

2025-12-02 16:25
0
0

腾讯发布全新视频生成模型 HunyuanVideo1.5,降低视频创作门槛

腾讯发布全新视频生成模型 HunyuanVideo1.5,降低视频创作门槛

腾讯混元大模型团队发布全新视频生成模型HunyuanVideo1.5,这款基于DiT架构的轻量级模型参数量达8.3B,支持文生视频和图文结合生成动态视频。模型采用SSTA稀疏注意力机制,仅需14G显存即可流畅运行,大幅降低视频创作门槛。支持中英文输入及多种风格,在运动连贯性和语义遵循方面达到商用水平,已在元宝平台、Hugging Face和GitHub开放体验。

爱力方 2025-11-21 14:30
7
0

 AI的“自我进化”:DeepMind发布SIMA 2,一场在虚拟世界中进行的AGI预演

AI的“自我进化”:DeepMind发布SIMA 2,一场在虚拟世界中进行的AGI预演

Google DeepMind发布多模态智能体SIMA2预览版,依托Gemini2.5Flash-lite模型,任务成功率较前代提升约一倍。该版本首次引入自生成数据循环机制,无需人工标注即可在新环境中完成复杂指令,并能理解文本、符号甚至emoji组合命令。研究旨在验证通用机器人所需的高层世界理解与推理能力,为虚拟智能体向实体机器人迁移探索可行路径。

爱力方 2025-11-14 16:43
0
0

百度重磅发布新一代多模态AI模型ERNIE-4.5-VL

百度重磅发布新一代多模态AI模型ERNIE-4.5-VL

百度最新发布多模态AI模型ERNIE-4.5-VL-28B-A3B-Thinking,该模型具备强大的语言处理能力并创新引入'图像思考'功能。通过仅3B激活参数设计实现高效计算,支持图片放大、搜索等工具调用,显著提升图像与文本交互体验。这一开源模型将为智能搜索、在线教育、电子商务等领域带来新的技术突破与应用可能。

2025-11-11 16:52
0
0

【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑

【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑

直播将深入探讨大模型复杂推理技术的最新发展,重点介绍以DeepSeek-R1为代表的'慢思考'技术如何通过强化学习提升AI的推理能力。中国人民大学赵鑫教授将分享团队最新研究成果,施普林格·自然常兰兰博士将介绍2025年人工智能图书资源。活动还将提供与大模型专家交流的机会,并有机会获得专属礼品。

2025-09-03 17:27
0
0

直播预告| 大模型复杂推理技术: 如何重塑AI推理逻辑

直播预告| 大模型复杂推理技术: 如何重塑AI推理逻辑

本次直播将深入探讨大模型复杂推理技术的最新进展,重点介绍DeepSeek-R1等模型如何通过强化学习实现长思维链推理。中国人民大学赵鑫教授将分享慢思考技术的研究成果,施普林格·自然编辑总监常兰兰博士将介绍2025年人工智能图书资源。活动还将提供与大模型专家交流的机会,并有机会获得专业书籍和周边礼品。

2025-08-28 21:20
0
0

摆脱海量数据,边缘学习开启“小样本”时代

摆脱海量数据,边缘学习开启“小样本”时代

文章介绍了海康机器人推出的边缘学习算法如何解决工业视觉领域深度学习面临的样本获取困难、标注成本高和算力需求大等挑战。该算法仅需1-5张样图即可完成模型迭代,具有小样本学习优势,操作简便,支持自动标注和快速模型更新,为工业视觉应用提供了高效解决方案。

2025-08-16 21:20
0
0