TAG:xLLM-Core
AI推理的“新王”驾到?当xLLM-Core,用20毫秒的延迟,向vLLM发起挑战
xLLM社区将于12月6日举办首届线下Meetup,重磅发布自研开源推理引擎xLLM-Core。该引擎支持MoE、文生图、文生视频全场景,通过统一计算图和Mooncake缓存方案实现P99延迟低于20ms,较vLLM性能提升42%,吞吐量提升2.1倍。现场将分享京东双11实战案例,展示峰值每秒40k请求处理能力,并发布Apache 2.0开源版本。
这位机器人“指挥官”,能蒙眼辨认近2000把数控刀具
2025-12-06
0 浏览
机器人斗舞广西上演 未来舞台即将开启
2025-12-06
0 浏览
欠中国代工厂超25亿元,美知名机器人公司爆雷,濒临破产!
2025-12-06
0 浏览
机器人租赁市场回归理性 昔日万元日薪腰斩 年末需求回暖
2025-12-06
0 浏览
腾讯发布混元2.0大模型,全面提升多项能力
2025-12-06
0 浏览
2025智能机器人大赛决赛将于12月8、9日举行,奖金池突破百万,设四大细分赛道
2025-12-06
0 浏览
英伟达发布AI新框架 8亿参数模型优化工具管理
2025-12-05
0 浏览
日本AI技术助力青少年自杀倾向早期识别
2025-12-05
0 浏览
景顺看好中国科技股
2025-12-05
0 浏览
人形机器人订单激增 花旗大摩预测2026年增长十倍
2025-12-05
0 浏览