TAG:MoE架构
腾讯混元2.0内测启动,406B参数号称推理性能国内领先
腾讯发布新一代自研大模型混元2.0,总参数达406B,采用MoE架构提升推理速度,在数学、代码等复杂任务上表现突出,支持256K长上下文窗口。模型已在腾讯云API及元宝、ima等应用灰度上线,并计划于2026年开源,推动国产大模型生态发展。
蚂蚁百灵大模型团队开源Ring-flash-linear-2.0-128K,混合注意力+MoE架构重塑长文本编程效率
蚂蚁百灵大模型团队开源Ring-flash-linear-2.0-128K,采用混合线性注意力机制和MoE稀疏架构,仅激活6.1B参数即可媲美40B密集模型性能。该模型原生支持128K上下文窗口,可扩展至512K,在代码生成和长文本编程任务中实现SOTA表现,推理速度提升3倍以上,为开发者提供高效AI编程解决方案。
我国2025年人形机器人产品发布超330款
2026-01-21
0 浏览
工信部将发布人形机器人与具身智能标准化建设指南
2026-01-21
0 浏览
马斯克重启特斯拉Dojo3芯片项目,瞄准太空AI发展
2026-01-21
0 浏览
人形机器人为何难以突破灵巧手技术难关
2026-01-21
0 浏览
中国AI厂商加速拓展国际市场,全球份额持续攀升
2026-01-21
0 浏览
Block推出开源AI编程助手Goose,应对Claude Code痛点
2026-01-21
0 浏览
工信部:新能源汽车与光伏等行业竞争环境持续优化
2026-01-21
0 浏览
清华两名室友联手打造吸金超2亿元的机器人
2026-01-21
0 浏览
江苏企业获批牵头建设农业农村部智能采收机器人重点实验室
2026-01-21
0 浏览
政策产业共振推升机器人股 微创机器人盘中大涨16%
2026-01-21
0 浏览