TAG:MoE
AI算力的“B计划”:当AMD与IBM联手,用1024张MI300X,炼出了第一个“非NVIDIA”大模型
AMD携手IBM与Zyphra发布全球首个纯AMD硬件训练的大模型ZAYA1,采用MoE架构预训练14T tokens,性能与Qwen3系列持平。ZAYA1创新性采用CCA注意力机制和线性路由MoE,在数学推理等STEM领域表现优异,验证了AMD MI300X+ROCm在大规模模型训练中的可行性。
这位机器人“指挥官”,能蒙眼辨认近2000把数控刀具
2025-12-06
0 浏览
机器人斗舞广西上演 未来舞台即将开启
2025-12-06
0 浏览
欠中国代工厂超25亿元,美知名机器人公司爆雷,濒临破产!
2025-12-06
0 浏览
机器人租赁市场回归理性 昔日万元日薪腰斩 年末需求回暖
2025-12-06
0 浏览
腾讯发布混元2.0大模型,全面提升多项能力
2025-12-06
0 浏览
2025智能机器人大赛决赛将于12月8、9日举行,奖金池突破百万,设四大细分赛道
2025-12-06
0 浏览
英伟达发布AI新框架 8亿参数模型优化工具管理
2025-12-05
0 浏览
日本AI技术助力青少年自杀倾向早期识别
2025-12-05
0 浏览
景顺看好中国科技股
2025-12-05
0 浏览
人形机器人订单激增 花旗大摩预测2026年增长十倍
2025-12-05
0 浏览