TAG:MoE
蚂蚁开源Ring-flash-linear-2.0-128K模型,混合注意力与MoE架构提升长文本编程效率
在AI大模型竞争白热化的当下,高效推理与长上下文处理已成为开发者痛点。近日,蚂蚁集团旗下百灵大模型团队正式开源Ring-flash-linear-2.0-128K,一款专为超长文本编程设计的创新模型。
AI算力的“B计划”:当AMD与IBM联手,用1024张MI300X,炼出了第一个“非NVIDIA”大模型
AMD携手IBM与Zyphra发布全球首个纯AMD硬件训练的大模型ZAYA1,采用MoE架构预训练14T tokens,性能与Qwen3系列持平。ZAYA1创新性采用CCA注意力机制和线性路由MoE,在数学推理等STEM领域表现优异,验证了AMD MI300X+ROCm在大规模模型训练中的可行性。
消费者购车洽谈遭录音 奥迪门店称厂家要求 折射经销商返利考核压力
2026-03-06
0 浏览
2026年大模型GEO优化服务商标杆企业推荐精选
2026-03-06
0 浏览
马云谈AI时代胜负关键:不在芯片在心跳 阿里核心高管齐聚云谷论教育
2026-03-06
0 浏览
2026年GEO优化服务商Top3推荐:商家AI搜索流量布局指南
2026-03-06
0 浏览
中国AI产品创新提速 美图RoboNeo登顶巴西App Store分类榜
2026-03-06
0 浏览
全国人大代表吴丰礼:建议试点粤港澳大湾区AI制度创新,夯实具身智能工业数据基建
2026-03-06
0 浏览
头部酒企新春首课聚焦AI:不转型就出局
2026-03-06
0 浏览
千问持续投入AI办事 春节完成2亿笔真实订单
2026-03-06
0 浏览
追觅科技在浙江新设智能科技公司,注册资本2000万元
2026-03-06
0 浏览
霍尔木兹海峡受阻 丰田被迫减产4万辆汽车
2026-03-06
0 浏览