TAG:MoE架构
腾讯混元2.0内测启动,406B参数号称推理性能国内领先
腾讯发布新一代自研大模型混元2.0,总参数达406B,采用MoE架构提升推理速度,在数学、代码等复杂任务上表现突出,支持256K长上下文窗口。模型已在腾讯云API及元宝、ima等应用灰度上线,并计划于2026年开源,推动国产大模型生态发展。
蚂蚁百灵大模型团队开源Ring-flash-linear-2.0-128K,混合注意力+MoE架构重塑长文本编程效率
蚂蚁百灵大模型团队开源Ring-flash-linear-2.0-128K,采用混合线性注意力机制和MoE稀疏架构,仅激活6.1B参数即可媲美40B密集模型性能。该模型原生支持128K上下文窗口,可扩展至512K,在代码生成和长文本编程任务中实现SOTA表现,推理速度提升3倍以上,为开发者提供高效AI编程解决方案。
消费者购车洽谈遭录音 奥迪门店称厂家要求 折射经销商返利考核压力
2026-03-06
0 浏览
2026年大模型GEO优化服务商标杆企业推荐精选
2026-03-06
0 浏览
马云谈AI时代胜负关键:不在芯片在心跳 阿里核心高管齐聚云谷论教育
2026-03-06
0 浏览
2026年GEO优化服务商Top3推荐:商家AI搜索流量布局指南
2026-03-06
0 浏览
中国AI产品创新提速 美图RoboNeo登顶巴西App Store分类榜
2026-03-06
0 浏览
全国人大代表吴丰礼:建议试点粤港澳大湾区AI制度创新,夯实具身智能工业数据基建
2026-03-06
0 浏览
头部酒企新春首课聚焦AI:不转型就出局
2026-03-06
0 浏览
千问持续投入AI办事 春节完成2亿笔真实订单
2026-03-06
0 浏览
追觅科技在浙江新设智能科技公司,注册资本2000万元
2026-03-06
0 浏览
霍尔木兹海峡受阻 丰田被迫减产4万辆汽车
2026-03-06
0 浏览