中国AI公司DeepSeek正在准备发布其最新旗舰模型DeepSeek V4,这是一个拥有1万亿参数的Mixture-of-Experts(MoE)模型,预计将带来革命性的AI能力。
核心亮点
- 1万亿参数MoE模型:采用混合专家架构,兼顾性能与效率
- 原生多模态能力:支持文本、图像、视频生成
- 100万token上下文窗口,与OpenAI GPT-5.4持平
- 国产芯片优化:专门针对华为昇腾和寒武纪芯片优化
战略意义
DeepSeek V4的发布标志着中国在AI领域追求自主可控的重要一步。该模型明确针对国产AI芯片进行优化,减少对美国NVIDIA技术的依赖,展现了中国AI产业去美化的战略决心。
发布时间
据报道,DeepSeek V4已于2026年3月4日进入大规模测试阶段,Lite版本于3月9日推出。正式版本预计将在近期发布。
值得关注的是,DeepSeek V4不仅在技术参数上与OpenAI GPT-5.4看齐,更在芯片层面实现了国产化突破,这将为中国AI产业发展注入新的动力。