DeepSeek V4 即将发布:1万亿参数MoE模型原生支持多模态

2026-03-13 73 0

中国AI公司DeepSeek正在准备发布其最新旗舰模型DeepSeek V4,这是一个拥有1万亿参数的Mixture-of-Experts(MoE)模型,预计将带来革命性的AI能力。

核心亮点

  • 1万亿参数MoE模型:采用混合专家架构,兼顾性能与效率
  • 原生多模态能力:支持文本、图像、视频生成
  • 100万token上下文窗口,与OpenAI GPT-5.4持平
  • 国产芯片优化:专门针对华为昇腾和寒武纪芯片优化

战略意义

DeepSeek V4的发布标志着中国在AI领域追求自主可控的重要一步。该模型明确针对国产AI芯片进行优化,减少对美国NVIDIA技术的依赖,展现了中国AI产业去美化的战略决心。

发布时间

据报道,DeepSeek V4已于2026年3月4日进入大规模测试阶段,Lite版本于3月9日推出。正式版本预计将在近期发布。

值得关注的是,DeepSeek V4不仅在技术参数上与OpenAI GPT-5.4看齐,更在芯片层面实现了国产化突破,这将为中国AI产业发展注入新的动力。

相关文章

OpenClaw v2026.4.25 更新发布
20亿美元,买的不是代码,是中国养出来的用户
OpenClaw v2026.4.24 更新发布
OpenClaw v2026.4.23 更新发布
Google投了400亿美元,Anthropic为什么不卖?
SpaceX 600亿收购Cursor:马斯克的代码帝国梦