中国开源AI的下一个前沿
过去一年,中国AI迎来转折点。自DeepSeek于2025年1月发布R1推理模型以来,中国企业频频推出开源AI创新,挑战全球格局。MIT Technology Review的《What's Next》系列探讨其未来:开源生态加速构建、多模态模型崛起、推理能力跃升。尽管面临芯片限制与地缘挑战,中国开源AI正重塑全球竞争,预计2026年将涌现更多重量级模型,推动AI民主化。
过去一年,中国AI迎来转折点。自DeepSeek于2025年1月发布R1推理模型以来,中国企业频频推出开源AI创新,挑战全球格局。MIT Technology Review的《What's Next》系列探讨其未来:开源生态加速构建、多模态模型崛起、推理能力跃升。尽管面临芯片限制与地缘挑战,中国开源AI正重塑全球竞争,预计2026年将涌现更多重量级模型,推动AI民主化。
中国AI初创公司DeepSeek近日开源DeepSeek-V2模型,总参数达236B,却仅需309B训练令牌,在数学推理等任务上超越Llama3。HuggingFace下载量破纪录,X平台中文圈互动超20万,凸显其高性价比与中国AI追赶势头。
中国AI公司DeepSeek推出V2模型聊天机器人,免费开放使用,其中文能力媲美GPT-4o,在编程和数学领域表现出色。一天内X平台中文讨论超10万,转发量领跑,凭借高性价比迅速引爆中国AI圈,标志着国产大模型崛起。
DeepSeek Inference 5.1 是DeepSeek最新发布的推理引擎,在 MLCommons 推理基准中表现出色。该版本针对大模型高效推理进行了优化,支持 SGLang 等框架,显著提升了吞吐量和延迟性能。测试数据显示,在 Llama 3.1 405B 等模型上,DeepSeek Inference 5.1 的性能超越了 vLLM 和 TensorRT-LLM 等竞品,Elo Rating 排名前列。文章详解其关键特性、基准结果及实际部署建议,助力开发者选择最佳推理方案。(128字)
GB200 NVL72作为深度学习最强硬件之一,本文分享SGLang团队在上篇博客基础上,对DeepSeek V3/R1推理性能的进一步优化,包括FP8 attention、NVFP4 MoE、大规模专家并行(EP)、预填充-解码分离等技术。在FP8 attention和NVFP4 MoE下,SGLang实现每GPU预填充26,156 tokens/s、解码13,386 tokens/s(2000 token输入),较H100提升3.8倍和4.8倍。即使采用传统BF16 attention和FP8 MoE,也达18,471和9,087 tokens/s。优化涵盖低精度计算、更快内核集成、计算通信重叠等,精度损失微乎其微。实验验证了端到端性能大幅提升,并分析了内核级加速效果。(128字)
中国AI企业DeepSeek发布V2模型,在多项中文基准测试中超越GPT-4o,总参数仅236B却实现高效推理。该模型开源后迅速走红,X平台用户测试分享互动超15万,引发本土AI崛起与‘弯道超车’热议。
中国AI企业DeepSeek发布V2模型,在多项中文基准测试中超越GPT-4o,总参数仅236B却高效能耗低。国内用户测试分享互动超15万,引发‘中国AI弯道超车’热议。该开源模型标志本土AI崛起,挑战西方技术霸权。
中国AI公司DeepSeek推出V2模型,在中文数学推理任务中超越GPT-4o,总参数236B却仅激活21B,高效开源架构引爆国内X平台讨论,互动超5万次,彰显中资AI追赶全球势头。
DeepSeek AI发布DeepSeek-V3聊天模型,聊天能力直逼Claude 3.5 Sonnet,完全开源免费。中文社区热议超10万次,高性价比加速中国AI出海,标志开源大模型竞争新格局。