
DeepSeek R1模型升级:推理编程大跃进,直追谷歌Claude
May 28
FromDeepSearch
FromDeepSearch
DeepSeek R1模型更新,推理和编程能力显著提升,响应质量优化,采用稀疏MoE架构,长上下文支持,强化学习驱动,展现中国AI实力与用户体验重要性。
- DeepSeek R1 模型 5 月 28 日迎来更新! 官方称“小型试验性升级”,用户已可试用。
- 推理能力显著增强! 用户反馈,复杂问题处理的思维链 (CoT) 结构化推理更明显,甚至有用户觉得像谷歌模型一样,写作质量和风格更深思熟虑。
- 编程性能“强力提升”! 代码连贯性更好、输出更清晰,有人将其代码生成能力与 Claude 3.7 比较。 能构建简单的交互式视频游戏,并用 Python 运行。 还能转换成 HTML5,直接在浏览器中运行,无需配置环境!
- 响应质量和格式也有改进!
- 小缺点: 响应时间变慢,但很多人认为为了更准确的结果,值得!
- 模型参数: 总参数高达 671B,推理过程中激活 37B 参数,采用稀疏的混合专家 (MoE) 架构,支持 163840 个 token 的上下文长度。
- 背景: DeepSeek R1 之前就以低成本、高性能著称,甚至让苹果 CEO 库克点赞。
- 国内竞争激烈: 阿里发布通义千问 3.0,百度推出文心大模型 4.5 和文心一言 X1。
- DeepSeek 的秘诀: 采用强化学习 (RL) 方法,不依赖大量监督微调 (SFT),就能提升推理性能。
- 意义: DeepSeek 在持续改进模型能力,是中国 AI 公司在全球 AI 竞赛中快速追赶的体现。
- 引发讨论: 评估模型不能只看基准测试,用户实际体验也很重要!