
ListenHub
4
5-28原野: 嘿,最近圈里都在聊DeepSeek的R1模型,说是升级了,推理和编程能力都窜天猴似的往上蹿,这到底是个啥情况啊?
晓曼: 没错,5月28号他们悄咪咪地搞了个“小实验”,放出来给大家体验了。简单说,这次升级就是专门给它的“大脑”升级了一下,让它更会推理,更会写代码,而且效果还真挺惊艳的。
原野: 推理?这词儿听着就高大上,能接地气儿点儿解释不?
晓曼: 这么说吧,你平时做逻辑题,是不是得一步一步想?以前DeepSeek也能推理,但有时候脑回路有点乱。这次升级就像是给它装了个“顺风耳”,让它想问题更有条理,一步一个脚印。有用户就说,感觉现在跟它聊天,就像跟谷歌的Claude聊天一样,答案更靠谱,排版也更漂亮。
原野: 听起来有点意思啊!那编程方面呢?也学了啥“葵花宝典”?
晓曼: 编程就更厉害了,写出来的代码更流畅,注释也更清楚。我跟你说个好玩的,有人让它写个小游戏,就是那种能互动的视频游戏。结果它用Python写完,直接就能转成HTML5,浏览器里一拖就能玩,连环境都不用搭!
原野: 这么方便?!不过,能力强了,是不是速度就慢了?
晓曼: 确实,这次响应速度比之前慢了一丢丢,但大部分人都觉得,为了更准确的结果,等个一两秒也值了。毕竟推理和写代码也挺费脑子的,对吧?
原野: 费脑子?那它背后的那些参数是不是也得跟着升级啊?现在都啥配置了?
晓曼: R1的总参数现在是6710亿,推理的时候会激活37亿个。它用了个叫“稀疏混合专家”的架构,能处理16万多个token的超长文本。意思就是,你给它一大堆资料,它也能连贯地看完,不会卡壳。
原野: 那成本呢?是不是也跟着水涨船高了?
晓曼: DeepSeek一直强调性价比,库克之前还夸过他们。这次升级虽然后端更复杂了,但还是比那种传统的“全量微调”省钱,因为他们用了强化学习,不用堆那么多数据。
原野: 现在国内AI模型也挺多的,像阿里的通义千问,百度的文心大模型,DeepSeek这次升级能站稳脚跟吗?
晓曼: 竞争是挺激烈的,但这次R1的“小实验”在用户体验上拿了高分。说明啥?说明评判AI模型,不能光看那些测试数据,还得看用户的真实反馈。
原野: 这么说,AI模型就像跑百米,不光要看终点成绩,还得看你途中跑得稳不稳。
晓曼: 没错!DeepSeek这次升级,让中国AI在全球赛道上又往前冲了一点,也给我们带来了很多新的思考。
原野: 好的,今天咱们就先聊到这儿。感谢你给我科普了DeepSeek R1的“黑科技”,下次再来听你讲新故事!