因为模型要“不断重新思考”(反复造轮)
这就是个实时性能垃圾的模型
另外打破cuda一说
为了20%的效率估计直接牺牲了数据中心的多任务,变成单一任务单一芯片类型 典型的冰雕连
英伟达:DeepSeek R1是最先进推理开放模型
鞭牛士报道,1月31日消息,英伟达官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。大量的测试时计算对于实现实时推理和来自 DeepSeek-R1 等推理模型的更高质量响应至关重要,这需要更大规模的推理部署。DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
3
举报
登录后可参与评论
- KEINS·01-31我最相信这里人了,怎么投机取巧怎么来点赞举报

