因为模型要“不断重新思考”(反复造轮)

这就是个实时性能垃圾的模型


另外打破cuda一说

为了20%的效率估计直接牺牲了数据中心的多任务,变成单一任务单一芯片类型  典型的冰雕连

英伟达:DeepSeek R1是最先进推理开放模型

鞭牛士报道,1月31日消息,英伟达官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。大量的测试时计算对于实现实时推理和来自 DeepSeek-R1 等推理模型的更高质量响应至关重要,这需要更大规模的推理部署。DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。
英伟达:DeepSeek R1是最先进推理开放模型

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论1

  • 推荐
  • 最新
  • KEINS
    ·01-31
    我最相信这里人了,怎么投机取巧怎么来
    回复
    举报