CDMD
01-31
因为模型要“不断重新思考”(反复造轮)
这就是个实时性能垃圾的模型
另外打破cuda一说
为了20%的效率估计直接牺牲了数据中心的多任务,变成单一任务单一芯片类型 典型的冰雕连
英伟达:DeepSeek R1是最先进推理开放模型
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
KEINS
01-31
KEINS
我最相信这里人了,怎么投机取巧怎么来
什么也没有了~
APP内打开
发表看法
1
3
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":398396382044744,"tweetId":"398396382044744","gmtCreate":1738287531007,"gmtModify":1738288358311,"author":{"id":3474932182717872,"idStr":"3474932182717872","authorId":3474932182717872,"authorIdStr":"3474932182717872","name":"CDMD","avatar":"https://static.laohu8.com/default-avatar.jpg","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":7,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":30,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p>因为模型要“不断重新思考”(反复造轮)</p>\n<p>这就是个实时性能垃圾的模型</p>\n<p><br></p>\n<p>另外打破cuda一说</p>\n<p>为了20%的效率估计直接牺牲了数据中心的多任务,变成单一任务单一芯片类型 典型的冰雕连</p></body></html>","htmlText":"<html><head></head><body><p>因为模型要“不断重新思考”(反复造轮)</p>\n<p>这就是个实时性能垃圾的模型</p>\n<p><br></p>\n<p>另外打破cuda一说</p>\n<p>为了20%的效率估计直接牺牲了数据中心的多任务,变成单一任务单一芯片类型 典型的冰雕连</p></body></html>","text":"因为模型要“不断重新思考”(反复造轮) 这就是个实时性能垃圾的模型 另外打破cuda一说 为了20%的效率估计直接牺牲了数据中心的多任务,变成单一任务单一芯片类型 典型的冰雕连","highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":1,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/398396382044744","repostId":2507501600,"repostType":2,"repost":{"id":"2507501600","kind":"news","pubTimestamp":1738281392,"share":"https://www.laohu8.com/m/news/2507501600?lang=&edition=full","pubTime":"2025-01-31 07:56","market":"us","language":"zh","title":"英伟达:DeepSeek R1是最先进推理开放模型","url":"https://stock-news.laohu8.com/highlight/detail?id=2507501600","media":"鞭牛士Bianews","summary":"鞭牛士报道,1月31日消息,英伟达官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。大量的测试时计算对于实现实时推理和来自 DeepSeek-R1 等推理模型的更高质量响应至关重要,这需要更大规模的推理部署。DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。","content":"<html><body><p>鞭牛士报道,1月31日消息,<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。</p><p>执行这一系列推理过程(使用推理得出最佳答案)称为测试时间扩展。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。</p><p>由于模型可以反复思考问题,因此它们会创建更多输出标记和更长的生成周期,因此模型质量会不断提高。大量的测试时计算对于实现实时推理和来自 DeepSeek-R1 等推理模型的更高质量响应至关重要,这需要更大规模的推理部署。</p><p>R1 在需要逻辑推理、推理、数学、编码和语言理解的任务中提供了领先的准确性,同时还提供了高推理效率。</p><p>为了帮助开发人员安全地试验这些功能并构建自己的专用代理,6710 亿参数的 DeepSeek-R1 模型现已作为 NVIDIA NIM 微服务预览版在build.nvidia.com上提供。</p><p>DeepSeek-R1 NIM 微服务可以在单个 NVIDIA HGX H200 系统上每秒提供多达 3,872 个令牌。</p><p>开发人员可以使用应用程序编程接口 (API) 进行测试和试验,该接口预计很快将作为可下载的 NIM 微服务提供,是NVIDIA AI Enterprise软件平台的一部分。</p><p>DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。企业可以通过在其首选的加速计算基础设施上运行 NIM 微服务来最大限度地提高安全性和数据隐私。通过使用NVIDIA AI Foundry和NVIDIA NeMo软件,企业还可以为专门的 AI 代理创建定制的 DeepSeek-R1 NIM 微服务。</p></body></html>","source":"fenghuang_stock","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>英伟达:DeepSeek R1是最先进推理开放模型</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n英伟达:DeepSeek R1是最先进推理开放模型\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-01-31 07:56 北京时间 <a href=https://tech.ifeng.com/c/8gaGSeyesBJ><strong>鞭牛士Bianews</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>鞭牛士报道,1月31日消息,英伟达官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。执行这一系列推理过程(使用推理得出最佳答案)称为测试时间扩展。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。由于模型可以反复...</p>\n\n<a href=\"https://tech.ifeng.com/c/8gaGSeyesBJ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"","relate_stocks":{"NVDA":"英伟达"},"source_url":"https://tech.ifeng.com/c/8gaGSeyesBJ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2507501600","content_text":"鞭牛士报道,1月31日消息,英伟达官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。执行这一系列推理过程(使用推理得出最佳答案)称为测试时间扩展。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。由于模型可以反复思考问题,因此它们会创建更多输出标记和更长的生成周期,因此模型质量会不断提高。大量的测试时计算对于实现实时推理和来自 DeepSeek-R1 等推理模型的更高质量响应至关重要,这需要更大规模的推理部署。R1 在需要逻辑推理、推理、数学、编码和语言理解的任务中提供了领先的准确性,同时还提供了高推理效率。为了帮助开发人员安全地试验这些功能并构建自己的专用代理,6710 亿参数的 DeepSeek-R1 模型现已作为 NVIDIA NIM 微服务预览版在build.nvidia.com上提供。DeepSeek-R1 NIM 微服务可以在单个 NVIDIA HGX H200 系统上每秒提供多达 3,872 个令牌。开发人员可以使用应用程序编程接口 (API) 进行测试和试验,该接口预计很快将作为可下载的 NIM 微服务提供,是NVIDIA AI Enterprise软件平台的一部分。DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。企业可以通过在其首选的加速计算基础设施上运行 NIM 微服务来最大限度地提高安全性和数据隐私。通过使用NVIDIA AI Foundry和NVIDIA NeMo软件,企业还可以为专门的 AI 代理创建定制的 DeepSeek-R1 NIM 微服务。","news_type":1,"symbols_score_info":{"NVDA":1}},"isVote":1,"tweetType":1,"viewCount":1091,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":156,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"commentList":[{"id":398438277407400,"commentId":"398438277407400","gmtCreate":1738297606019,"gmtModify":1738297610202,"authorId":3440540550401156,"author":{"id":3440540550401156,"idStr":"3440540550401156","authorId":3440540550401156,"name":"KEINS","avatar":"https://static.tigerbbs.com/70c84e27d76e3a3450fb952380b9db3e","vip":1,"crmLevel":2,"crmLevelSwitch":0,"individualDisplayBadges":[]},"repliedAuthorId":0,"objectId":398396382044744,"objectIdStr":"398396382044744","type":1,"supId":0,"supIdStr":"0","prevId":0,"prevIdStr":"0","content":"我最相信这里人了,怎么投机取巧怎么来","text":"我最相信这里人了,怎么投机取巧怎么来","html":"我最相信这里人了,怎么投机取巧怎么来","likeSize":0,"commentSize":0,"subComments":[],"verified":10,"allocateAmount":0,"commentType":"valid","coins":0,"score":0,"disclaimerType":0}],"isCommentEnd":false,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/398396382044744"}
精彩评论