SJVR_Finance
02-24 22:53
目前不是只做了8b?并且拼接芯片理论上会极大程度的速度衰减,而且芯片无外接内存的时候上下文差不多就2k-8k?我觉得市场还是有,机器人边缘计算,物联网。但是对传统大语言模型没有什么冲击
不联网的AI,杀疯了...
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
1
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":536264391169376,"tweetId":"536264391169376","gmtCreate":1771944812765,"gmtModify":1771944815272,"author":{"id":3551269963098170,"idStr":"3551269963098170","authorId":3551269963098170,"authorIdStr":"3551269963098170","name":"SJVR_Finance","avatar":"https://static.tigerbbs.com/d38fd81b8e8ce1c1857c5c5e89ae1c2f","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":9,"crmLevelSwitch":1,"individualDisplayBadges":[],"fanSize":0,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"title":"","html":"<html><head></head><body><p>目前不是只做了8b?并且拼接芯片理论上会极大程度的速度衰减,而且芯片无外接内存的时候上下文差不多就2k-8k?我觉得市场还是有,机器人边缘计算,物联网。但是对传统大语言模型没有什么冲击</p></body></html>","htmlText":"<html><head></head><body><p>目前不是只做了8b?并且拼接芯片理论上会极大程度的速度衰减,而且芯片无外接内存的时候上下文差不多就2k-8k?我觉得市场还是有,机器人边缘计算,物联网。但是对传统大语言模型没有什么冲击</p></body></html>","text":"目前不是只做了8b?并且拼接芯片理论上会极大程度的速度衰减,而且芯片无外接内存的时候上下文差不多就2k-8k?我觉得市场还是有,机器人边缘计算,物联网。但是对传统大语言模型没有什么冲击","highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/536264391169376","repostId":2613769742,"repostType":2,"repost":{"id":"2613769742","kind":"news","pubTimestamp":1771907157,"share":"https://www.laohu8.com/m/news/2613769742?lang=zh_CN&edition=full","pubTime":"2026-02-24 12:25","market":"us","language":"zh","title":"不联网的AI,杀疯了...","url":"https://stock-news.laohu8.com/highlight/detail?id=2613769742","media":"思哲与创富","summary":"最近科技圈和资本市场同时被一个叫做chatjimmy.ai的新物种刷屏了,初次彻底震惊了我。在没有英伟达高性能AI芯片的加持,这家硅谷初创公司Taalas就让旗下大模型跑出了每秒1.5万到1.7万个Token。毕竟如果人人的手机、汽车都有这种AI大模型芯片,绝大多数日常问题在本地0.1秒就免费解决了。但拉长来看,技术进步的速度确实是难以估量的,谁又知道哪天这些顶级模型写入芯片之后,每个人的设备终端都拥有了顶级离线AI,世界又会演变成什么夸张的模样。","content":"<html><body><article><p>最近科技圈和资本市场同时被一个叫做<strong>chatjimmy.ai</strong>的新物种刷屏了,初次彻底震惊了我。</p><p>在没有<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>高性能AI芯片的加持,这家硅谷初创公司Taalas就让旗下大模型跑出了<strong>每秒</strong>1.5万到1.7万个Token。</p><p>这是什么概念?传统的大模型每秒是跑一到两千的Token,速度是它的1/10不到,</p><p>人话说就是,你把一道极其复杂的数学题发过去,传统的AI模型还搁那一个劲思考呢,而它下一秒就罗列了好几种解法给你看:</p><p>这个升级幅度,就好比是从算盘升级到计算器, 又是一个跨越式的进步。</p><p>那这个技术逻辑是怎么实现的呢?</p><p>最大的不同就是它把大模型的几十亿参数直接刻入硅片里面,</p><p>过去的芯片算力很强,但大模型和芯片之间数据需要传输,所以要借助HBM(显存)来搬运,甚至可以说90%的电量和时间都浪费在了路上,</p><p>好比一个天才面对一个复杂问题,一秒钟就给出了答案,但寄邮件却耗费了大量的时间。</p><p>而现在大模型就内嵌在芯片自身,它直接抛弃了昂贵的HBM显存,数据不需要搬运了,因为“计算即存储,存储即计算”,于是一下就节省出大量的资源。</p><p>这就和淘宝出来后,直接对接工厂发货,省去了实体店、中间商、库存一样。</p><p>那问题来了,如果要把大模型绘制在芯片上,模型岂不是被定死,那一旦老的模型失效要迭代,芯片岂不是就废了?</p><p>这也是过去大家都不敢这么搞的原因,因为模型迭代太快了,而且专门绘制一个大模型芯片的成本也很高,动辄上亿美金。</p><p>但如今随着Transformer语言的普及,大语言模型越来越成熟,那么这种商业路径成了可能。</p><p>而这次Taalas就是做了一个全自动的硅片编译器,可以实现自动给芯片电路编码,从而大幅提高效率降低成本。</p><p>效率方面,Taalas宣称把“大模型”转化为“定制芯片”的周期,可以从过去的一年降低到两个月。</p><p>成本方面,由于它抛弃了昂贵的HBM芯片,加上GPU用的普遍是H100芯片,如果换到大模型专用芯片上,只需要使用价格仅为1/20的6nm芯片就可以搞定运算。</p><p>这种情况即便是出了新的更强大模型,它也可以直接报废掉,换一个新的芯片就完事。</p><p>另外,估计有人也会好奇,这种绑定芯片的大模型,会不会因为没法更新迭代,导致知识永远停留在出厂那一天?</p><p>实际上大模型刻入芯片,只是模型本身的迭代不能进行了,就好比一个IQ180的人不能继续进化到IQ200,但它的逻辑推理能力,知识检索能力依旧顶级。</p><p>而且刻入芯片之后,访问大模型虽然不需要联网了,但它本身依然是具有联网能力的,依然可以找到最新的信息去学习,分析并且解决。</p><p>这就导致面对紧急突发状况的时候,它的响应速度远超过去的大模型,有更好的使用场景。</p><p>1、智能驾驶领域,当汽车在马路上突发紧急事件,有些复杂的问题根本无法解决~</p><p>比如前面临时修路了,原本的实线被磨掉了,交警拿着指挥棒示意你逆行绕过障碍物,传统的自动驾驶芯片擅长的是<strong>快速识别图像</strong>,但对这种需要快速逻辑推理的场景是无能无力的。</p><p>这种情况它根本等不起把数据打包传给阿里云、<a href=\"https://laohu8.com/S/AMZN\">亚马逊</a>等云端大模型来反馈结果,它需要的是和人类一样,低于1毫秒的“本能逻辑推理反射”。</p><p>2、高频量化领域,可以在宏观对冲金融里开“外挂”</p><p>在处理宏观新闻、财报、非农数据时,<span>美联储</span>鲍威尔的讲话文稿刚一发布,芯片就能以<strong>17000Token/秒</strong>的速度,在零点几毫秒内瞬间“吞下”几万字的报告,立刻得出“鹰派/鸽派”的定性,并转化为做多/做空大宗商品或<span>股指期货</span>的信号。</p><p>3、军工领域,这种无需联网、固化在物理硬件里的高智商芯片,是武器系统唯一的最佳选择。</p><p>哪怕是处在断网的“信息孤岛”,它还是能凭着出厂时被赋予的庞大参数,独立进行极速的战术分析和保密决策。</p><p>...................</p><p>当然,我们也要关注这个背后长远看一些潜在的利空,</p><p>最近一年,以<a href=\"https://laohu8.com/S/SMSN.UK\">三星</a>、<a href=\"https://laohu8.com/S/MU\">美光</a>,SK海力士为首的三大HBM存储巨头股价狂飙,底层逻辑都靠一个支撑:<strong>“AI</strong>的尽头是算力,算力的尽头是HBM”。</p><p>如果chatjimmy.ai这种“无HBM化”的芯片普及,甚至形成燎原之势,对这三大巨头绝对不仅仅是“有影响”,而是巨大的估值逻辑破坏。</p><p>另一方面,以前云计算借助AI推理全面收取过路费的模式,也可能会被打上一个问号。</p><p>毕竟如果人人的手机、汽车都有这种AI大模型芯片,绝大多数日常问题在本地0.1秒就免费解决了。</p><p>真正需要传到云端、花钱去求ChatGPT或Gemini这种复杂模型来解答的流量,可能连20%都不到。</p><p>不过对于资金布局在这些方向的人来说,明白危机的同时,也别太过于焦虑了。</p><p>因为短期来说它能写入的模型水平还是有限的,也就是目前仅限几十亿参数的初中生智商水平,距离真正顶级,动辄上百万亿参数模型还为之尚远。</p><p>也就是它五到十年内的使用场景更多还只是在一些特定的领域,尤其是对于一些对“断网、低延迟、绝对隐私”有极端要求的垂直领域——比如我前面提到的智能驾驶、军工系统、或者是金融量化高频交易。</p><p>但拉长来看,技术进步的速度确实是难以估量的,谁又知道哪天这些顶级模型写入芯片之后,每个人的设备终端都拥有了顶级离线AI,世界又会演变成什么夸张的模样。</p><p>就说这些...</p></article></body></html>","source":"tencent","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>不联网的AI,杀疯了...</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n不联网的AI,杀疯了...\n</h2>\n\n<h4 class=\"meta\">\n\n\n2026-02-24 12:25 北京时间 <a href=http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20260224133308a4c18efb&s=b><strong>思哲与创富</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>最近科技圈和资本市场同时被一个叫做chatjimmy.ai的新物种刷屏了,初次彻底震惊了我。在没有英伟达高性能AI芯片的加持,这家硅谷初创公司Taalas就让旗下大模型跑出了每秒1.5万到1.7万个Token。这是什么概念?传统的大模型每秒是跑一到两千的Token,速度是它的1/10不到,人话说就是,你把一道极其复杂的数学题发过去,传统的AI模型还搁那一个劲思考呢,而它下一秒就罗列了好几种解法给你...</p>\n\n<a href=\"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20260224133308a4c18efb&s=b\">网页链接</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"","relate_stocks":{"LU2360106780.USD":"BGF WORLD TECHNOLOGY \"A4\" (USD) INC","LU0127658192.USD":"EASTSPRING INVESTMENTS GLOBAL TECHNOLOGY \"A\" (USD) ACC","LU2048586759.USD":"ALLIANZ SMART ENERGY \"AT\" (USD) ACC","LU2089985449.USD":"MANULIFE GF GLOBAL SEMICONDUCTOR OPPORTUNITIES \"AA\" (USD) ACC","LU0203345920.USD":"SCHRODER ISF QEP GLB ACT. VL \"A\" (USD) ACC","LU1366333091.USD":"FIDELITY GLOBAL FOCUS \"A\" (USD) ACC","LU0082616367.USD":"摩根大通美国科技A(dist)","LU0719512351.SGD":"JPMorgan Funds - US Technology A (acc) SGD","IE0009356076.USD":"JANUS HENDERSON GLOBAL TECHNOLOGY AND INNOVATION \"A2\" (USD) ACC","BK4579":"人工智能","LU1803068979.SGD":"FTIF - Franklin Technology A (acc) SGD-H1","BK4588":"碎股","LU2931357623.SGD":"MANULIFE GF GLOBAL SEMICONDUCTOR OPPORTUNITIES \"AA\" (SGDHDG) ACC","BK4605":"半导体精选","LU0889566641.SGD":"FTSF - Templeton Shariah Global Equity A Acc SGD","LU0157215616.USD":"FIDELITY GLOBAL FOCUS \"A\" INC","LU0081259029.USD":"UBS (LUX) EQUITY FUND - TECH OPPORTUNITY \"P\" (USD) ACC","LU1323610961.USD":"UBS (LUX) EQUITY SICAV - LONG TERM THEMES (USD) \"P\" (USD) ACC","LU1267930813.SGD":"FRANKLIN TEMPLETON SHARIAH GLOBAL EQUITY \"AS\" (SGD) ACC","IE00B19Z3581.USD":"Legg Mason ClearBridge - Value A Acc USD","BK4532":"文艺复兴科技持仓","BK4554":"元宇宙及AR概念","LU0889565833.HKD":"FRANKLIN TECHNOLOGY \"A\" (HKD) ACC","MUD":"1倍做空MU ETF-Direxion","BK4543":"AI","BK4512":"苹果概念","LU2286300806.USD":"Allianz Cyber Security AT Acc USD","LU0154236417.USD":"BGF US FLEXIBLE EQUITY \"A2\" ACC","GB00BDT5M118.USD":"天利环球扩展Alpha基金A Acc","BK4527":"明星科技股","BK4553":"喜马拉雅资本持仓","LU0056508442.USD":"贝莱德世界科技基金A2","MULL":"2倍做多MU ETF-GraniteShares","BK4585":"ETF&股票定投概念","LU1316542783.SGD":"Janus Henderson Horizon Global Technology Leaders A2 SGD","BK4141":"半导体产品","LU2211815571.USD":"ALLIANZ POSITIVE CHANGE \"AT\" (USD) ACC","IE00B7SZLL34.SGD":"Legg Mason ClearBridge - Value A Acc SGD-H","IE00B19Z3B42.SGD":"Legg Mason ClearBridge - Value A Acc SGD","LU1852331112.SGD":"Blackrock World Technology Fund A2 SGD-H","BK4533":"AQR资本管理(全球第二大对冲基金)","LU2458330169.SGD":"FRANKLIN SHARIAH TECHNOLOGY \"A\" (SGD) ACC","IE0002270589.USD":"LEGG MASON CLEARBRIDGE VALUE \"A\" (USD) INC","BK4566":"资本集团","LU0203347892.USD":"SCHRODER ISF QEP GLOBAL ACTIVE VALLUE \"A\" (USD) INC AV","BK4575":"芯片概念","LU2458330243.SGD":"FRANKLIN SHARIAH TECHNOLOGY \"A-H1\" (SGDHDG) ACC","LU0109392836.USD":"富兰克林科技股A","LU2250418816.HKD":"BGF WORLD TECHNOLOGY \"A\" (HKD) ACC","BK4535":"淡马锡持仓","MU":"美光科技","LU0642271901.SGD":"Janus Henderson Horizon Global Technology Leaders A2 SGD-H","IE00B5949003.HKD":"JANUS HENDERSON GLOBAL TECHNOLOGY AND INNOVATION \"A\" (HKD) ACC","LU0792757196.USD":"TEMPLETON SHARIAH GLOBAL EQUITY FUND \"A\" (USD) ACC","LU0274383776.USD":"MANULIFE GF US SMALL CAP EQUITY \"AA\" (USD) INC"},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20260224133308a4c18efb&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/9a95c1376e76363c1401fee7d3717173","article_id":"2613769742","content_text":"最近科技圈和资本市场同时被一个叫做chatjimmy.ai的新物种刷屏了,初次彻底震惊了我。在没有英伟达高性能AI芯片的加持,这家硅谷初创公司Taalas就让旗下大模型跑出了每秒1.5万到1.7万个Token。这是什么概念?传统的大模型每秒是跑一到两千的Token,速度是它的1/10不到,人话说就是,你把一道极其复杂的数学题发过去,传统的AI模型还搁那一个劲思考呢,而它下一秒就罗列了好几种解法给你看:这个升级幅度,就好比是从算盘升级到计算器, 又是一个跨越式的进步。那这个技术逻辑是怎么实现的呢?最大的不同就是它把大模型的几十亿参数直接刻入硅片里面,过去的芯片算力很强,但大模型和芯片之间数据需要传输,所以要借助HBM(显存)来搬运,甚至可以说90%的电量和时间都浪费在了路上,好比一个天才面对一个复杂问题,一秒钟就给出了答案,但寄邮件却耗费了大量的时间。而现在大模型就内嵌在芯片自身,它直接抛弃了昂贵的HBM显存,数据不需要搬运了,因为“计算即存储,存储即计算”,于是一下就节省出大量的资源。这就和淘宝出来后,直接对接工厂发货,省去了实体店、中间商、库存一样。那问题来了,如果要把大模型绘制在芯片上,模型岂不是被定死,那一旦老的模型失效要迭代,芯片岂不是就废了?这也是过去大家都不敢这么搞的原因,因为模型迭代太快了,而且专门绘制一个大模型芯片的成本也很高,动辄上亿美金。但如今随着Transformer语言的普及,大语言模型越来越成熟,那么这种商业路径成了可能。而这次Taalas就是做了一个全自动的硅片编译器,可以实现自动给芯片电路编码,从而大幅提高效率降低成本。效率方面,Taalas宣称把“大模型”转化为“定制芯片”的周期,可以从过去的一年降低到两个月。成本方面,由于它抛弃了昂贵的HBM芯片,加上GPU用的普遍是H100芯片,如果换到大模型专用芯片上,只需要使用价格仅为1/20的6nm芯片就可以搞定运算。这种情况即便是出了新的更强大模型,它也可以直接报废掉,换一个新的芯片就完事。另外,估计有人也会好奇,这种绑定芯片的大模型,会不会因为没法更新迭代,导致知识永远停留在出厂那一天?实际上大模型刻入芯片,只是模型本身的迭代不能进行了,就好比一个IQ180的人不能继续进化到IQ200,但它的逻辑推理能力,知识检索能力依旧顶级。而且刻入芯片之后,访问大模型虽然不需要联网了,但它本身依然是具有联网能力的,依然可以找到最新的信息去学习,分析并且解决。这就导致面对紧急突发状况的时候,它的响应速度远超过去的大模型,有更好的使用场景。1、智能驾驶领域,当汽车在马路上突发紧急事件,有些复杂的问题根本无法解决~比如前面临时修路了,原本的实线被磨掉了,交警拿着指挥棒示意你逆行绕过障碍物,传统的自动驾驶芯片擅长的是快速识别图像,但对这种需要快速逻辑推理的场景是无能无力的。这种情况它根本等不起把数据打包传给阿里云、亚马逊等云端大模型来反馈结果,它需要的是和人类一样,低于1毫秒的“本能逻辑推理反射”。2、高频量化领域,可以在宏观对冲金融里开“外挂”在处理宏观新闻、财报、非农数据时,美联储鲍威尔的讲话文稿刚一发布,芯片就能以17000Token/秒的速度,在零点几毫秒内瞬间“吞下”几万字的报告,立刻得出“鹰派/鸽派”的定性,并转化为做多/做空大宗商品或股指期货的信号。3、军工领域,这种无需联网、固化在物理硬件里的高智商芯片,是武器系统唯一的最佳选择。哪怕是处在断网的“信息孤岛”,它还是能凭着出厂时被赋予的庞大参数,独立进行极速的战术分析和保密决策。...................当然,我们也要关注这个背后长远看一些潜在的利空,最近一年,以三星、美光,SK海力士为首的三大HBM存储巨头股价狂飙,底层逻辑都靠一个支撑:“AI的尽头是算力,算力的尽头是HBM”。如果chatjimmy.ai这种“无HBM化”的芯片普及,甚至形成燎原之势,对这三大巨头绝对不仅仅是“有影响”,而是巨大的估值逻辑破坏。另一方面,以前云计算借助AI推理全面收取过路费的模式,也可能会被打上一个问号。毕竟如果人人的手机、汽车都有这种AI大模型芯片,绝大多数日常问题在本地0.1秒就免费解决了。真正需要传到云端、花钱去求ChatGPT或Gemini这种复杂模型来解答的流量,可能连20%都不到。不过对于资金布局在这些方向的人来说,明白危机的同时,也别太过于焦虑了。因为短期来说它能写入的模型水平还是有限的,也就是目前仅限几十亿参数的初中生智商水平,距离真正顶级,动辄上百万亿参数模型还为之尚远。也就是它五到十年内的使用场景更多还只是在一些特定的领域,尤其是对于一些对“断网、低延迟、绝对隐私”有极端要求的垂直领域——比如我前面提到的智能驾驶、军工系统、或者是金融量化高频交易。但拉长来看,技术进步的速度确实是难以估量的,谁又知道哪天这些顶级模型写入芯片之后,每个人的设备终端都拥有了顶级离线AI,世界又会演变成什么夸张的模样。就说这些...","news_type":1,"symbols_score_info":{"MU":0.9,"MUD":0.6,"MULL":0.6}},"isVote":1,"tweetType":1,"viewCount":2,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":171,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/536264391169376"}
精彩评论