+关注
统计局我们
暂无个人介绍
IP属地:北京
1
关注
1
粉丝
0
主题
0
勋章
主贴
热门
统计局我们
09-02
别搞笑了!
冲上热搜!美团大模型,靠“快”火了
统计局我们
09-01
$阿里巴巴(BABA)$
阿里会起飞
统计局我们
09-01
别瞎带节奏了!人家业绩好就是好,你看好美团,大家最讨厌美团。
阿里财报反常识:阿里云ai收益主要卖给自己 gmv不涨crm涨懂的都懂
统计局我们
05-27
$美团-W(03690)$
让美团掉到五千亿,感受一下压力!这家公司太能压榨
统计局我们
03-03
夸克太好用了!超过所有产品
盘前 | 特斯拉涨逾3%,英特尔获重大利好,理想汽车大跌超8%
去老虎APP查看更多动态
{"i18n":{"language":"zh_CN"},"userPageInfo":{"id":"4145482403543770","uuid":"4145482403543770","gmtCreate":1682379302218,"gmtModify":1722500719565,"name":"统计局我们","pinyin":"tjjwmtongjijuwomen","introduction":"","introductionEn":"","signature":"","avatar":"https://static.laohu8.com/default-avatar.jpg","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":1,"headSize":1,"tweetSize":5,"questionSize":0,"limitLevel":999,"accountStatus":1,"level":{"id":0,"name":"","nameTw":"","represent":"","factor":"","iconColor":"","bgColor":""},"themeCounts":0,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":0,"symbols":null,"coverImage":null,"realNameVerified":"success","userBadges":[{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-1","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"出道虎友","description":"加入老虎社区500天","bigImgUrl":"https://static.tigerbbs.com/0e4d0ca1da0456dc7894c946d44bf9ab","smallImgUrl":"https://static.tigerbbs.com/0f2f65e8ce4cfaae8db2bea9b127f58b","grayImgUrl":"https://static.tigerbbs.com/c5948a31b6edf154422335b265235809","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2024.09.09","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001}],"userBadgeCount":1,"currentWearingBadge":null,"individualDisplayBadges":null,"crmLevel":1,"crmLevelSwitch":0,"location":"北京","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":0,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"baikeInfo":{},"tab":"post","tweets":[{"id":474127802564816,"gmtCreate":1756785928878,"gmtModify":1756785930545,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"别搞笑了!","listText":"别搞笑了!","text":"别搞笑了!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/474127802564816","repostId":"1131993986","repostType":2,"repost":{"id":"1131993986","kind":"news","pubTimestamp":1756785335,"share":"https://www.laohu8.com/m/news/1131993986?lang=&edition=full","pubTime":"2025-09-02 11:55","market":"hk","language":"zh","title":"冲上热搜!美团大模型,靠“快”火了","url":"https://stock-news.laohu8.com/highlight/detail?id=1131993986","media":"机器之心","summary":"LongCat-Flash 开源后登上热搜。大模型怎么省算力?用来训练该模型的数据量超过 20 万亿 token,但训练时间却只用了不到 30 天。这个价格相比市面上同等规模的模型来说,可以算是非常划算了。从技术上来说,LongCat-Flash 主要瞄准语言模型的两个目标:计算效率与智能体能力,并融合了架构创新与多阶段训练方法,从而实现可扩展且智能的模型体系。一般而言,大规模 MoE 模型的效率在很大程度上受到通信开销的限制。","content":"<html><head></head><body><blockquote><p>国内外开发者:亲测,美团<a href=\"https://laohu8.com/S/300109\">新开源</a>的模型速度超快!</p></blockquote><p style=\"text-align: justify;\">当 AI 真的变得像水和电一样普及之后,模型强不强已经不是大家唯一关心的问题了。</p><p style=\"text-align: justify;\">从年初的 Claude 3.7 Sonnet、Gemini 2.5 Flash 到最近的 GPT-5、DeepSeek V3.1,走在前面的模型厂商无一不在思考:在保证准确性的前提下,如何让 AI 既能以最少的算力去解决每一个问题,又能在最短的时间内给出回应?换句话说,就是如何做到既不浪费 token,也不浪费时间。</p><p style=\"text-align: justify;\">对于在模型上构建应用的企业和开发者来说,这种从「单纯构建最强模型到构建更实用、更快速模型」的转变是个好消息。而且更加令人欣慰的是,与之相关的开源模型也逐渐多了起来。</p><p style=\"text-align: justify;\">前几天,我们在 HuggingFace 上又发现了一个新模型 ——<strong>LongCat-Flash-Chat</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f0c537fe27974360d056a4f30f4c6416\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1300\"/></p><p style=\"text-align: justify;\">这个模型来自<strong><a href=\"https://laohu8.com/S/MPNGY\">美团</a>的 LongCat-Flash 系列,官网可以直接使用</strong>(https://longcat.ai)。</p><p style=\"text-align: justify;\">它天然知道「not all tokens are equal」,因此会根据重要性为重要 token 分配动态计算预算。这让它在仅激活少量参数的前提下,性能就能并肩当下领先的开源模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bb53956e76d99e9a6c4baf6cb563c3ab\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"203\"/></p><p style=\"text-align: justify;\"><em>LongCat-Flash 开源后登上热搜。</em></p><p style=\"text-align: justify;\">同时,这个模型的速度也给大家留下了深刻印象 —— 在 H800 显卡上推理速度<strong>超过每秒 100 个 token</strong>。国内外开发者的实测都证实了这一点 —— 有人跑出了 95 tokens/s 的速度,有人在最短时间内得到了和 Claude 相媲美的答案。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/afdb322f2c8a8f39f94f13a63ae0398f\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1121\"/></p><p style=\"text-align: justify;\"><em>图源:<a href=\"https://laohu8.com/S/ZH\">知乎</a>网友 @小小将。</em></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4feca0a7e7e5ce195f30470e8172e093\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1102\"/></p><p style=\"text-align: justify;\"><em>图源:X 网友 @SlavaMorozov。</em></p><p style=\"text-align: justify;\">在开源模型的同时,<a href=\"https://laohu8.com/S/03690\">美团</a>也放出了 LongCat-Flash 的技术报告,我们可以在其中看到不少技术细节。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/815e405ea926c3e0680ef2e2b76ef7fd\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"888\"/></p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: left;\">技术报告:LongCat-Flash Technical Report</p></li><li><p style=\"text-align: left;\">报告链接:https://github.com/meituan-longcat/LongCat-Flash-Chat/blob/main/tech_report.pdf</p></li><li><p style=\"text-align: left;\">Hugging Face: https://huggingface.co/meituan-longcat </p></li><li><p style=\"text-align: left;\">Github: https://github.com/meituan-longcat</p></li></ul><p style=\"text-align: justify;\">在这篇文章中,我们将详细介绍。</p><h2 id=\"id_1126824011\">大模型怎么省算力?</h2><h2 id=\"id_1517558641\">看看 LongCat-Flash 的架构创新和训练方法</h2><p style=\"text-align: justify;\">LongCat-Flash 是一个<strong>混合专家模型</strong>,总参数量为 <strong>5600 亿</strong>,可以根据上下文需求<strong>激活 186 亿至 313 亿(平均 270 亿)个参数</strong>。</p><p style=\"text-align: justify;\">用来训练该模型的数据量超过 20 万亿 token,但训练时间却只用了<strong>不到 30 天</strong>。而且在这段时间里,系统达到了 <strong>98.48% 的时间可用率</strong>,几乎不需要人工干预来处理故障 —— 这意味着整个训练过程基本是「无人干预」自动完成的。</p><p style=\"text-align: justify;\">更让人印象深刻的是,这样训练出来的模型在实际部署时表现同样出色。</p><p style=\"text-align: justify;\">如下图所示,作为一款<strong>非思考型模型</strong>,LongCat-Flash 达到了<strong>与 SOTA 非思考型模型相当的性能</strong>,包括 DeepSeek-V3.1 和 Kimi-K2,同时参数更少且推理速度更快。这让它在通用、编程、智能体工具使用等方向都颇具竞争力和实用性。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f29fa82cc873e46b06021ed29f49d862\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"689\"/></p><p style=\"text-align: justify;\">此外,它的成本也很亮眼,仅为<strong>每百万输出 token 0.7 美元</strong>。这个价格相比市面上同等规模的模型来说,可以算是非常划算了。</p><p style=\"text-align: justify;\">从技术上来说,LongCat-Flash 主要瞄准语言模型的两个目标:<strong>计算效率与智能体能力</strong>,并融合了架构创新与多阶段训练方法,从而实现可扩展且智能的模型体系。</p><p style=\"text-align: justify;\">在模型架构方面,LongCat-Flash 采用了一种新颖的 MoE 架构(图 2),其亮点包含两方面:</p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: left;\"><strong>零计算专家(Zero-computation Experts);</strong></p></li><li><p style=\"text-align: left;\"><strong>快捷连接 MoE(Shortcut-connected MoE,ScMoE</strong>)。</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bba0004e8e3e48da8c161a4aa9f1ef64\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"600\"/></p><p style=\"text-align: justify;\"><strong>零计算专家</strong></p><p style=\"text-align: justify;\">零计算专家的核心思想是并非所有 token 都是「平等」的。</p><p style=\"text-align: justify;\">我们可以这样理解,在一个句子中,有些词是非常容易预测的,如「的」「是」,几乎不需要计算,而有些词如「人名」则需要大量计算才能准确预测。</p><p style=\"text-align: justify;\">在以往的研究中,大家基本采用这种方式:即无论这个 token 是简单还是复杂,它都会激活固定数量(<a href=\"https://laohu8.com/S/TKKD.SI\">K</a>)的专家,这造成了巨大的计算浪费。对于简单 token 来说,完全没必要调用那么多专家,而对于复杂 token,则可能又缺乏足够的计算分配。</p><p style=\"text-align: justify;\">受此启发,LongCat-Flash 提出了一种动态计算资源分配机制:通过零计算专家,为每个 token 动态激活不同数量的 FFN(Feed-Forward Network) 专家,从而根据上下文的重要性更合理地分配计算量。</p><p style=\"text-align: justify;\">具体而言,LongCat-Flash 在其专家池中,除了原有的 N 个标准 FFN 专家外,还扩展了 Z 个零计算专家。零计算专家仅将输入原样返回作为输出,因此不会引入额外的计算开销。</p><p style=\"text-align: justify;\">LongCat-Flash 中的 MoE 模块可以形式化为:</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b7477a33083c5e3ed34271b73d4e30c2\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"336\"/></p><p style=\"text-align: justify;\">其中,x_t 为输入序列中的第 t 个 token,R 表示 softmax 路由器,b_i 表示第 i 个专家对应的偏置项,K 表示每个 token 所选中的专家数量。路由器会将每个 token 分配给 K 个专家,其中被激活的 FFN 专家数量会根据该 token 的上下文重要性而变化。通过这种自适应的分配机制,模型能够学习到对上下文更重要的 token 动态分配更多的计算资源,从而在相同的计算量条件下实现更优的性能,如图 3a 所示。</p><p style=\"text-align: justify;\">另外,模型在处理输入时,需要学会根据不同 token 的重要性,来决定到底要不要花更多计算资源。如果不去控制零计算专家被选中的频率,模型可能会偏向于选择有计算的专家,忽视零计算专家的作用。从而造成计算资源效率低下。</p><p style=\"text-align: justify;\">为了解决这一问题,美团改进了 aux-loss-free 策略中的专家偏置机制:引入专家特定的偏置项,该偏置能够根据最近的专家使用情况动态调整路由分数,同时又与语言模型的训练目标保持解耦。</p><p style=\"text-align: justify;\">更新规则采用了控制理论中的 PID 控制器实时微调专家偏置。得益于此,模型在处理每个 token 时,仅需激活 186 亿至 313 亿(平均激活量稳定在约 270 亿)的参数量,从而实现资源优化配置。</p><p style=\"text-align: justify;\"><strong>快捷连接 MoE</strong></p><p style=\"text-align: justify;\">LongCat-Flash 另一个亮点是快捷连接 MoE 机制。</p><p style=\"text-align: justify;\">一般而言,大规模 MoE 模型的效率在很大程度上受到通信开销的限制。在传统的执行范式中,专家并行会引入一种顺序化的工作流程,即必须先通过一次全局通信操作将 token 路由到其指定的专家,随后计算才能开始。</p><p style=\"text-align: justify;\">这种先通信、再计算的顺序会带来额外的等待时间,尤其在大规模分布式训练中,通信延迟会显著增加,成为性能瓶颈。</p><p style=\"text-align: justify;\">此前有研究者采用共享专家架构,试图通过将通信与单个专家的计算重叠来缓解问题,但其效率受到单个专家计算窗口过小的限制。</p><p style=\"text-align: justify;\">美团通过引入 ScMoE 架构克服了这一限制,ScMoE 在层间引入了一条跨层快捷连接,这一关键创新使得:前一层稠密 FFN 的计算可以与当前 MoE 层的分发 / 聚合通信操作并行执行,相比共享专家架构,形成了一个更大规模的通信 - 计算重叠窗口。</p><p style=\"text-align: justify;\">该架构设计在多项实验中得到了验证。</p><p style=\"text-align: justify;\">首先,ScMoE 设计并不会降低模型质量。如图 4 所示,ScMoE 架构与未使用 ScMoE 的基线在训练损失曲线上的表现几乎完全一致,这证明了这种重新排序的执行方式并不会损害模型性能。这一结论在多种配置下均得到一致性验证。</p><p style=\"text-align: justify;\">更重要的是,这些结果表明:ScMoE 的稳定性与性能优势,与注意力机制的具体选择是正交的(即无论使用哪种注意力机制,都能保持稳定与收益)。</p><p style=\"text-align: justify;\">其次,ScMoE 架构为训练和推理提供了大量系统级效率提升。具体表现在:</p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: justify;\">在大规模训练方面:扩展的重叠窗口使前序块的计算能够与 MoE 层中的分发和聚合通信阶段完全并行,这是通过沿 token 维度将操作分割为细粒度块实现的。</p></li><li><p style=\"text-align: justify;\">在高效推理方面:ScMoE 支持单批次重叠 pipeline,相较 DeepSeek-V3 等领先模型,将理论每秒输出 token 时间(TPOT)降低近 50%。更重要的是,它允许不同通信模式的并发执行:稠密 FFN 上节点内的张量并行通信(通过 NVLink)可与节点间的专家并行通信(通过 RDMA)完全重叠,从而最大化总体网络利用率。</p></li></ul><p style=\"text-align: justify;\">总之,ScMoE 在不牺牲模型质量的情况下提供了大量的性能提升。</p><p style=\"text-align: justify;\"><strong>模型扩展策略与多阶段训练</strong></p><p style=\"text-align: justify;\">美团还提出了一套<strong>高效的模型扩展策略</strong>,能够显著改善模型在规模增大时的性能表现。</p><p style=\"text-align: justify;\">首先是超参数迁移,在训练超大规模模型时,直接尝试各种超参数配置非常昂贵且不稳定。于是美团先在较小的模型上进行实验,找到效果最好的超参数组合。然后,再把这些参数迁移到大模型上使用。从而节省了成本并保证了效果。迁移规则如表 1 所示:</p><p style=\"text-align: justify;\">其次是模型增长(Model Growth)初始化,美团先从一个在<a href=\"https://laohu8.com/S/SBAY\">数百亿</a> token 上预训练过的半规模模型出发,训练好之后保留检查点。在此基础上把模型扩展到完整规模,并继续训练。</p><p style=\"text-align: justify;\">基于这种方式,模型表现出一条典型的损失曲线:损失先短暂上升,随后快速收敛,并最终显著优于随机初始化的基线。图 5b 展示 6B 激活参数实验中的一个代表性结果,体现了模型增长初始化的优势。</p><p style=\"text-align: justify;\">第三点是多层次的稳定性套件,美团从路由器稳定性、激活稳定性和优化器稳定性三个方面增强了 LongCat-Flash 的训练稳定性。</p><p style=\"text-align: justify;\">第四点是确定性计算,这种方法能够保证实验结果的完全可复现,并在训练过程中实现对静默数据损坏(Silent Data Corruption, SDC) 的检测。</p><p style=\"text-align: justify;\">通过这些措施,LongCat-Flash 的训练过程始终保持高度稳定,且不会出现不可恢复的损失骤增(loss spike)。</p><p style=\"text-align: justify;\">在保持训练稳定的基础上,美团还精心<strong>设计了训练 pipeline,使 LongCat-Flash 具备了高级智能体行为</strong>,该流程涵盖大规模预训练、面向推理与代码能力的中期训练,以及聚焦对话与工具使用的后训练。</p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: justify;\">初始阶段,构建一个更适合于智能体后训练的基础模型,为此美团设计了一个两阶段的预训练数据融合策略来集中推理密集型领域的数据。</p></li><li><p style=\"text-align: justify;\">训练中期,美团进一步增强模型的推理能力与代码能力;同时将上下文长度扩展至 128k,以满足智能体后训练的需求。</p></li><li><p style=\"text-align: justify;\">最后,美团又进行了多阶段后训练。鉴于智能体领域高质量、高难度训练数据的稀缺,美团设计了一个多智能体合成框架:该框架从三个维度定义任务难度,即信息处理、工具集复杂性和用户交互,使用专门的控制器来生成需要迭代推理和环境交互的复杂任务。</p></li></ul><p style=\"text-align: justify;\">这种设计使其在执行需要调用工具、与环境交互的复杂任务时表现出色。</p><h2 id=\"id_3335341149\">跑起来又快又便宜</h2><h2 id=\"id_1127507097\">LongCat-Flash 是怎么做到的?</h2><p style=\"text-align: justify;\">前面提到,LongCat-Flash 可以在 H800 显卡上以超过每秒 100 个 token 的速度进行推理,成本仅为每百万输出 token 0.7 美元,可以说跑起来又快又便宜。</p><p style=\"text-align: justify;\">这是怎么做到的呢?首先,他们有一个<strong>与模型架构协同设计的并行推理架构</strong>;其次,他们还加入了<strong>量化和自定义内核等优化方法</strong>。</p><p style=\"text-align: justify;\"><strong>专属优化:让模型「自己跑得顺」</strong></p><p style=\"text-align: justify;\">我们知道,要构建一个高效的推理系统,必须解决两个关键问题,一是计算与通信的协调,二是 KV 缓存的读写和存储。</p><p style=\"text-align: justify;\">针对第一个挑战,现有的方法通常在三个常规粒度上利用并行性:算子级的重叠、专家级的重叠以及层级的重叠。LongCat-Flash 的 ScMoE 架构引入了第四个维度 —— 模块级的重叠。为此,团队设计了<strong> SBO(Single Batch Overlap)调度策略</strong>以优化延迟和吞吐量。</p><p style=\"text-align: justify;\">SBO 是一个四阶段的流水线执行方式,通过模块级重叠充分发挥了 LongCat-Flash 的潜力,如图 9 所示。SBO 与 TBO 的不同之处在于将通信开销隐藏在单个批次内。它在第一阶段执行 MLA 计算,为后续阶段提供输入;第二阶段将 Dense FFN 和 Attn 0(QKV 投影)与 all-to-all dispatch 通信重叠;第三阶段独立执行 MoE GEMM,其延迟受益于广泛的 EP 部署策略;第四阶段将 Attn 1(核心注意力和输出投影)及 Dense FFN 与 all-to-all combine 重叠。这种设计有效缓解了通信开销,确保了 LongCat-Flash 的高效推理。</p><p style=\"text-align: justify;\">对于第二个挑战 ——KV 缓存的读写和存储 ——LongCat-Flash 通过其注意力机制和 MTP 结构的架构创新来解决这些问题,以减少有效的 I/O 开销。</p><p style=\"text-align: justify;\"><strong>首先是推测解码加速</strong>。LongCat-Flash 将 MTP 作为草稿模型,通过系统分析推测解码的加速公式来优化三个关键因素:预期接受长度、草稿与目标模型的成本比以及目标验证与解码的成本比。通过集成单个 MTP 头并在预训练后期引入,实现了约 90% 的接受率。为了平衡草稿质量和速度,采用轻量级 MTP 架构减少参数,同时使用 C2T 方法通过分类模型过滤不太可能被接受的 token。</p><p style=\"text-align: justify;\"><strong>其次是 KV 缓存优化</strong>,通过 MLA 的 64 头注意力机制实现。MLA 在保持性能和效率平衡的同时,显著减少了计算负载并实现了出色的 KV 缓存压缩,降低了存储和带宽压力。这对于协调 LongCat-Flash 的流水线至关重要,因为模型始终具有无法与通信重叠的注意力计算。</p><p style=\"text-align: justify;\"><strong>系统级优化:让硬件「团队协作」</strong></p><p style=\"text-align: justify;\">为了最小化调度开销,LongCat-Flash 研究团队解决了 LLM 推理系统中由内核启动开销导致的 launch-bound 问题。特别是在引入推测解码后,验证内核和草稿前向传递的独立调度会产生显著开销。通过 TVD 融合策略,他们将目标前向、验证和草稿前向融合到单个 CUDA 图中。为进一步提高 GPU 利用率,他们实现了重叠调度器,并引入多步重叠调度器在单次调度迭代中启动多个前向步骤的内核,有效隐藏 CPU 调度和同步开销。</p><p style=\"text-align: justify;\">自定义内核优化针对 LLM 推理的自回归特性带来的独特效率挑战。预填充阶段是计算密集型的,而解码阶段由于流量模式产生的小而不规则的批次大小往往是受内存限制的。对于 MoE GEMM,他们采用 SwapAB 技术将权重视为左手<a href=\"https://laohu8.com/S/301365\">矩阵</a>、激活视为右手矩阵,利用 n 维度 8 元素粒度的灵活性最大化张量核心利用率。通信内核利用 NVLink Sharp 的硬件加速广播和 in-switch reduction 来最小化数据移动和 SM 占用率,仅使用 4 个线程块就在 4KB 到 96MB 消息大小范围内持续超越 NCCL 和 MSCCL++。</p><p style=\"text-align: justify;\">量化方面,LongCat-Flash 采用与 DeepSeek-V3 相同的细粒度块级量化方案。为实现最佳性能 - 准确率权衡,它基于两种方案实施了层级混合精度量化:第一种方案识别出某些线性层(特别是 Downproj)的输入激活具有达到 10^6 的极端幅度;第二种方案逐层计算块级 FP8 量化误差,发现特定专家层中存在显著量化误差。通过取两种方案的交集,实现了显著的准确率提升。</p><p style=\"text-align: justify;\"><strong>实战数据:能跑多快?多便宜?</strong></p><p style=\"text-align: justify;\">实测性能显示,LongCat-Flash 在不同设置下表现出色。与 DeepSeek-V3 相比,在相似的上下文长度下,LongCat-Flash 实现了<strong>更高的生成吞吐量和更快的生成速度</strong>。</p><p style=\"text-align: justify;\">在 Agent 应用中,考虑到推理内容(用户可见,需匹配人类阅读速度约 20 tokens/s)和动作命令(用户不可见但直接影响工具调用启动时间,需要最高速度)的差异化需求,LongCat-Flash 的近 <strong>100 tokens/s 生成速度</strong>将单轮工具调用延迟控制在<strong> 1 秒以内</strong>,显著提升了 Agent 应用的交互性。在 H800 GPU 每小时 2 美元的成本假设下,这意味着每百万输出 token 的价格为 0.7 美元。</p><p style=\"text-align: justify;\">理论性能分析表明,LongCat-Flash 的延迟主要由三个组件决定:MLA、all-to-all dispatch/combine 以及 MoE。在 EP=128、每卡 batch=96、MTP 接受率≈80% 等假设下,LongCat-Flash 的理论极限 TPOT 为 16ms,相比 DeepSeek-V3 的 30ms 和 Qwen3-235B-A22B 的 26.2ms 有显著优势。在 H800 GPU 每小时 2 美元的成本假设下,LongCat-Flash 输出成本为每百万 token 0.09 美元,远低于 DeepSeek-V3 的 0.17 美元。不过,这些数值仅为理论极限。</p><p style=\"text-align: justify;\">在 LongCat-Flash 的免费体验页面,我们也测试了一下。</p><p style=\"text-align: justify;\">我们首先让这个大模型写一篇关于秋天的文章,1000 字左右。</p><p style=\"text-align: justify;\">我们刚提出要求,刚点开录屏,LongCat-Flash 就把答案写出来了,录屏都没来得及第一时间关。</p><p style=\"text-align: justify;\">细细观察你会发现,LongCat-Flash 的首个 token 输出速度特别快。以往使用其他对话模型的时候,经常会遇到转圈圈等待,非常考验用户耐心,就像你着急看微信,结果手机信号显示「收取中」一样。LongCat-Flash 改变了这一步的体验,基本感觉不到首个 token 的延迟。</p><p style=\"text-align: justify;\">后续的 token 生成速度也很快,远远超出人眼的阅读速度。</p><p style=\"text-align: justify;\">接下来,我们打开「联网搜索」,看看 LongCat-Flash 这项能力够不够快。我们让 LongCat-Flash 推荐望京附近好吃的餐厅。</p><p style=\"text-align: justify;\">测试下来可以明显感受到,LongCat-Flash 并不是思考半天才慢悠悠地开口,而是几乎立刻就能给出答案。联网搜索给人的感受也是「快」。不仅如此,它在快速输出的同时还能附带引用来源,让信息的可信度与可追溯性都有保障。</p><p style=\"text-align: justify;\">有条件下载模型的读者可以在自己本地跑一下,看看 LongCat-Flash 的速度是否同样惊艳。</p><h2 id=\"id_422819142\">当大模型走进实用时代</h2><p style=\"text-align: justify;\">过去几年,每当出来一个大模型,大家都会关心:它的 benchmark 数据是多少?刷新了多少个榜单?是不是 SOTA?如今,情况已经发生了变化。在能力差不多的情况下,大家更关心:你这个模型用起来贵不贵?速度怎么样?在使用开源模型的企业和开发者中,这种情况尤其明显。因为很多用户用开源模型就是为了降低对闭源 API 的依赖和费用,所以对算力需求、推理速度、压缩量化效果更敏感。</p><p style=\"text-align: justify;\">美团开源的 LongCat-Flash 正是顺应这种趋势的代表作。他们把重点放在了怎么让大模型真正用得起、跑得快,这是一项技术普及的关键。</p><p style=\"text-align: justify;\">这种实用路线的选择和我们对美团一直以来的观感是一致的。过去,他们在技术上的绝大部分投入都用来解决真实业务痛点,比如 2022 年获 ICRA 最佳导航论文的 EDPLVO,其实就是为了解决无人机在配送途中遇到的各种意外情况(比如楼宇过密会失去信号);最近参与制订的全球无人机避障 ISO 标准,是无人机在飞行途中躲避风筝线、擦玻璃安全绳等案例的技术经验沉淀。而这次开源的 LongCat-Flash 其实是他们的 AI 编程类工具「NoCode」背后的模型,这个工具既服务于公司内部,也对外免费开放,就是希望大家能把 vibe coding 用起来,实现降本增效。</p><p style=\"text-align: justify;\">这种从性能竞赛向实用导向的转变,其实反映了 AI 行业发展的自然规律。当模型能力逐渐趋同时,工程效率和部署成本就成了关键差异化因素。LongCat-Flash 的开源只是这个趋势中的一个案例,但它确实为社区提供了一个可参考的技术路径:如何在保持模型质量的前提下,通过架构创新和系统优化来降低使用门槛。这对于那些预算有限但又希望用上先进 AI 能力的开发者和企业来说,无疑是有价值的。</p></body></html>","source":"lsy1571010847249","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>冲上热搜!美团大模型,靠“快”火了</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n冲上热搜!美团大模型,靠“快”火了\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-09-02 11:55 北京时间 <a href=https://mp.weixin.qq.com/s/InDGGdUmXs6H5KzpXhzyBg><strong>机器之心</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>国内外开发者:亲测,美团新开源的模型速度超快!当 AI 真的变得像水和电一样普及之后,模型强不强已经不是大家唯一关心的问题了。从年初的 Claude 3.7 Sonnet、Gemini 2.5 Flash 到最近的 GPT-5、DeepSeek V3.1,走在前面的模型厂商无一不在思考:在保证准确性的前提下,如何让 AI 既能以最少的算力去解决每一个问题,又能在最短的时间内给出回应?换句话说,就是...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/InDGGdUmXs6H5KzpXhzyBg\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/9149ee38be553ca11bd01b0a72f4964e","relate_stocks":{"03690":"美团-W","MPNGY":"美团ADR"},"source_url":"https://mp.weixin.qq.com/s/InDGGdUmXs6H5KzpXhzyBg","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1131993986","content_text":"国内外开发者:亲测,美团新开源的模型速度超快!当 AI 真的变得像水和电一样普及之后,模型强不强已经不是大家唯一关心的问题了。从年初的 Claude 3.7 Sonnet、Gemini 2.5 Flash 到最近的 GPT-5、DeepSeek V3.1,走在前面的模型厂商无一不在思考:在保证准确性的前提下,如何让 AI 既能以最少的算力去解决每一个问题,又能在最短的时间内给出回应?换句话说,就是如何做到既不浪费 token,也不浪费时间。对于在模型上构建应用的企业和开发者来说,这种从「单纯构建最强模型到构建更实用、更快速模型」的转变是个好消息。而且更加令人欣慰的是,与之相关的开源模型也逐渐多了起来。前几天,我们在 HuggingFace 上又发现了一个新模型 ——LongCat-Flash-Chat。这个模型来自美团的 LongCat-Flash 系列,官网可以直接使用(https://longcat.ai)。它天然知道「not all tokens are equal」,因此会根据重要性为重要 token 分配动态计算预算。这让它在仅激活少量参数的前提下,性能就能并肩当下领先的开源模型。LongCat-Flash 开源后登上热搜。同时,这个模型的速度也给大家留下了深刻印象 —— 在 H800 显卡上推理速度超过每秒 100 个 token。国内外开发者的实测都证实了这一点 —— 有人跑出了 95 tokens/s 的速度,有人在最短时间内得到了和 Claude 相媲美的答案。图源:知乎网友 @小小将。图源:X 网友 @SlavaMorozov。在开源模型的同时,美团也放出了 LongCat-Flash 的技术报告,我们可以在其中看到不少技术细节。技术报告:LongCat-Flash Technical Report报告链接:https://github.com/meituan-longcat/LongCat-Flash-Chat/blob/main/tech_report.pdfHugging Face: https://huggingface.co/meituan-longcat Github: https://github.com/meituan-longcat在这篇文章中,我们将详细介绍。大模型怎么省算力?看看 LongCat-Flash 的架构创新和训练方法LongCat-Flash 是一个混合专家模型,总参数量为 5600 亿,可以根据上下文需求激活 186 亿至 313 亿(平均 270 亿)个参数。用来训练该模型的数据量超过 20 万亿 token,但训练时间却只用了不到 30 天。而且在这段时间里,系统达到了 98.48% 的时间可用率,几乎不需要人工干预来处理故障 —— 这意味着整个训练过程基本是「无人干预」自动完成的。更让人印象深刻的是,这样训练出来的模型在实际部署时表现同样出色。如下图所示,作为一款非思考型模型,LongCat-Flash 达到了与 SOTA 非思考型模型相当的性能,包括 DeepSeek-V3.1 和 Kimi-K2,同时参数更少且推理速度更快。这让它在通用、编程、智能体工具使用等方向都颇具竞争力和实用性。此外,它的成本也很亮眼,仅为每百万输出 token 0.7 美元。这个价格相比市面上同等规模的模型来说,可以算是非常划算了。从技术上来说,LongCat-Flash 主要瞄准语言模型的两个目标:计算效率与智能体能力,并融合了架构创新与多阶段训练方法,从而实现可扩展且智能的模型体系。在模型架构方面,LongCat-Flash 采用了一种新颖的 MoE 架构(图 2),其亮点包含两方面:零计算专家(Zero-computation Experts);快捷连接 MoE(Shortcut-connected MoE,ScMoE)。零计算专家零计算专家的核心思想是并非所有 token 都是「平等」的。我们可以这样理解,在一个句子中,有些词是非常容易预测的,如「的」「是」,几乎不需要计算,而有些词如「人名」则需要大量计算才能准确预测。在以往的研究中,大家基本采用这种方式:即无论这个 token 是简单还是复杂,它都会激活固定数量(K)的专家,这造成了巨大的计算浪费。对于简单 token 来说,完全没必要调用那么多专家,而对于复杂 token,则可能又缺乏足够的计算分配。受此启发,LongCat-Flash 提出了一种动态计算资源分配机制:通过零计算专家,为每个 token 动态激活不同数量的 FFN(Feed-Forward Network) 专家,从而根据上下文的重要性更合理地分配计算量。具体而言,LongCat-Flash 在其专家池中,除了原有的 N 个标准 FFN 专家外,还扩展了 Z 个零计算专家。零计算专家仅将输入原样返回作为输出,因此不会引入额外的计算开销。LongCat-Flash 中的 MoE 模块可以形式化为:其中,x_t 为输入序列中的第 t 个 token,R 表示 softmax 路由器,b_i 表示第 i 个专家对应的偏置项,K 表示每个 token 所选中的专家数量。路由器会将每个 token 分配给 K 个专家,其中被激活的 FFN 专家数量会根据该 token 的上下文重要性而变化。通过这种自适应的分配机制,模型能够学习到对上下文更重要的 token 动态分配更多的计算资源,从而在相同的计算量条件下实现更优的性能,如图 3a 所示。另外,模型在处理输入时,需要学会根据不同 token 的重要性,来决定到底要不要花更多计算资源。如果不去控制零计算专家被选中的频率,模型可能会偏向于选择有计算的专家,忽视零计算专家的作用。从而造成计算资源效率低下。为了解决这一问题,美团改进了 aux-loss-free 策略中的专家偏置机制:引入专家特定的偏置项,该偏置能够根据最近的专家使用情况动态调整路由分数,同时又与语言模型的训练目标保持解耦。更新规则采用了控制理论中的 PID 控制器实时微调专家偏置。得益于此,模型在处理每个 token 时,仅需激活 186 亿至 313 亿(平均激活量稳定在约 270 亿)的参数量,从而实现资源优化配置。快捷连接 MoELongCat-Flash 另一个亮点是快捷连接 MoE 机制。一般而言,大规模 MoE 模型的效率在很大程度上受到通信开销的限制。在传统的执行范式中,专家并行会引入一种顺序化的工作流程,即必须先通过一次全局通信操作将 token 路由到其指定的专家,随后计算才能开始。这种先通信、再计算的顺序会带来额外的等待时间,尤其在大规模分布式训练中,通信延迟会显著增加,成为性能瓶颈。此前有研究者采用共享专家架构,试图通过将通信与单个专家的计算重叠来缓解问题,但其效率受到单个专家计算窗口过小的限制。美团通过引入 ScMoE 架构克服了这一限制,ScMoE 在层间引入了一条跨层快捷连接,这一关键创新使得:前一层稠密 FFN 的计算可以与当前 MoE 层的分发 / 聚合通信操作并行执行,相比共享专家架构,形成了一个更大规模的通信 - 计算重叠窗口。该架构设计在多项实验中得到了验证。首先,ScMoE 设计并不会降低模型质量。如图 4 所示,ScMoE 架构与未使用 ScMoE 的基线在训练损失曲线上的表现几乎完全一致,这证明了这种重新排序的执行方式并不会损害模型性能。这一结论在多种配置下均得到一致性验证。更重要的是,这些结果表明:ScMoE 的稳定性与性能优势,与注意力机制的具体选择是正交的(即无论使用哪种注意力机制,都能保持稳定与收益)。其次,ScMoE 架构为训练和推理提供了大量系统级效率提升。具体表现在:在大规模训练方面:扩展的重叠窗口使前序块的计算能够与 MoE 层中的分发和聚合通信阶段完全并行,这是通过沿 token 维度将操作分割为细粒度块实现的。在高效推理方面:ScMoE 支持单批次重叠 pipeline,相较 DeepSeek-V3 等领先模型,将理论每秒输出 token 时间(TPOT)降低近 50%。更重要的是,它允许不同通信模式的并发执行:稠密 FFN 上节点内的张量并行通信(通过 NVLink)可与节点间的专家并行通信(通过 RDMA)完全重叠,从而最大化总体网络利用率。总之,ScMoE 在不牺牲模型质量的情况下提供了大量的性能提升。模型扩展策略与多阶段训练美团还提出了一套高效的模型扩展策略,能够显著改善模型在规模增大时的性能表现。首先是超参数迁移,在训练超大规模模型时,直接尝试各种超参数配置非常昂贵且不稳定。于是美团先在较小的模型上进行实验,找到效果最好的超参数组合。然后,再把这些参数迁移到大模型上使用。从而节省了成本并保证了效果。迁移规则如表 1 所示:其次是模型增长(Model Growth)初始化,美团先从一个在数百亿 token 上预训练过的半规模模型出发,训练好之后保留检查点。在此基础上把模型扩展到完整规模,并继续训练。基于这种方式,模型表现出一条典型的损失曲线:损失先短暂上升,随后快速收敛,并最终显著优于随机初始化的基线。图 5b 展示 6B 激活参数实验中的一个代表性结果,体现了模型增长初始化的优势。第三点是多层次的稳定性套件,美团从路由器稳定性、激活稳定性和优化器稳定性三个方面增强了 LongCat-Flash 的训练稳定性。第四点是确定性计算,这种方法能够保证实验结果的完全可复现,并在训练过程中实现对静默数据损坏(Silent Data Corruption, SDC) 的检测。通过这些措施,LongCat-Flash 的训练过程始终保持高度稳定,且不会出现不可恢复的损失骤增(loss spike)。在保持训练稳定的基础上,美团还精心设计了训练 pipeline,使 LongCat-Flash 具备了高级智能体行为,该流程涵盖大规模预训练、面向推理与代码能力的中期训练,以及聚焦对话与工具使用的后训练。初始阶段,构建一个更适合于智能体后训练的基础模型,为此美团设计了一个两阶段的预训练数据融合策略来集中推理密集型领域的数据。训练中期,美团进一步增强模型的推理能力与代码能力;同时将上下文长度扩展至 128k,以满足智能体后训练的需求。最后,美团又进行了多阶段后训练。鉴于智能体领域高质量、高难度训练数据的稀缺,美团设计了一个多智能体合成框架:该框架从三个维度定义任务难度,即信息处理、工具集复杂性和用户交互,使用专门的控制器来生成需要迭代推理和环境交互的复杂任务。这种设计使其在执行需要调用工具、与环境交互的复杂任务时表现出色。跑起来又快又便宜LongCat-Flash 是怎么做到的?前面提到,LongCat-Flash 可以在 H800 显卡上以超过每秒 100 个 token 的速度进行推理,成本仅为每百万输出 token 0.7 美元,可以说跑起来又快又便宜。这是怎么做到的呢?首先,他们有一个与模型架构协同设计的并行推理架构;其次,他们还加入了量化和自定义内核等优化方法。专属优化:让模型「自己跑得顺」我们知道,要构建一个高效的推理系统,必须解决两个关键问题,一是计算与通信的协调,二是 KV 缓存的读写和存储。针对第一个挑战,现有的方法通常在三个常规粒度上利用并行性:算子级的重叠、专家级的重叠以及层级的重叠。LongCat-Flash 的 ScMoE 架构引入了第四个维度 —— 模块级的重叠。为此,团队设计了 SBO(Single Batch Overlap)调度策略以优化延迟和吞吐量。SBO 是一个四阶段的流水线执行方式,通过模块级重叠充分发挥了 LongCat-Flash 的潜力,如图 9 所示。SBO 与 TBO 的不同之处在于将通信开销隐藏在单个批次内。它在第一阶段执行 MLA 计算,为后续阶段提供输入;第二阶段将 Dense FFN 和 Attn 0(QKV 投影)与 all-to-all dispatch 通信重叠;第三阶段独立执行 MoE GEMM,其延迟受益于广泛的 EP 部署策略;第四阶段将 Attn 1(核心注意力和输出投影)及 Dense FFN 与 all-to-all combine 重叠。这种设计有效缓解了通信开销,确保了 LongCat-Flash 的高效推理。对于第二个挑战 ——KV 缓存的读写和存储 ——LongCat-Flash 通过其注意力机制和 MTP 结构的架构创新来解决这些问题,以减少有效的 I/O 开销。首先是推测解码加速。LongCat-Flash 将 MTP 作为草稿模型,通过系统分析推测解码的加速公式来优化三个关键因素:预期接受长度、草稿与目标模型的成本比以及目标验证与解码的成本比。通过集成单个 MTP 头并在预训练后期引入,实现了约 90% 的接受率。为了平衡草稿质量和速度,采用轻量级 MTP 架构减少参数,同时使用 C2T 方法通过分类模型过滤不太可能被接受的 token。其次是 KV 缓存优化,通过 MLA 的 64 头注意力机制实现。MLA 在保持性能和效率平衡的同时,显著减少了计算负载并实现了出色的 KV 缓存压缩,降低了存储和带宽压力。这对于协调 LongCat-Flash 的流水线至关重要,因为模型始终具有无法与通信重叠的注意力计算。系统级优化:让硬件「团队协作」为了最小化调度开销,LongCat-Flash 研究团队解决了 LLM 推理系统中由内核启动开销导致的 launch-bound 问题。特别是在引入推测解码后,验证内核和草稿前向传递的独立调度会产生显著开销。通过 TVD 融合策略,他们将目标前向、验证和草稿前向融合到单个 CUDA 图中。为进一步提高 GPU 利用率,他们实现了重叠调度器,并引入多步重叠调度器在单次调度迭代中启动多个前向步骤的内核,有效隐藏 CPU 调度和同步开销。自定义内核优化针对 LLM 推理的自回归特性带来的独特效率挑战。预填充阶段是计算密集型的,而解码阶段由于流量模式产生的小而不规则的批次大小往往是受内存限制的。对于 MoE GEMM,他们采用 SwapAB 技术将权重视为左手矩阵、激活视为右手矩阵,利用 n 维度 8 元素粒度的灵活性最大化张量核心利用率。通信内核利用 NVLink Sharp 的硬件加速广播和 in-switch reduction 来最小化数据移动和 SM 占用率,仅使用 4 个线程块就在 4KB 到 96MB 消息大小范围内持续超越 NCCL 和 MSCCL++。量化方面,LongCat-Flash 采用与 DeepSeek-V3 相同的细粒度块级量化方案。为实现最佳性能 - 准确率权衡,它基于两种方案实施了层级混合精度量化:第一种方案识别出某些线性层(特别是 Downproj)的输入激活具有达到 10^6 的极端幅度;第二种方案逐层计算块级 FP8 量化误差,发现特定专家层中存在显著量化误差。通过取两种方案的交集,实现了显著的准确率提升。实战数据:能跑多快?多便宜?实测性能显示,LongCat-Flash 在不同设置下表现出色。与 DeepSeek-V3 相比,在相似的上下文长度下,LongCat-Flash 实现了更高的生成吞吐量和更快的生成速度。在 Agent 应用中,考虑到推理内容(用户可见,需匹配人类阅读速度约 20 tokens/s)和动作命令(用户不可见但直接影响工具调用启动时间,需要最高速度)的差异化需求,LongCat-Flash 的近 100 tokens/s 生成速度将单轮工具调用延迟控制在 1 秒以内,显著提升了 Agent 应用的交互性。在 H800 GPU 每小时 2 美元的成本假设下,这意味着每百万输出 token 的价格为 0.7 美元。理论性能分析表明,LongCat-Flash 的延迟主要由三个组件决定:MLA、all-to-all dispatch/combine 以及 MoE。在 EP=128、每卡 batch=96、MTP 接受率≈80% 等假设下,LongCat-Flash 的理论极限 TPOT 为 16ms,相比 DeepSeek-V3 的 30ms 和 Qwen3-235B-A22B 的 26.2ms 有显著优势。在 H800 GPU 每小时 2 美元的成本假设下,LongCat-Flash 输出成本为每百万 token 0.09 美元,远低于 DeepSeek-V3 的 0.17 美元。不过,这些数值仅为理论极限。在 LongCat-Flash 的免费体验页面,我们也测试了一下。我们首先让这个大模型写一篇关于秋天的文章,1000 字左右。我们刚提出要求,刚点开录屏,LongCat-Flash 就把答案写出来了,录屏都没来得及第一时间关。细细观察你会发现,LongCat-Flash 的首个 token 输出速度特别快。以往使用其他对话模型的时候,经常会遇到转圈圈等待,非常考验用户耐心,就像你着急看微信,结果手机信号显示「收取中」一样。LongCat-Flash 改变了这一步的体验,基本感觉不到首个 token 的延迟。后续的 token 生成速度也很快,远远超出人眼的阅读速度。接下来,我们打开「联网搜索」,看看 LongCat-Flash 这项能力够不够快。我们让 LongCat-Flash 推荐望京附近好吃的餐厅。测试下来可以明显感受到,LongCat-Flash 并不是思考半天才慢悠悠地开口,而是几乎立刻就能给出答案。联网搜索给人的感受也是「快」。不仅如此,它在快速输出的同时还能附带引用来源,让信息的可信度与可追溯性都有保障。有条件下载模型的读者可以在自己本地跑一下,看看 LongCat-Flash 的速度是否同样惊艳。当大模型走进实用时代过去几年,每当出来一个大模型,大家都会关心:它的 benchmark 数据是多少?刷新了多少个榜单?是不是 SOTA?如今,情况已经发生了变化。在能力差不多的情况下,大家更关心:你这个模型用起来贵不贵?速度怎么样?在使用开源模型的企业和开发者中,这种情况尤其明显。因为很多用户用开源模型就是为了降低对闭源 API 的依赖和费用,所以对算力需求、推理速度、压缩量化效果更敏感。美团开源的 LongCat-Flash 正是顺应这种趋势的代表作。他们把重点放在了怎么让大模型真正用得起、跑得快,这是一项技术普及的关键。这种实用路线的选择和我们对美团一直以来的观感是一致的。过去,他们在技术上的绝大部分投入都用来解决真实业务痛点,比如 2022 年获 ICRA 最佳导航论文的 EDPLVO,其实就是为了解决无人机在配送途中遇到的各种意外情况(比如楼宇过密会失去信号);最近参与制订的全球无人机避障 ISO 标准,是无人机在飞行途中躲避风筝线、擦玻璃安全绳等案例的技术经验沉淀。而这次开源的 LongCat-Flash 其实是他们的 AI 编程类工具「NoCode」背后的模型,这个工具既服务于公司内部,也对外免费开放,就是希望大家能把 vibe coding 用起来,实现降本增效。这种从性能竞赛向实用导向的转变,其实反映了 AI 行业发展的自然规律。当模型能力逐渐趋同时,工程效率和部署成本就成了关键差异化因素。LongCat-Flash 的开源只是这个趋势中的一个案例,但它确实为社区提供了一个可参考的技术路径:如何在保持模型质量的前提下,通过架构创新和系统优化来降低使用门槛。这对于那些预算有限但又希望用上先进 AI 能力的开发者和企业来说,无疑是有价值的。","news_type":1,"symbols_score_info":{"03690":1,"METmain":1,"MPNGY":1}},"isVote":1,"tweetType":1,"viewCount":24,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":473904592597448,"gmtCreate":1756730995538,"gmtModify":1756731956799,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/BABA\">$阿里巴巴(BABA)$ </a><v-v data-views=\"1\"></v-v> 阿里会起飞","listText":"<a href=\"https://laohu8.com/S/BABA\">$阿里巴巴(BABA)$ </a><v-v data-views=\"1\"></v-v> 阿里会起飞","text":"$阿里巴巴(BABA)$ 阿里会起飞","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/473904592597448","isVote":1,"tweetType":1,"viewCount":44,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":473751409541184,"gmtCreate":1756693722307,"gmtModify":1756694230004,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"别瞎带节奏了!人家业绩好就是好,你看好美团,大家最讨厌美团。","listText":"别瞎带节奏了!人家业绩好就是好,你看好美团,大家最讨厌美团。","text":"别瞎带节奏了!人家业绩好就是好,你看好美团,大家最讨厌美团。","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/473751409541184","repostId":"2564612998","repostType":2,"repost":{"id":"2564612998","kind":"news","pubTimestamp":1756691520,"share":"https://www.laohu8.com/m/news/2564612998?lang=&edition=full","pubTime":"2025-09-01 09:52","market":"us","language":"zh","title":"阿里财报反常识:阿里云ai收益主要卖给自己 gmv不涨crm涨懂的都懂","url":"https://stock-news.laohu8.com/highlight/detail?id=2564612998","media":"市场资讯","summary":"来源:77和她的韭菜朋友们阿里就算涨了又如何?我刚早上看了下阿里财报,我发现有几个很奇怪的地方,就是阿里的gmv没有怎么长,但是crm收入同比增长了10%,这说明什么?然后我又问它阿里云ai收益的增长主要是什么,买方是谁?它告诉我是公共云业务带来的,主要买方是阿里自己(配图2)我觉得你们可以把阿里财报下载下来,一共25页,你自己找到反常识的部分,问问ai!","content":"<html><body><article><p>来源:77和她的韭菜朋友们</p><p>原标题:<a href=\"https://laohu8.com/S/BABA\">阿里</a>就算涨了又如何?</p><p>昨天直播间有一个人七十多持仓的<a href=\"https://laohu8.com/S/09988\">阿里</a>,现在阿里一百多,然后得意洋洋的跑来喷我,说我对阿里财报解读不深刻,我就纳闷了,我什么时候解读过阿里财报了?</p><p>我回应他说我就是不喜欢这家公司,我不看他们的财报,我有钱没钱都不买阿里,包括<a href=\"https://laohu8.com/S/JD\">京东</a>也是,我不喜欢刘强东,我实际接触的京东的两个男的,风格和刘强东也类似,所以我不看他们的股票有什么问题吗?</p><p>我刚早上看了下阿里财报,我发现有几个很奇怪的地方,就是阿里的gmv没有怎么长,但是crm收入同比增长了10%,这说明什么?结合我上篇分享的我们分群里一个电商运营分享的做淘宝电商的感悟,再结合年初一个阿里高管想让我回阿里打工时透露的信息,蒋凡的战略是保大卖家,保核心品类的头部卖家,保供应链优势的卖家等,说明这些增长来自于商家对于阿里新的ai投放工具的积极尝试和投入,而ai优化了阿里商业化流量的变现效率,但是炮灰是谁?懂得都懂!</p><p>其次是经调整净利同比下降18%至335.1亿元,但<span>净利润</span>同比大增76%至423.82亿元???</p><p>阿里的财报我是用<a href=\"https://laohu8.com/S/XIACY\">小米</a>内置的一个阅读工具看的,我可以一边看,一边问,它能快速提炼信息整理问题答案给我,我就问了它为啥会有这种反差,然后它告诉我的答案就是封面配图1那个!</p><p>也就是净利润涨这么夸张,是因为处理了投资的Trendyol的股权收益,以及把本地生活业务的收益并入了阿里。</p><p>也就是说阿里电商主站并没有变好!!!</p><p>然后我又问它阿里云ai收益的增长主要是什么,买方是谁?</p><p>它告诉我是公共云业务带来的,主要买方是阿里自己(配图2)</p><p>我觉得你们可以把阿里财报下载下来,一共25页,你自己找到反常识的部分,问问ai!</p><p>涨不代表实际价值,<a href=\"https://laohu8.com/S/BIDU\">百度</a>这么多年为什么风口都参与了,但是起不来,因为它一直被股价绑架决策。</p><p>我还是更看好王兴这种更务实的管理风格,上次他们的财报电话会,他都说ai投资短期难以见成效这种实在话的人。</p><p>所以的价格最终都要回归价值不是吗,高中就学的,你们忘了?</p><p>只是对于阿里来说如果能在本地生活和即时零售构建壁垒,就不是查理芒格骂的只是没壁垒的零售商了,为此阿里拼了命也会去拿市场份额!</p><p>所以很长一段时间内,<a href=\"https://laohu8.com/S/MPNGY\">美团</a>面对账面资金比较雄厚的阿里,日子会很难!</p><p>但如果<a href=\"https://laohu8.com/S/03690\">美团</a>赢了呢?这个壁垒将更加牢固,无法再撼动,那时的美团就是真的值钱了!</p><img src=\"https://fid-75186.picgzc.qpic.cn/20250901095301066d201vrk6gnhq9rb\"/><img src=\"https://fid-75186.picgzc.qpic.cn/20250901095305091d201rpvr2pzujdn\"/><img src=\"https://fid-75186.picgzc.qpic.cn/20250901095317537d201ly77h7i6ja2\"/><p>责任编辑:郝欣煜</p></article></body></html>","source":"tencent","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>阿里财报反常识:阿里云ai收益主要卖给自己 gmv不涨crm涨懂的都懂</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n阿里财报反常识:阿里云ai收益主要卖给自己 gmv不涨crm涨懂的都懂\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-09-01 09:52 北京时间 <a href=http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250901095317a4ac2c15&s=b><strong>市场资讯</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>来源:77和她的韭菜朋友们原标题:阿里就算涨了又如何?昨天直播间有一个人七十多持仓的阿里,现在阿里一百多,然后得意洋洋的跑来喷我,说我对阿里财报解读不深刻,我就纳闷了,我什么时候解读过阿里财报了?我回应他说我就是不喜欢这家公司,我不看他们的财报,我有钱没钱都不买阿里,包括京东也是,我不喜欢刘强东,我实际接触的京东的两个男的,风格和刘强东也类似,所以我不看他们的股票有什么问题吗?我刚早上看了下阿里...</p>\n\n<a href=\"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250901095317a4ac2c15&s=b\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"","relate_stocks":{"89888":"百度集团-SWR","09988":"阿里巴巴-W","03690":"美团-W","BABA":"阿里巴巴","MPNGY":"美团ADR","09618":"京东集团-SW"},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250901095317a4ac2c15&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/9a95c1376e76363c1401fee7d3717173","article_id":"2564612998","content_text":"来源:77和她的韭菜朋友们原标题:阿里就算涨了又如何?昨天直播间有一个人七十多持仓的阿里,现在阿里一百多,然后得意洋洋的跑来喷我,说我对阿里财报解读不深刻,我就纳闷了,我什么时候解读过阿里财报了?我回应他说我就是不喜欢这家公司,我不看他们的财报,我有钱没钱都不买阿里,包括京东也是,我不喜欢刘强东,我实际接触的京东的两个男的,风格和刘强东也类似,所以我不看他们的股票有什么问题吗?我刚早上看了下阿里财报,我发现有几个很奇怪的地方,就是阿里的gmv没有怎么长,但是crm收入同比增长了10%,这说明什么?结合我上篇分享的我们分群里一个电商运营分享的做淘宝电商的感悟,再结合年初一个阿里高管想让我回阿里打工时透露的信息,蒋凡的战略是保大卖家,保核心品类的头部卖家,保供应链优势的卖家等,说明这些增长来自于商家对于阿里新的ai投放工具的积极尝试和投入,而ai优化了阿里商业化流量的变现效率,但是炮灰是谁?懂得都懂!其次是经调整净利同比下降18%至335.1亿元,但净利润同比大增76%至423.82亿元???阿里的财报我是用小米内置的一个阅读工具看的,我可以一边看,一边问,它能快速提炼信息整理问题答案给我,我就问了它为啥会有这种反差,然后它告诉我的答案就是封面配图1那个!也就是净利润涨这么夸张,是因为处理了投资的Trendyol的股权收益,以及把本地生活业务的收益并入了阿里。也就是说阿里电商主站并没有变好!!!然后我又问它阿里云ai收益的增长主要是什么,买方是谁?它告诉我是公共云业务带来的,主要买方是阿里自己(配图2)我觉得你们可以把阿里财报下载下来,一共25页,你自己找到反常识的部分,问问ai!涨不代表实际价值,百度这么多年为什么风口都参与了,但是起不来,因为它一直被股价绑架决策。我还是更看好王兴这种更务实的管理风格,上次他们的财报电话会,他都说ai投资短期难以见成效这种实在话的人。所以的价格最终都要回归价值不是吗,高中就学的,你们忘了?只是对于阿里来说如果能在本地生活和即时零售构建壁垒,就不是查理芒格骂的只是没壁垒的零售商了,为此阿里拼了命也会去拿市场份额!所以很长一段时间内,美团面对账面资金比较雄厚的阿里,日子会很难!但如果美团赢了呢?这个壁垒将更加牢固,无法再撼动,那时的美团就是真的值钱了!责任编辑:郝欣煜","news_type":1,"symbols_score_info":{"89888":0.9,"03690":0.9,"09618":0.9,"09988":0.9,"BABA":1,"MPNGY":0.9}},"isVote":1,"tweetType":1,"viewCount":359,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":439458749554848,"gmtCreate":1748308092517,"gmtModify":1748308969619,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/03690\">$美团-W(03690)$ </a> 让美团掉到五千亿,感受一下压力!这家公司太能压榨","listText":"<a href=\"https://laohu8.com/S/03690\">$美团-W(03690)$ </a> 让美团掉到五千亿,感受一下压力!这家公司太能压榨","text":"$美团-W(03690)$ 让美团掉到五千亿,感受一下压力!这家公司太能压榨","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":4,"repostSize":0,"link":"https://laohu8.com/post/439458749554848","isVote":1,"tweetType":1,"viewCount":2303,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3499255624778112","authorId":"3499255624778112","name":"控盘小韭菜","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"idStr":"3499255624778112","authorIdStr":"3499255624778112"},"content":"捡钱了,加杠杆做空,这波直奔30去了[开心][开心]","text":"捡钱了,加杠杆做空,这波直奔30去了[开心][开心]","html":"捡钱了,加杠杆做空,这波直奔30去了[开心][开心]"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":409586902700688,"gmtCreate":1741006828272,"gmtModify":1741007280153,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"夸克太好用了!超过所有产品","listText":"夸克太好用了!超过所有产品","text":"夸克太好用了!超过所有产品","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":2,"repostSize":0,"link":"https://laohu8.com/post/409586902700688","repostId":"1162360192","repostType":2,"repost":{"id":"1162360192","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1741004302,"share":"https://www.laohu8.com/m/news/1162360192?lang=&edition=full","pubTime":"2025-03-03 20:18","market":"us","language":"zh","title":"盘前 | 特斯拉涨逾3%,英特尔获重大利好,理想汽车大跌超8%","url":"https://stock-news.laohu8.com/highlight/detail?id=1162360192","media":"老虎资讯综合","summary":"美股三大指数期货在盘前时段集体上涨。","content":"<html><head></head><body><p>3月3日周一,美股三大指数期货在盘前时段集体上涨。本周海外大事密集,特朗普将在美国国会演讲、主持白宫加密货币峰会;美国将发布2月非农就业报告;加墨关税实施;欧央行公布利率决议;鲍威尔等美联储官员讲话;美联储发布经济状况褐皮书。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/668f5f02536acde9269b45cf389b2115\" title=\"\" tg-width=\"740\" tg-height=\"240\"/></p><h3 id=\"id_2226404005\">个股盘前表现</h3><p><strong>特斯拉涨超3%。马斯克表示,<a href=\"https://laohu8.com/S/TSLA\" title=\"特斯拉\" class=\"\">特斯拉</a>在5年内实现1000%的利润增长是可能的。同时,摩根士丹利重新将特斯拉列为美国汽车板块首选股。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cd0d9e50c63d1e5967fda6993d3c2445\" title=\"\" tg-width=\"450\" tg-height=\"124\"/></p><p>英特尔涨逾5%。两位知情人士透露,英伟达和博通正在采用英特尔的18A工艺进行生产测试,显示出对后者先进生产技术的初步信心。测试表明,这些公司正越来越接近决定是否将价值数亿美元的制造合同交给英特尔。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e59bfa74f7b65f48cee794c95ab053d1\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>大型科技股涨跌不一。截至发稿,亚马逊涨0.94%,谷歌涨0.9%,Meta涨0.87%,英伟达跌0.2%,苹果跌0.11%。</p><p>加密货币概念股普涨。截至发稿,Strategy大涨13%,CleanSpark涨超11%,MARA涨超10%,Riot涨9.9%,Coinbase涨9.35%。3月3日,<strong>特朗普周日在社交媒体上发文称,美国将创建一项加密货币战略储备,其中将包括比特币、以太坊,以及瑞波币、Solana和艾达币。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9c7d4b629ccd438cfbd491c2a15b3ce7\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p><p>奢侈品集团Capri涨超7%。据彭博引述消息人士称,欧洲奢侈品集团普拉达(Prada)正接近与Capri达成洽购意大利名牌Versace的协议,涉及金额为15亿欧元(约合16亿美元)。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/06a0d34a43cff7b161af938856bb9e39\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>雷神技术公司涨1.79%,开盘有望再创历史新高。雷神技术此前公布的第四季度业绩,销售额216.2亿美元,同比增长8.5%,超分析师预期。公司预测2025年调整后销售额在830亿至840亿美元之间。</p><p>能源公司Sunnova Energy暴跌51%,公司称现金流面临枯竭,未来继续经营存疑。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6966b150fe37c57aac0bc8e236726b29\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>阿里巴巴涨1.44%。开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已反超DeepSeek-R1,登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4128b552b7539002b69325693c81620d\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>大健云仓涨超4%。公司将于美东时间03月03日盘后发布财报。有机构预期大健云仓2024Q4预计实现营收2.88亿美元,同比增加17.81%。</p><p>房多多涨超1%。中指研究院发布报告,TOP100房企销售额1—2月同比降幅收窄10.6个百分点,2月销售额同比增长17.3%,百亿以上销售额企业12家。</p><p>理想汽车大跌超8%,2月销量环比下滑超12%,昔日“新势力销冠”的位子也拱手出让,位居第二。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd8a508d61271ac2ade7b8e3675db6d\" title=\"\" tg-width=\"450\" tg-height=\"131\"/></p><p>同时,小鹏汽车跌超5%,蔚来跌超3%。</p><p>新东方跌2.6%。新东方董事长俞敏洪称现在为止新东方都没找到接班人。</p><h3 id=\"id_273697872\">大宗商品走势</h3><p>国际油价自日内低点回升。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/02414196f88fb0f60e86599b0da02e11\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p>国际金价涨逾1%。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/63866ab87795b97245a7d33808954e4c\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>盘前 | 特斯拉涨逾3%,英特尔获重大利好,理想汽车大跌超8%</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n盘前 | 特斯拉涨逾3%,英特尔获重大利好,理想汽车大跌超8%\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2025-03-03 20:18</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>3月3日周一,美股三大指数期货在盘前时段集体上涨。本周海外大事密集,特朗普将在美国国会演讲、主持白宫加密货币峰会;美国将发布2月非农就业报告;加墨关税实施;欧央行公布利率决议;鲍威尔等美联储官员讲话;美联储发布经济状况褐皮书。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/668f5f02536acde9269b45cf389b2115\" title=\"\" tg-width=\"740\" tg-height=\"240\"/></p><h3 id=\"id_2226404005\">个股盘前表现</h3><p><strong>特斯拉涨超3%。马斯克表示,<a href=\"https://laohu8.com/S/TSLA\" title=\"特斯拉\" class=\"\">特斯拉</a>在5年内实现1000%的利润增长是可能的。同时,摩根士丹利重新将特斯拉列为美国汽车板块首选股。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cd0d9e50c63d1e5967fda6993d3c2445\" title=\"\" tg-width=\"450\" tg-height=\"124\"/></p><p>英特尔涨逾5%。两位知情人士透露,英伟达和博通正在采用英特尔的18A工艺进行生产测试,显示出对后者先进生产技术的初步信心。测试表明,这些公司正越来越接近决定是否将价值数亿美元的制造合同交给英特尔。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e59bfa74f7b65f48cee794c95ab053d1\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>大型科技股涨跌不一。截至发稿,亚马逊涨0.94%,谷歌涨0.9%,Meta涨0.87%,英伟达跌0.2%,苹果跌0.11%。</p><p>加密货币概念股普涨。截至发稿,Strategy大涨13%,CleanSpark涨超11%,MARA涨超10%,Riot涨9.9%,Coinbase涨9.35%。3月3日,<strong>特朗普周日在社交媒体上发文称,美国将创建一项加密货币战略储备,其中将包括比特币、以太坊,以及瑞波币、Solana和艾达币。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9c7d4b629ccd438cfbd491c2a15b3ce7\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p><p>奢侈品集团Capri涨超7%。据彭博引述消息人士称,欧洲奢侈品集团普拉达(Prada)正接近与Capri达成洽购意大利名牌Versace的协议,涉及金额为15亿欧元(约合16亿美元)。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/06a0d34a43cff7b161af938856bb9e39\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>雷神技术公司涨1.79%,开盘有望再创历史新高。雷神技术此前公布的第四季度业绩,销售额216.2亿美元,同比增长8.5%,超分析师预期。公司预测2025年调整后销售额在830亿至840亿美元之间。</p><p>能源公司Sunnova Energy暴跌51%,公司称现金流面临枯竭,未来继续经营存疑。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6966b150fe37c57aac0bc8e236726b29\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>阿里巴巴涨1.44%。开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已反超DeepSeek-R1,登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4128b552b7539002b69325693c81620d\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>大健云仓涨超4%。公司将于美东时间03月03日盘后发布财报。有机构预期大健云仓2024Q4预计实现营收2.88亿美元,同比增加17.81%。</p><p>房多多涨超1%。中指研究院发布报告,TOP100房企销售额1—2月同比降幅收窄10.6个百分点,2月销售额同比增长17.3%,百亿以上销售额企业12家。</p><p>理想汽车大跌超8%,2月销量环比下滑超12%,昔日“新势力销冠”的位子也拱手出让,位居第二。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd8a508d61271ac2ade7b8e3675db6d\" title=\"\" tg-width=\"450\" tg-height=\"131\"/></p><p>同时,小鹏汽车跌超5%,蔚来跌超3%。</p><p>新东方跌2.6%。新东方董事长俞敏洪称现在为止新东方都没找到接班人。</p><h3 id=\"id_273697872\">大宗商品走势</h3><p>国际油价自日内低点回升。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/02414196f88fb0f60e86599b0da02e11\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p>国际金价涨逾1%。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/63866ab87795b97245a7d33808954e4c\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/ed4ee39e6b0f45214393093d70ba81a8","relate_stocks":{"TSLA":"特斯拉","INTC":"英特尔","BABA":"阿里巴巴"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1162360192","content_text":"3月3日周一,美股三大指数期货在盘前时段集体上涨。本周海外大事密集,特朗普将在美国国会演讲、主持白宫加密货币峰会;美国将发布2月非农就业报告;加墨关税实施;欧央行公布利率决议;鲍威尔等美联储官员讲话;美联储发布经济状况褐皮书。个股盘前表现特斯拉涨超3%。马斯克表示,特斯拉在5年内实现1000%的利润增长是可能的。同时,摩根士丹利重新将特斯拉列为美国汽车板块首选股。英特尔涨逾5%。两位知情人士透露,英伟达和博通正在采用英特尔的18A工艺进行生产测试,显示出对后者先进生产技术的初步信心。测试表明,这些公司正越来越接近决定是否将价值数亿美元的制造合同交给英特尔。大型科技股涨跌不一。截至发稿,亚马逊涨0.94%,谷歌涨0.9%,Meta涨0.87%,英伟达跌0.2%,苹果跌0.11%。加密货币概念股普涨。截至发稿,Strategy大涨13%,CleanSpark涨超11%,MARA涨超10%,Riot涨9.9%,Coinbase涨9.35%。3月3日,特朗普周日在社交媒体上发文称,美国将创建一项加密货币战略储备,其中将包括比特币、以太坊,以及瑞波币、Solana和艾达币。奢侈品集团Capri涨超7%。据彭博引述消息人士称,欧洲奢侈品集团普拉达(Prada)正接近与Capri达成洽购意大利名牌Versace的协议,涉及金额为15亿欧元(约合16亿美元)。雷神技术公司涨1.79%,开盘有望再创历史新高。雷神技术此前公布的第四季度业绩,销售额216.2亿美元,同比增长8.5%,超分析师预期。公司预测2025年调整后销售额在830亿至840亿美元之间。能源公司Sunnova Energy暴跌51%,公司称现金流面临枯竭,未来继续经营存疑。阿里巴巴涨1.44%。开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已反超DeepSeek-R1,登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。大健云仓涨超4%。公司将于美东时间03月03日盘后发布财报。有机构预期大健云仓2024Q4预计实现营收2.88亿美元,同比增加17.81%。房多多涨超1%。中指研究院发布报告,TOP100房企销售额1—2月同比降幅收窄10.6个百分点,2月销售额同比增长17.3%,百亿以上销售额企业12家。理想汽车大跌超8%,2月销量环比下滑超12%,昔日“新势力销冠”的位子也拱手出让,位居第二。同时,小鹏汽车跌超5%,蔚来跌超3%。新东方跌2.6%。新东方董事长俞敏洪称现在为止新东方都没找到接班人。大宗商品走势国际油价自日内低点回升。国际金价涨逾1%。","news_type":1,"symbols_score_info":{"BABA":1.1,"INTC":1.1,"TSLA":1.1}},"isVote":1,"tweetType":1,"viewCount":2596,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"hots":[{"id":439458749554848,"gmtCreate":1748308092517,"gmtModify":1748308969619,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/03690\">$美团-W(03690)$ </a> 让美团掉到五千亿,感受一下压力!这家公司太能压榨","listText":"<a href=\"https://laohu8.com/S/03690\">$美团-W(03690)$ </a> 让美团掉到五千亿,感受一下压力!这家公司太能压榨","text":"$美团-W(03690)$ 让美团掉到五千亿,感受一下压力!这家公司太能压榨","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":4,"repostSize":0,"link":"https://laohu8.com/post/439458749554848","isVote":1,"tweetType":1,"viewCount":2303,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3499255624778112","authorId":"3499255624778112","name":"控盘小韭菜","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"idStr":"3499255624778112","authorIdStr":"3499255624778112"},"content":"捡钱了,加杠杆做空,这波直奔30去了[开心][开心]","text":"捡钱了,加杠杆做空,这波直奔30去了[开心][开心]","html":"捡钱了,加杠杆做空,这波直奔30去了[开心][开心]"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":474127802564816,"gmtCreate":1756785928878,"gmtModify":1756785930545,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"别搞笑了!","listText":"别搞笑了!","text":"别搞笑了!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/474127802564816","repostId":"1131993986","repostType":2,"repost":{"id":"1131993986","kind":"news","pubTimestamp":1756785335,"share":"https://www.laohu8.com/m/news/1131993986?lang=&edition=full","pubTime":"2025-09-02 11:55","market":"hk","language":"zh","title":"冲上热搜!美团大模型,靠“快”火了","url":"https://stock-news.laohu8.com/highlight/detail?id=1131993986","media":"机器之心","summary":"LongCat-Flash 开源后登上热搜。大模型怎么省算力?用来训练该模型的数据量超过 20 万亿 token,但训练时间却只用了不到 30 天。这个价格相比市面上同等规模的模型来说,可以算是非常划算了。从技术上来说,LongCat-Flash 主要瞄准语言模型的两个目标:计算效率与智能体能力,并融合了架构创新与多阶段训练方法,从而实现可扩展且智能的模型体系。一般而言,大规模 MoE 模型的效率在很大程度上受到通信开销的限制。","content":"<html><head></head><body><blockquote><p>国内外开发者:亲测,美团<a href=\"https://laohu8.com/S/300109\">新开源</a>的模型速度超快!</p></blockquote><p style=\"text-align: justify;\">当 AI 真的变得像水和电一样普及之后,模型强不强已经不是大家唯一关心的问题了。</p><p style=\"text-align: justify;\">从年初的 Claude 3.7 Sonnet、Gemini 2.5 Flash 到最近的 GPT-5、DeepSeek V3.1,走在前面的模型厂商无一不在思考:在保证准确性的前提下,如何让 AI 既能以最少的算力去解决每一个问题,又能在最短的时间内给出回应?换句话说,就是如何做到既不浪费 token,也不浪费时间。</p><p style=\"text-align: justify;\">对于在模型上构建应用的企业和开发者来说,这种从「单纯构建最强模型到构建更实用、更快速模型」的转变是个好消息。而且更加令人欣慰的是,与之相关的开源模型也逐渐多了起来。</p><p style=\"text-align: justify;\">前几天,我们在 HuggingFace 上又发现了一个新模型 ——<strong>LongCat-Flash-Chat</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f0c537fe27974360d056a4f30f4c6416\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1300\"/></p><p style=\"text-align: justify;\">这个模型来自<strong><a href=\"https://laohu8.com/S/MPNGY\">美团</a>的 LongCat-Flash 系列,官网可以直接使用</strong>(https://longcat.ai)。</p><p style=\"text-align: justify;\">它天然知道「not all tokens are equal」,因此会根据重要性为重要 token 分配动态计算预算。这让它在仅激活少量参数的前提下,性能就能并肩当下领先的开源模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bb53956e76d99e9a6c4baf6cb563c3ab\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"203\"/></p><p style=\"text-align: justify;\"><em>LongCat-Flash 开源后登上热搜。</em></p><p style=\"text-align: justify;\">同时,这个模型的速度也给大家留下了深刻印象 —— 在 H800 显卡上推理速度<strong>超过每秒 100 个 token</strong>。国内外开发者的实测都证实了这一点 —— 有人跑出了 95 tokens/s 的速度,有人在最短时间内得到了和 Claude 相媲美的答案。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/afdb322f2c8a8f39f94f13a63ae0398f\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1121\"/></p><p style=\"text-align: justify;\"><em>图源:<a href=\"https://laohu8.com/S/ZH\">知乎</a>网友 @小小将。</em></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4feca0a7e7e5ce195f30470e8172e093\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1102\"/></p><p style=\"text-align: justify;\"><em>图源:X 网友 @SlavaMorozov。</em></p><p style=\"text-align: justify;\">在开源模型的同时,<a href=\"https://laohu8.com/S/03690\">美团</a>也放出了 LongCat-Flash 的技术报告,我们可以在其中看到不少技术细节。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/815e405ea926c3e0680ef2e2b76ef7fd\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"888\"/></p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: left;\">技术报告:LongCat-Flash Technical Report</p></li><li><p style=\"text-align: left;\">报告链接:https://github.com/meituan-longcat/LongCat-Flash-Chat/blob/main/tech_report.pdf</p></li><li><p style=\"text-align: left;\">Hugging Face: https://huggingface.co/meituan-longcat </p></li><li><p style=\"text-align: left;\">Github: https://github.com/meituan-longcat</p></li></ul><p style=\"text-align: justify;\">在这篇文章中,我们将详细介绍。</p><h2 id=\"id_1126824011\">大模型怎么省算力?</h2><h2 id=\"id_1517558641\">看看 LongCat-Flash 的架构创新和训练方法</h2><p style=\"text-align: justify;\">LongCat-Flash 是一个<strong>混合专家模型</strong>,总参数量为 <strong>5600 亿</strong>,可以根据上下文需求<strong>激活 186 亿至 313 亿(平均 270 亿)个参数</strong>。</p><p style=\"text-align: justify;\">用来训练该模型的数据量超过 20 万亿 token,但训练时间却只用了<strong>不到 30 天</strong>。而且在这段时间里,系统达到了 <strong>98.48% 的时间可用率</strong>,几乎不需要人工干预来处理故障 —— 这意味着整个训练过程基本是「无人干预」自动完成的。</p><p style=\"text-align: justify;\">更让人印象深刻的是,这样训练出来的模型在实际部署时表现同样出色。</p><p style=\"text-align: justify;\">如下图所示,作为一款<strong>非思考型模型</strong>,LongCat-Flash 达到了<strong>与 SOTA 非思考型模型相当的性能</strong>,包括 DeepSeek-V3.1 和 Kimi-K2,同时参数更少且推理速度更快。这让它在通用、编程、智能体工具使用等方向都颇具竞争力和实用性。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f29fa82cc873e46b06021ed29f49d862\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"689\"/></p><p style=\"text-align: justify;\">此外,它的成本也很亮眼,仅为<strong>每百万输出 token 0.7 美元</strong>。这个价格相比市面上同等规模的模型来说,可以算是非常划算了。</p><p style=\"text-align: justify;\">从技术上来说,LongCat-Flash 主要瞄准语言模型的两个目标:<strong>计算效率与智能体能力</strong>,并融合了架构创新与多阶段训练方法,从而实现可扩展且智能的模型体系。</p><p style=\"text-align: justify;\">在模型架构方面,LongCat-Flash 采用了一种新颖的 MoE 架构(图 2),其亮点包含两方面:</p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: left;\"><strong>零计算专家(Zero-computation Experts);</strong></p></li><li><p style=\"text-align: left;\"><strong>快捷连接 MoE(Shortcut-connected MoE,ScMoE</strong>)。</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bba0004e8e3e48da8c161a4aa9f1ef64\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"600\"/></p><p style=\"text-align: justify;\"><strong>零计算专家</strong></p><p style=\"text-align: justify;\">零计算专家的核心思想是并非所有 token 都是「平等」的。</p><p style=\"text-align: justify;\">我们可以这样理解,在一个句子中,有些词是非常容易预测的,如「的」「是」,几乎不需要计算,而有些词如「人名」则需要大量计算才能准确预测。</p><p style=\"text-align: justify;\">在以往的研究中,大家基本采用这种方式:即无论这个 token 是简单还是复杂,它都会激活固定数量(<a href=\"https://laohu8.com/S/TKKD.SI\">K</a>)的专家,这造成了巨大的计算浪费。对于简单 token 来说,完全没必要调用那么多专家,而对于复杂 token,则可能又缺乏足够的计算分配。</p><p style=\"text-align: justify;\">受此启发,LongCat-Flash 提出了一种动态计算资源分配机制:通过零计算专家,为每个 token 动态激活不同数量的 FFN(Feed-Forward Network) 专家,从而根据上下文的重要性更合理地分配计算量。</p><p style=\"text-align: justify;\">具体而言,LongCat-Flash 在其专家池中,除了原有的 N 个标准 FFN 专家外,还扩展了 Z 个零计算专家。零计算专家仅将输入原样返回作为输出,因此不会引入额外的计算开销。</p><p style=\"text-align: justify;\">LongCat-Flash 中的 MoE 模块可以形式化为:</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b7477a33083c5e3ed34271b73d4e30c2\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"336\"/></p><p style=\"text-align: justify;\">其中,x_t 为输入序列中的第 t 个 token,R 表示 softmax 路由器,b_i 表示第 i 个专家对应的偏置项,K 表示每个 token 所选中的专家数量。路由器会将每个 token 分配给 K 个专家,其中被激活的 FFN 专家数量会根据该 token 的上下文重要性而变化。通过这种自适应的分配机制,模型能够学习到对上下文更重要的 token 动态分配更多的计算资源,从而在相同的计算量条件下实现更优的性能,如图 3a 所示。</p><p style=\"text-align: justify;\">另外,模型在处理输入时,需要学会根据不同 token 的重要性,来决定到底要不要花更多计算资源。如果不去控制零计算专家被选中的频率,模型可能会偏向于选择有计算的专家,忽视零计算专家的作用。从而造成计算资源效率低下。</p><p style=\"text-align: justify;\">为了解决这一问题,美团改进了 aux-loss-free 策略中的专家偏置机制:引入专家特定的偏置项,该偏置能够根据最近的专家使用情况动态调整路由分数,同时又与语言模型的训练目标保持解耦。</p><p style=\"text-align: justify;\">更新规则采用了控制理论中的 PID 控制器实时微调专家偏置。得益于此,模型在处理每个 token 时,仅需激活 186 亿至 313 亿(平均激活量稳定在约 270 亿)的参数量,从而实现资源优化配置。</p><p style=\"text-align: justify;\"><strong>快捷连接 MoE</strong></p><p style=\"text-align: justify;\">LongCat-Flash 另一个亮点是快捷连接 MoE 机制。</p><p style=\"text-align: justify;\">一般而言,大规模 MoE 模型的效率在很大程度上受到通信开销的限制。在传统的执行范式中,专家并行会引入一种顺序化的工作流程,即必须先通过一次全局通信操作将 token 路由到其指定的专家,随后计算才能开始。</p><p style=\"text-align: justify;\">这种先通信、再计算的顺序会带来额外的等待时间,尤其在大规模分布式训练中,通信延迟会显著增加,成为性能瓶颈。</p><p style=\"text-align: justify;\">此前有研究者采用共享专家架构,试图通过将通信与单个专家的计算重叠来缓解问题,但其效率受到单个专家计算窗口过小的限制。</p><p style=\"text-align: justify;\">美团通过引入 ScMoE 架构克服了这一限制,ScMoE 在层间引入了一条跨层快捷连接,这一关键创新使得:前一层稠密 FFN 的计算可以与当前 MoE 层的分发 / 聚合通信操作并行执行,相比共享专家架构,形成了一个更大规模的通信 - 计算重叠窗口。</p><p style=\"text-align: justify;\">该架构设计在多项实验中得到了验证。</p><p style=\"text-align: justify;\">首先,ScMoE 设计并不会降低模型质量。如图 4 所示,ScMoE 架构与未使用 ScMoE 的基线在训练损失曲线上的表现几乎完全一致,这证明了这种重新排序的执行方式并不会损害模型性能。这一结论在多种配置下均得到一致性验证。</p><p style=\"text-align: justify;\">更重要的是,这些结果表明:ScMoE 的稳定性与性能优势,与注意力机制的具体选择是正交的(即无论使用哪种注意力机制,都能保持稳定与收益)。</p><p style=\"text-align: justify;\">其次,ScMoE 架构为训练和推理提供了大量系统级效率提升。具体表现在:</p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: justify;\">在大规模训练方面:扩展的重叠窗口使前序块的计算能够与 MoE 层中的分发和聚合通信阶段完全并行,这是通过沿 token 维度将操作分割为细粒度块实现的。</p></li><li><p style=\"text-align: justify;\">在高效推理方面:ScMoE 支持单批次重叠 pipeline,相较 DeepSeek-V3 等领先模型,将理论每秒输出 token 时间(TPOT)降低近 50%。更重要的是,它允许不同通信模式的并发执行:稠密 FFN 上节点内的张量并行通信(通过 NVLink)可与节点间的专家并行通信(通过 RDMA)完全重叠,从而最大化总体网络利用率。</p></li></ul><p style=\"text-align: justify;\">总之,ScMoE 在不牺牲模型质量的情况下提供了大量的性能提升。</p><p style=\"text-align: justify;\"><strong>模型扩展策略与多阶段训练</strong></p><p style=\"text-align: justify;\">美团还提出了一套<strong>高效的模型扩展策略</strong>,能够显著改善模型在规模增大时的性能表现。</p><p style=\"text-align: justify;\">首先是超参数迁移,在训练超大规模模型时,直接尝试各种超参数配置非常昂贵且不稳定。于是美团先在较小的模型上进行实验,找到效果最好的超参数组合。然后,再把这些参数迁移到大模型上使用。从而节省了成本并保证了效果。迁移规则如表 1 所示:</p><p style=\"text-align: justify;\">其次是模型增长(Model Growth)初始化,美团先从一个在<a href=\"https://laohu8.com/S/SBAY\">数百亿</a> token 上预训练过的半规模模型出发,训练好之后保留检查点。在此基础上把模型扩展到完整规模,并继续训练。</p><p style=\"text-align: justify;\">基于这种方式,模型表现出一条典型的损失曲线:损失先短暂上升,随后快速收敛,并最终显著优于随机初始化的基线。图 5b 展示 6B 激活参数实验中的一个代表性结果,体现了模型增长初始化的优势。</p><p style=\"text-align: justify;\">第三点是多层次的稳定性套件,美团从路由器稳定性、激活稳定性和优化器稳定性三个方面增强了 LongCat-Flash 的训练稳定性。</p><p style=\"text-align: justify;\">第四点是确定性计算,这种方法能够保证实验结果的完全可复现,并在训练过程中实现对静默数据损坏(Silent Data Corruption, SDC) 的检测。</p><p style=\"text-align: justify;\">通过这些措施,LongCat-Flash 的训练过程始终保持高度稳定,且不会出现不可恢复的损失骤增(loss spike)。</p><p style=\"text-align: justify;\">在保持训练稳定的基础上,美团还精心<strong>设计了训练 pipeline,使 LongCat-Flash 具备了高级智能体行为</strong>,该流程涵盖大规模预训练、面向推理与代码能力的中期训练,以及聚焦对话与工具使用的后训练。</p><ul style=\"list-style-type: disc;\"><li><p style=\"text-align: justify;\">初始阶段,构建一个更适合于智能体后训练的基础模型,为此美团设计了一个两阶段的预训练数据融合策略来集中推理密集型领域的数据。</p></li><li><p style=\"text-align: justify;\">训练中期,美团进一步增强模型的推理能力与代码能力;同时将上下文长度扩展至 128k,以满足智能体后训练的需求。</p></li><li><p style=\"text-align: justify;\">最后,美团又进行了多阶段后训练。鉴于智能体领域高质量、高难度训练数据的稀缺,美团设计了一个多智能体合成框架:该框架从三个维度定义任务难度,即信息处理、工具集复杂性和用户交互,使用专门的控制器来生成需要迭代推理和环境交互的复杂任务。</p></li></ul><p style=\"text-align: justify;\">这种设计使其在执行需要调用工具、与环境交互的复杂任务时表现出色。</p><h2 id=\"id_3335341149\">跑起来又快又便宜</h2><h2 id=\"id_1127507097\">LongCat-Flash 是怎么做到的?</h2><p style=\"text-align: justify;\">前面提到,LongCat-Flash 可以在 H800 显卡上以超过每秒 100 个 token 的速度进行推理,成本仅为每百万输出 token 0.7 美元,可以说跑起来又快又便宜。</p><p style=\"text-align: justify;\">这是怎么做到的呢?首先,他们有一个<strong>与模型架构协同设计的并行推理架构</strong>;其次,他们还加入了<strong>量化和自定义内核等优化方法</strong>。</p><p style=\"text-align: justify;\"><strong>专属优化:让模型「自己跑得顺」</strong></p><p style=\"text-align: justify;\">我们知道,要构建一个高效的推理系统,必须解决两个关键问题,一是计算与通信的协调,二是 KV 缓存的读写和存储。</p><p style=\"text-align: justify;\">针对第一个挑战,现有的方法通常在三个常规粒度上利用并行性:算子级的重叠、专家级的重叠以及层级的重叠。LongCat-Flash 的 ScMoE 架构引入了第四个维度 —— 模块级的重叠。为此,团队设计了<strong> SBO(Single Batch Overlap)调度策略</strong>以优化延迟和吞吐量。</p><p style=\"text-align: justify;\">SBO 是一个四阶段的流水线执行方式,通过模块级重叠充分发挥了 LongCat-Flash 的潜力,如图 9 所示。SBO 与 TBO 的不同之处在于将通信开销隐藏在单个批次内。它在第一阶段执行 MLA 计算,为后续阶段提供输入;第二阶段将 Dense FFN 和 Attn 0(QKV 投影)与 all-to-all dispatch 通信重叠;第三阶段独立执行 MoE GEMM,其延迟受益于广泛的 EP 部署策略;第四阶段将 Attn 1(核心注意力和输出投影)及 Dense FFN 与 all-to-all combine 重叠。这种设计有效缓解了通信开销,确保了 LongCat-Flash 的高效推理。</p><p style=\"text-align: justify;\">对于第二个挑战 ——KV 缓存的读写和存储 ——LongCat-Flash 通过其注意力机制和 MTP 结构的架构创新来解决这些问题,以减少有效的 I/O 开销。</p><p style=\"text-align: justify;\"><strong>首先是推测解码加速</strong>。LongCat-Flash 将 MTP 作为草稿模型,通过系统分析推测解码的加速公式来优化三个关键因素:预期接受长度、草稿与目标模型的成本比以及目标验证与解码的成本比。通过集成单个 MTP 头并在预训练后期引入,实现了约 90% 的接受率。为了平衡草稿质量和速度,采用轻量级 MTP 架构减少参数,同时使用 C2T 方法通过分类模型过滤不太可能被接受的 token。</p><p style=\"text-align: justify;\"><strong>其次是 KV 缓存优化</strong>,通过 MLA 的 64 头注意力机制实现。MLA 在保持性能和效率平衡的同时,显著减少了计算负载并实现了出色的 KV 缓存压缩,降低了存储和带宽压力。这对于协调 LongCat-Flash 的流水线至关重要,因为模型始终具有无法与通信重叠的注意力计算。</p><p style=\"text-align: justify;\"><strong>系统级优化:让硬件「团队协作」</strong></p><p style=\"text-align: justify;\">为了最小化调度开销,LongCat-Flash 研究团队解决了 LLM 推理系统中由内核启动开销导致的 launch-bound 问题。特别是在引入推测解码后,验证内核和草稿前向传递的独立调度会产生显著开销。通过 TVD 融合策略,他们将目标前向、验证和草稿前向融合到单个 CUDA 图中。为进一步提高 GPU 利用率,他们实现了重叠调度器,并引入多步重叠调度器在单次调度迭代中启动多个前向步骤的内核,有效隐藏 CPU 调度和同步开销。</p><p style=\"text-align: justify;\">自定义内核优化针对 LLM 推理的自回归特性带来的独特效率挑战。预填充阶段是计算密集型的,而解码阶段由于流量模式产生的小而不规则的批次大小往往是受内存限制的。对于 MoE GEMM,他们采用 SwapAB 技术将权重视为左手<a href=\"https://laohu8.com/S/301365\">矩阵</a>、激活视为右手矩阵,利用 n 维度 8 元素粒度的灵活性最大化张量核心利用率。通信内核利用 NVLink Sharp 的硬件加速广播和 in-switch reduction 来最小化数据移动和 SM 占用率,仅使用 4 个线程块就在 4KB 到 96MB 消息大小范围内持续超越 NCCL 和 MSCCL++。</p><p style=\"text-align: justify;\">量化方面,LongCat-Flash 采用与 DeepSeek-V3 相同的细粒度块级量化方案。为实现最佳性能 - 准确率权衡,它基于两种方案实施了层级混合精度量化:第一种方案识别出某些线性层(特别是 Downproj)的输入激活具有达到 10^6 的极端幅度;第二种方案逐层计算块级 FP8 量化误差,发现特定专家层中存在显著量化误差。通过取两种方案的交集,实现了显著的准确率提升。</p><p style=\"text-align: justify;\"><strong>实战数据:能跑多快?多便宜?</strong></p><p style=\"text-align: justify;\">实测性能显示,LongCat-Flash 在不同设置下表现出色。与 DeepSeek-V3 相比,在相似的上下文长度下,LongCat-Flash 实现了<strong>更高的生成吞吐量和更快的生成速度</strong>。</p><p style=\"text-align: justify;\">在 Agent 应用中,考虑到推理内容(用户可见,需匹配人类阅读速度约 20 tokens/s)和动作命令(用户不可见但直接影响工具调用启动时间,需要最高速度)的差异化需求,LongCat-Flash 的近 <strong>100 tokens/s 生成速度</strong>将单轮工具调用延迟控制在<strong> 1 秒以内</strong>,显著提升了 Agent 应用的交互性。在 H800 GPU 每小时 2 美元的成本假设下,这意味着每百万输出 token 的价格为 0.7 美元。</p><p style=\"text-align: justify;\">理论性能分析表明,LongCat-Flash 的延迟主要由三个组件决定:MLA、all-to-all dispatch/combine 以及 MoE。在 EP=128、每卡 batch=96、MTP 接受率≈80% 等假设下,LongCat-Flash 的理论极限 TPOT 为 16ms,相比 DeepSeek-V3 的 30ms 和 Qwen3-235B-A22B 的 26.2ms 有显著优势。在 H800 GPU 每小时 2 美元的成本假设下,LongCat-Flash 输出成本为每百万 token 0.09 美元,远低于 DeepSeek-V3 的 0.17 美元。不过,这些数值仅为理论极限。</p><p style=\"text-align: justify;\">在 LongCat-Flash 的免费体验页面,我们也测试了一下。</p><p style=\"text-align: justify;\">我们首先让这个大模型写一篇关于秋天的文章,1000 字左右。</p><p style=\"text-align: justify;\">我们刚提出要求,刚点开录屏,LongCat-Flash 就把答案写出来了,录屏都没来得及第一时间关。</p><p style=\"text-align: justify;\">细细观察你会发现,LongCat-Flash 的首个 token 输出速度特别快。以往使用其他对话模型的时候,经常会遇到转圈圈等待,非常考验用户耐心,就像你着急看微信,结果手机信号显示「收取中」一样。LongCat-Flash 改变了这一步的体验,基本感觉不到首个 token 的延迟。</p><p style=\"text-align: justify;\">后续的 token 生成速度也很快,远远超出人眼的阅读速度。</p><p style=\"text-align: justify;\">接下来,我们打开「联网搜索」,看看 LongCat-Flash 这项能力够不够快。我们让 LongCat-Flash 推荐望京附近好吃的餐厅。</p><p style=\"text-align: justify;\">测试下来可以明显感受到,LongCat-Flash 并不是思考半天才慢悠悠地开口,而是几乎立刻就能给出答案。联网搜索给人的感受也是「快」。不仅如此,它在快速输出的同时还能附带引用来源,让信息的可信度与可追溯性都有保障。</p><p style=\"text-align: justify;\">有条件下载模型的读者可以在自己本地跑一下,看看 LongCat-Flash 的速度是否同样惊艳。</p><h2 id=\"id_422819142\">当大模型走进实用时代</h2><p style=\"text-align: justify;\">过去几年,每当出来一个大模型,大家都会关心:它的 benchmark 数据是多少?刷新了多少个榜单?是不是 SOTA?如今,情况已经发生了变化。在能力差不多的情况下,大家更关心:你这个模型用起来贵不贵?速度怎么样?在使用开源模型的企业和开发者中,这种情况尤其明显。因为很多用户用开源模型就是为了降低对闭源 API 的依赖和费用,所以对算力需求、推理速度、压缩量化效果更敏感。</p><p style=\"text-align: justify;\">美团开源的 LongCat-Flash 正是顺应这种趋势的代表作。他们把重点放在了怎么让大模型真正用得起、跑得快,这是一项技术普及的关键。</p><p style=\"text-align: justify;\">这种实用路线的选择和我们对美团一直以来的观感是一致的。过去,他们在技术上的绝大部分投入都用来解决真实业务痛点,比如 2022 年获 ICRA 最佳导航论文的 EDPLVO,其实就是为了解决无人机在配送途中遇到的各种意外情况(比如楼宇过密会失去信号);最近参与制订的全球无人机避障 ISO 标准,是无人机在飞行途中躲避风筝线、擦玻璃安全绳等案例的技术经验沉淀。而这次开源的 LongCat-Flash 其实是他们的 AI 编程类工具「NoCode」背后的模型,这个工具既服务于公司内部,也对外免费开放,就是希望大家能把 vibe coding 用起来,实现降本增效。</p><p style=\"text-align: justify;\">这种从性能竞赛向实用导向的转变,其实反映了 AI 行业发展的自然规律。当模型能力逐渐趋同时,工程效率和部署成本就成了关键差异化因素。LongCat-Flash 的开源只是这个趋势中的一个案例,但它确实为社区提供了一个可参考的技术路径:如何在保持模型质量的前提下,通过架构创新和系统优化来降低使用门槛。这对于那些预算有限但又希望用上先进 AI 能力的开发者和企业来说,无疑是有价值的。</p></body></html>","source":"lsy1571010847249","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>冲上热搜!美团大模型,靠“快”火了</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n冲上热搜!美团大模型,靠“快”火了\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-09-02 11:55 北京时间 <a href=https://mp.weixin.qq.com/s/InDGGdUmXs6H5KzpXhzyBg><strong>机器之心</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>国内外开发者:亲测,美团新开源的模型速度超快!当 AI 真的变得像水和电一样普及之后,模型强不强已经不是大家唯一关心的问题了。从年初的 Claude 3.7 Sonnet、Gemini 2.5 Flash 到最近的 GPT-5、DeepSeek V3.1,走在前面的模型厂商无一不在思考:在保证准确性的前提下,如何让 AI 既能以最少的算力去解决每一个问题,又能在最短的时间内给出回应?换句话说,就是...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/InDGGdUmXs6H5KzpXhzyBg\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/9149ee38be553ca11bd01b0a72f4964e","relate_stocks":{"03690":"美团-W","MPNGY":"美团ADR"},"source_url":"https://mp.weixin.qq.com/s/InDGGdUmXs6H5KzpXhzyBg","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1131993986","content_text":"国内外开发者:亲测,美团新开源的模型速度超快!当 AI 真的变得像水和电一样普及之后,模型强不强已经不是大家唯一关心的问题了。从年初的 Claude 3.7 Sonnet、Gemini 2.5 Flash 到最近的 GPT-5、DeepSeek V3.1,走在前面的模型厂商无一不在思考:在保证准确性的前提下,如何让 AI 既能以最少的算力去解决每一个问题,又能在最短的时间内给出回应?换句话说,就是如何做到既不浪费 token,也不浪费时间。对于在模型上构建应用的企业和开发者来说,这种从「单纯构建最强模型到构建更实用、更快速模型」的转变是个好消息。而且更加令人欣慰的是,与之相关的开源模型也逐渐多了起来。前几天,我们在 HuggingFace 上又发现了一个新模型 ——LongCat-Flash-Chat。这个模型来自美团的 LongCat-Flash 系列,官网可以直接使用(https://longcat.ai)。它天然知道「not all tokens are equal」,因此会根据重要性为重要 token 分配动态计算预算。这让它在仅激活少量参数的前提下,性能就能并肩当下领先的开源模型。LongCat-Flash 开源后登上热搜。同时,这个模型的速度也给大家留下了深刻印象 —— 在 H800 显卡上推理速度超过每秒 100 个 token。国内外开发者的实测都证实了这一点 —— 有人跑出了 95 tokens/s 的速度,有人在最短时间内得到了和 Claude 相媲美的答案。图源:知乎网友 @小小将。图源:X 网友 @SlavaMorozov。在开源模型的同时,美团也放出了 LongCat-Flash 的技术报告,我们可以在其中看到不少技术细节。技术报告:LongCat-Flash Technical Report报告链接:https://github.com/meituan-longcat/LongCat-Flash-Chat/blob/main/tech_report.pdfHugging Face: https://huggingface.co/meituan-longcat Github: https://github.com/meituan-longcat在这篇文章中,我们将详细介绍。大模型怎么省算力?看看 LongCat-Flash 的架构创新和训练方法LongCat-Flash 是一个混合专家模型,总参数量为 5600 亿,可以根据上下文需求激活 186 亿至 313 亿(平均 270 亿)个参数。用来训练该模型的数据量超过 20 万亿 token,但训练时间却只用了不到 30 天。而且在这段时间里,系统达到了 98.48% 的时间可用率,几乎不需要人工干预来处理故障 —— 这意味着整个训练过程基本是「无人干预」自动完成的。更让人印象深刻的是,这样训练出来的模型在实际部署时表现同样出色。如下图所示,作为一款非思考型模型,LongCat-Flash 达到了与 SOTA 非思考型模型相当的性能,包括 DeepSeek-V3.1 和 Kimi-K2,同时参数更少且推理速度更快。这让它在通用、编程、智能体工具使用等方向都颇具竞争力和实用性。此外,它的成本也很亮眼,仅为每百万输出 token 0.7 美元。这个价格相比市面上同等规模的模型来说,可以算是非常划算了。从技术上来说,LongCat-Flash 主要瞄准语言模型的两个目标:计算效率与智能体能力,并融合了架构创新与多阶段训练方法,从而实现可扩展且智能的模型体系。在模型架构方面,LongCat-Flash 采用了一种新颖的 MoE 架构(图 2),其亮点包含两方面:零计算专家(Zero-computation Experts);快捷连接 MoE(Shortcut-connected MoE,ScMoE)。零计算专家零计算专家的核心思想是并非所有 token 都是「平等」的。我们可以这样理解,在一个句子中,有些词是非常容易预测的,如「的」「是」,几乎不需要计算,而有些词如「人名」则需要大量计算才能准确预测。在以往的研究中,大家基本采用这种方式:即无论这个 token 是简单还是复杂,它都会激活固定数量(K)的专家,这造成了巨大的计算浪费。对于简单 token 来说,完全没必要调用那么多专家,而对于复杂 token,则可能又缺乏足够的计算分配。受此启发,LongCat-Flash 提出了一种动态计算资源分配机制:通过零计算专家,为每个 token 动态激活不同数量的 FFN(Feed-Forward Network) 专家,从而根据上下文的重要性更合理地分配计算量。具体而言,LongCat-Flash 在其专家池中,除了原有的 N 个标准 FFN 专家外,还扩展了 Z 个零计算专家。零计算专家仅将输入原样返回作为输出,因此不会引入额外的计算开销。LongCat-Flash 中的 MoE 模块可以形式化为:其中,x_t 为输入序列中的第 t 个 token,R 表示 softmax 路由器,b_i 表示第 i 个专家对应的偏置项,K 表示每个 token 所选中的专家数量。路由器会将每个 token 分配给 K 个专家,其中被激活的 FFN 专家数量会根据该 token 的上下文重要性而变化。通过这种自适应的分配机制,模型能够学习到对上下文更重要的 token 动态分配更多的计算资源,从而在相同的计算量条件下实现更优的性能,如图 3a 所示。另外,模型在处理输入时,需要学会根据不同 token 的重要性,来决定到底要不要花更多计算资源。如果不去控制零计算专家被选中的频率,模型可能会偏向于选择有计算的专家,忽视零计算专家的作用。从而造成计算资源效率低下。为了解决这一问题,美团改进了 aux-loss-free 策略中的专家偏置机制:引入专家特定的偏置项,该偏置能够根据最近的专家使用情况动态调整路由分数,同时又与语言模型的训练目标保持解耦。更新规则采用了控制理论中的 PID 控制器实时微调专家偏置。得益于此,模型在处理每个 token 时,仅需激活 186 亿至 313 亿(平均激活量稳定在约 270 亿)的参数量,从而实现资源优化配置。快捷连接 MoELongCat-Flash 另一个亮点是快捷连接 MoE 机制。一般而言,大规模 MoE 模型的效率在很大程度上受到通信开销的限制。在传统的执行范式中,专家并行会引入一种顺序化的工作流程,即必须先通过一次全局通信操作将 token 路由到其指定的专家,随后计算才能开始。这种先通信、再计算的顺序会带来额外的等待时间,尤其在大规模分布式训练中,通信延迟会显著增加,成为性能瓶颈。此前有研究者采用共享专家架构,试图通过将通信与单个专家的计算重叠来缓解问题,但其效率受到单个专家计算窗口过小的限制。美团通过引入 ScMoE 架构克服了这一限制,ScMoE 在层间引入了一条跨层快捷连接,这一关键创新使得:前一层稠密 FFN 的计算可以与当前 MoE 层的分发 / 聚合通信操作并行执行,相比共享专家架构,形成了一个更大规模的通信 - 计算重叠窗口。该架构设计在多项实验中得到了验证。首先,ScMoE 设计并不会降低模型质量。如图 4 所示,ScMoE 架构与未使用 ScMoE 的基线在训练损失曲线上的表现几乎完全一致,这证明了这种重新排序的执行方式并不会损害模型性能。这一结论在多种配置下均得到一致性验证。更重要的是,这些结果表明:ScMoE 的稳定性与性能优势,与注意力机制的具体选择是正交的(即无论使用哪种注意力机制,都能保持稳定与收益)。其次,ScMoE 架构为训练和推理提供了大量系统级效率提升。具体表现在:在大规模训练方面:扩展的重叠窗口使前序块的计算能够与 MoE 层中的分发和聚合通信阶段完全并行,这是通过沿 token 维度将操作分割为细粒度块实现的。在高效推理方面:ScMoE 支持单批次重叠 pipeline,相较 DeepSeek-V3 等领先模型,将理论每秒输出 token 时间(TPOT)降低近 50%。更重要的是,它允许不同通信模式的并发执行:稠密 FFN 上节点内的张量并行通信(通过 NVLink)可与节点间的专家并行通信(通过 RDMA)完全重叠,从而最大化总体网络利用率。总之,ScMoE 在不牺牲模型质量的情况下提供了大量的性能提升。模型扩展策略与多阶段训练美团还提出了一套高效的模型扩展策略,能够显著改善模型在规模增大时的性能表现。首先是超参数迁移,在训练超大规模模型时,直接尝试各种超参数配置非常昂贵且不稳定。于是美团先在较小的模型上进行实验,找到效果最好的超参数组合。然后,再把这些参数迁移到大模型上使用。从而节省了成本并保证了效果。迁移规则如表 1 所示:其次是模型增长(Model Growth)初始化,美团先从一个在数百亿 token 上预训练过的半规模模型出发,训练好之后保留检查点。在此基础上把模型扩展到完整规模,并继续训练。基于这种方式,模型表现出一条典型的损失曲线:损失先短暂上升,随后快速收敛,并最终显著优于随机初始化的基线。图 5b 展示 6B 激活参数实验中的一个代表性结果,体现了模型增长初始化的优势。第三点是多层次的稳定性套件,美团从路由器稳定性、激活稳定性和优化器稳定性三个方面增强了 LongCat-Flash 的训练稳定性。第四点是确定性计算,这种方法能够保证实验结果的完全可复现,并在训练过程中实现对静默数据损坏(Silent Data Corruption, SDC) 的检测。通过这些措施,LongCat-Flash 的训练过程始终保持高度稳定,且不会出现不可恢复的损失骤增(loss spike)。在保持训练稳定的基础上,美团还精心设计了训练 pipeline,使 LongCat-Flash 具备了高级智能体行为,该流程涵盖大规模预训练、面向推理与代码能力的中期训练,以及聚焦对话与工具使用的后训练。初始阶段,构建一个更适合于智能体后训练的基础模型,为此美团设计了一个两阶段的预训练数据融合策略来集中推理密集型领域的数据。训练中期,美团进一步增强模型的推理能力与代码能力;同时将上下文长度扩展至 128k,以满足智能体后训练的需求。最后,美团又进行了多阶段后训练。鉴于智能体领域高质量、高难度训练数据的稀缺,美团设计了一个多智能体合成框架:该框架从三个维度定义任务难度,即信息处理、工具集复杂性和用户交互,使用专门的控制器来生成需要迭代推理和环境交互的复杂任务。这种设计使其在执行需要调用工具、与环境交互的复杂任务时表现出色。跑起来又快又便宜LongCat-Flash 是怎么做到的?前面提到,LongCat-Flash 可以在 H800 显卡上以超过每秒 100 个 token 的速度进行推理,成本仅为每百万输出 token 0.7 美元,可以说跑起来又快又便宜。这是怎么做到的呢?首先,他们有一个与模型架构协同设计的并行推理架构;其次,他们还加入了量化和自定义内核等优化方法。专属优化:让模型「自己跑得顺」我们知道,要构建一个高效的推理系统,必须解决两个关键问题,一是计算与通信的协调,二是 KV 缓存的读写和存储。针对第一个挑战,现有的方法通常在三个常规粒度上利用并行性:算子级的重叠、专家级的重叠以及层级的重叠。LongCat-Flash 的 ScMoE 架构引入了第四个维度 —— 模块级的重叠。为此,团队设计了 SBO(Single Batch Overlap)调度策略以优化延迟和吞吐量。SBO 是一个四阶段的流水线执行方式,通过模块级重叠充分发挥了 LongCat-Flash 的潜力,如图 9 所示。SBO 与 TBO 的不同之处在于将通信开销隐藏在单个批次内。它在第一阶段执行 MLA 计算,为后续阶段提供输入;第二阶段将 Dense FFN 和 Attn 0(QKV 投影)与 all-to-all dispatch 通信重叠;第三阶段独立执行 MoE GEMM,其延迟受益于广泛的 EP 部署策略;第四阶段将 Attn 1(核心注意力和输出投影)及 Dense FFN 与 all-to-all combine 重叠。这种设计有效缓解了通信开销,确保了 LongCat-Flash 的高效推理。对于第二个挑战 ——KV 缓存的读写和存储 ——LongCat-Flash 通过其注意力机制和 MTP 结构的架构创新来解决这些问题,以减少有效的 I/O 开销。首先是推测解码加速。LongCat-Flash 将 MTP 作为草稿模型,通过系统分析推测解码的加速公式来优化三个关键因素:预期接受长度、草稿与目标模型的成本比以及目标验证与解码的成本比。通过集成单个 MTP 头并在预训练后期引入,实现了约 90% 的接受率。为了平衡草稿质量和速度,采用轻量级 MTP 架构减少参数,同时使用 C2T 方法通过分类模型过滤不太可能被接受的 token。其次是 KV 缓存优化,通过 MLA 的 64 头注意力机制实现。MLA 在保持性能和效率平衡的同时,显著减少了计算负载并实现了出色的 KV 缓存压缩,降低了存储和带宽压力。这对于协调 LongCat-Flash 的流水线至关重要,因为模型始终具有无法与通信重叠的注意力计算。系统级优化:让硬件「团队协作」为了最小化调度开销,LongCat-Flash 研究团队解决了 LLM 推理系统中由内核启动开销导致的 launch-bound 问题。特别是在引入推测解码后,验证内核和草稿前向传递的独立调度会产生显著开销。通过 TVD 融合策略,他们将目标前向、验证和草稿前向融合到单个 CUDA 图中。为进一步提高 GPU 利用率,他们实现了重叠调度器,并引入多步重叠调度器在单次调度迭代中启动多个前向步骤的内核,有效隐藏 CPU 调度和同步开销。自定义内核优化针对 LLM 推理的自回归特性带来的独特效率挑战。预填充阶段是计算密集型的,而解码阶段由于流量模式产生的小而不规则的批次大小往往是受内存限制的。对于 MoE GEMM,他们采用 SwapAB 技术将权重视为左手矩阵、激活视为右手矩阵,利用 n 维度 8 元素粒度的灵活性最大化张量核心利用率。通信内核利用 NVLink Sharp 的硬件加速广播和 in-switch reduction 来最小化数据移动和 SM 占用率,仅使用 4 个线程块就在 4KB 到 96MB 消息大小范围内持续超越 NCCL 和 MSCCL++。量化方面,LongCat-Flash 采用与 DeepSeek-V3 相同的细粒度块级量化方案。为实现最佳性能 - 准确率权衡,它基于两种方案实施了层级混合精度量化:第一种方案识别出某些线性层(特别是 Downproj)的输入激活具有达到 10^6 的极端幅度;第二种方案逐层计算块级 FP8 量化误差,发现特定专家层中存在显著量化误差。通过取两种方案的交集,实现了显著的准确率提升。实战数据:能跑多快?多便宜?实测性能显示,LongCat-Flash 在不同设置下表现出色。与 DeepSeek-V3 相比,在相似的上下文长度下,LongCat-Flash 实现了更高的生成吞吐量和更快的生成速度。在 Agent 应用中,考虑到推理内容(用户可见,需匹配人类阅读速度约 20 tokens/s)和动作命令(用户不可见但直接影响工具调用启动时间,需要最高速度)的差异化需求,LongCat-Flash 的近 100 tokens/s 生成速度将单轮工具调用延迟控制在 1 秒以内,显著提升了 Agent 应用的交互性。在 H800 GPU 每小时 2 美元的成本假设下,这意味着每百万输出 token 的价格为 0.7 美元。理论性能分析表明,LongCat-Flash 的延迟主要由三个组件决定:MLA、all-to-all dispatch/combine 以及 MoE。在 EP=128、每卡 batch=96、MTP 接受率≈80% 等假设下,LongCat-Flash 的理论极限 TPOT 为 16ms,相比 DeepSeek-V3 的 30ms 和 Qwen3-235B-A22B 的 26.2ms 有显著优势。在 H800 GPU 每小时 2 美元的成本假设下,LongCat-Flash 输出成本为每百万 token 0.09 美元,远低于 DeepSeek-V3 的 0.17 美元。不过,这些数值仅为理论极限。在 LongCat-Flash 的免费体验页面,我们也测试了一下。我们首先让这个大模型写一篇关于秋天的文章,1000 字左右。我们刚提出要求,刚点开录屏,LongCat-Flash 就把答案写出来了,录屏都没来得及第一时间关。细细观察你会发现,LongCat-Flash 的首个 token 输出速度特别快。以往使用其他对话模型的时候,经常会遇到转圈圈等待,非常考验用户耐心,就像你着急看微信,结果手机信号显示「收取中」一样。LongCat-Flash 改变了这一步的体验,基本感觉不到首个 token 的延迟。后续的 token 生成速度也很快,远远超出人眼的阅读速度。接下来,我们打开「联网搜索」,看看 LongCat-Flash 这项能力够不够快。我们让 LongCat-Flash 推荐望京附近好吃的餐厅。测试下来可以明显感受到,LongCat-Flash 并不是思考半天才慢悠悠地开口,而是几乎立刻就能给出答案。联网搜索给人的感受也是「快」。不仅如此,它在快速输出的同时还能附带引用来源,让信息的可信度与可追溯性都有保障。有条件下载模型的读者可以在自己本地跑一下,看看 LongCat-Flash 的速度是否同样惊艳。当大模型走进实用时代过去几年,每当出来一个大模型,大家都会关心:它的 benchmark 数据是多少?刷新了多少个榜单?是不是 SOTA?如今,情况已经发生了变化。在能力差不多的情况下,大家更关心:你这个模型用起来贵不贵?速度怎么样?在使用开源模型的企业和开发者中,这种情况尤其明显。因为很多用户用开源模型就是为了降低对闭源 API 的依赖和费用,所以对算力需求、推理速度、压缩量化效果更敏感。美团开源的 LongCat-Flash 正是顺应这种趋势的代表作。他们把重点放在了怎么让大模型真正用得起、跑得快,这是一项技术普及的关键。这种实用路线的选择和我们对美团一直以来的观感是一致的。过去,他们在技术上的绝大部分投入都用来解决真实业务痛点,比如 2022 年获 ICRA 最佳导航论文的 EDPLVO,其实就是为了解决无人机在配送途中遇到的各种意外情况(比如楼宇过密会失去信号);最近参与制订的全球无人机避障 ISO 标准,是无人机在飞行途中躲避风筝线、擦玻璃安全绳等案例的技术经验沉淀。而这次开源的 LongCat-Flash 其实是他们的 AI 编程类工具「NoCode」背后的模型,这个工具既服务于公司内部,也对外免费开放,就是希望大家能把 vibe coding 用起来,实现降本增效。这种从性能竞赛向实用导向的转变,其实反映了 AI 行业发展的自然规律。当模型能力逐渐趋同时,工程效率和部署成本就成了关键差异化因素。LongCat-Flash 的开源只是这个趋势中的一个案例,但它确实为社区提供了一个可参考的技术路径:如何在保持模型质量的前提下,通过架构创新和系统优化来降低使用门槛。这对于那些预算有限但又希望用上先进 AI 能力的开发者和企业来说,无疑是有价值的。","news_type":1,"symbols_score_info":{"03690":1,"METmain":1,"MPNGY":1}},"isVote":1,"tweetType":1,"viewCount":24,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":473904592597448,"gmtCreate":1756730995538,"gmtModify":1756731956799,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/BABA\">$阿里巴巴(BABA)$ </a><v-v data-views=\"1\"></v-v> 阿里会起飞","listText":"<a href=\"https://laohu8.com/S/BABA\">$阿里巴巴(BABA)$ </a><v-v data-views=\"1\"></v-v> 阿里会起飞","text":"$阿里巴巴(BABA)$ 阿里会起飞","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/473904592597448","isVote":1,"tweetType":1,"viewCount":44,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":473751409541184,"gmtCreate":1756693722307,"gmtModify":1756694230004,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"别瞎带节奏了!人家业绩好就是好,你看好美团,大家最讨厌美团。","listText":"别瞎带节奏了!人家业绩好就是好,你看好美团,大家最讨厌美团。","text":"别瞎带节奏了!人家业绩好就是好,你看好美团,大家最讨厌美团。","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/473751409541184","repostId":"2564612998","repostType":2,"repost":{"id":"2564612998","kind":"news","pubTimestamp":1756691520,"share":"https://www.laohu8.com/m/news/2564612998?lang=&edition=full","pubTime":"2025-09-01 09:52","market":"us","language":"zh","title":"阿里财报反常识:阿里云ai收益主要卖给自己 gmv不涨crm涨懂的都懂","url":"https://stock-news.laohu8.com/highlight/detail?id=2564612998","media":"市场资讯","summary":"来源:77和她的韭菜朋友们阿里就算涨了又如何?我刚早上看了下阿里财报,我发现有几个很奇怪的地方,就是阿里的gmv没有怎么长,但是crm收入同比增长了10%,这说明什么?然后我又问它阿里云ai收益的增长主要是什么,买方是谁?它告诉我是公共云业务带来的,主要买方是阿里自己(配图2)我觉得你们可以把阿里财报下载下来,一共25页,你自己找到反常识的部分,问问ai!","content":"<html><body><article><p>来源:77和她的韭菜朋友们</p><p>原标题:<a href=\"https://laohu8.com/S/BABA\">阿里</a>就算涨了又如何?</p><p>昨天直播间有一个人七十多持仓的<a href=\"https://laohu8.com/S/09988\">阿里</a>,现在阿里一百多,然后得意洋洋的跑来喷我,说我对阿里财报解读不深刻,我就纳闷了,我什么时候解读过阿里财报了?</p><p>我回应他说我就是不喜欢这家公司,我不看他们的财报,我有钱没钱都不买阿里,包括<a href=\"https://laohu8.com/S/JD\">京东</a>也是,我不喜欢刘强东,我实际接触的京东的两个男的,风格和刘强东也类似,所以我不看他们的股票有什么问题吗?</p><p>我刚早上看了下阿里财报,我发现有几个很奇怪的地方,就是阿里的gmv没有怎么长,但是crm收入同比增长了10%,这说明什么?结合我上篇分享的我们分群里一个电商运营分享的做淘宝电商的感悟,再结合年初一个阿里高管想让我回阿里打工时透露的信息,蒋凡的战略是保大卖家,保核心品类的头部卖家,保供应链优势的卖家等,说明这些增长来自于商家对于阿里新的ai投放工具的积极尝试和投入,而ai优化了阿里商业化流量的变现效率,但是炮灰是谁?懂得都懂!</p><p>其次是经调整净利同比下降18%至335.1亿元,但<span>净利润</span>同比大增76%至423.82亿元???</p><p>阿里的财报我是用<a href=\"https://laohu8.com/S/XIACY\">小米</a>内置的一个阅读工具看的,我可以一边看,一边问,它能快速提炼信息整理问题答案给我,我就问了它为啥会有这种反差,然后它告诉我的答案就是封面配图1那个!</p><p>也就是净利润涨这么夸张,是因为处理了投资的Trendyol的股权收益,以及把本地生活业务的收益并入了阿里。</p><p>也就是说阿里电商主站并没有变好!!!</p><p>然后我又问它阿里云ai收益的增长主要是什么,买方是谁?</p><p>它告诉我是公共云业务带来的,主要买方是阿里自己(配图2)</p><p>我觉得你们可以把阿里财报下载下来,一共25页,你自己找到反常识的部分,问问ai!</p><p>涨不代表实际价值,<a href=\"https://laohu8.com/S/BIDU\">百度</a>这么多年为什么风口都参与了,但是起不来,因为它一直被股价绑架决策。</p><p>我还是更看好王兴这种更务实的管理风格,上次他们的财报电话会,他都说ai投资短期难以见成效这种实在话的人。</p><p>所以的价格最终都要回归价值不是吗,高中就学的,你们忘了?</p><p>只是对于阿里来说如果能在本地生活和即时零售构建壁垒,就不是查理芒格骂的只是没壁垒的零售商了,为此阿里拼了命也会去拿市场份额!</p><p>所以很长一段时间内,<a href=\"https://laohu8.com/S/MPNGY\">美团</a>面对账面资金比较雄厚的阿里,日子会很难!</p><p>但如果<a href=\"https://laohu8.com/S/03690\">美团</a>赢了呢?这个壁垒将更加牢固,无法再撼动,那时的美团就是真的值钱了!</p><img src=\"https://fid-75186.picgzc.qpic.cn/20250901095301066d201vrk6gnhq9rb\"/><img src=\"https://fid-75186.picgzc.qpic.cn/20250901095305091d201rpvr2pzujdn\"/><img src=\"https://fid-75186.picgzc.qpic.cn/20250901095317537d201ly77h7i6ja2\"/><p>责任编辑:郝欣煜</p></article></body></html>","source":"tencent","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>阿里财报反常识:阿里云ai收益主要卖给自己 gmv不涨crm涨懂的都懂</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n阿里财报反常识:阿里云ai收益主要卖给自己 gmv不涨crm涨懂的都懂\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-09-01 09:52 北京时间 <a href=http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250901095317a4ac2c15&s=b><strong>市场资讯</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>来源:77和她的韭菜朋友们原标题:阿里就算涨了又如何?昨天直播间有一个人七十多持仓的阿里,现在阿里一百多,然后得意洋洋的跑来喷我,说我对阿里财报解读不深刻,我就纳闷了,我什么时候解读过阿里财报了?我回应他说我就是不喜欢这家公司,我不看他们的财报,我有钱没钱都不买阿里,包括京东也是,我不喜欢刘强东,我实际接触的京东的两个男的,风格和刘强东也类似,所以我不看他们的股票有什么问题吗?我刚早上看了下阿里...</p>\n\n<a href=\"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250901095317a4ac2c15&s=b\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"","relate_stocks":{"89888":"百度集团-SWR","09988":"阿里巴巴-W","03690":"美团-W","BABA":"阿里巴巴","MPNGY":"美团ADR","09618":"京东集团-SW"},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20250901095317a4ac2c15&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/9a95c1376e76363c1401fee7d3717173","article_id":"2564612998","content_text":"来源:77和她的韭菜朋友们原标题:阿里就算涨了又如何?昨天直播间有一个人七十多持仓的阿里,现在阿里一百多,然后得意洋洋的跑来喷我,说我对阿里财报解读不深刻,我就纳闷了,我什么时候解读过阿里财报了?我回应他说我就是不喜欢这家公司,我不看他们的财报,我有钱没钱都不买阿里,包括京东也是,我不喜欢刘强东,我实际接触的京东的两个男的,风格和刘强东也类似,所以我不看他们的股票有什么问题吗?我刚早上看了下阿里财报,我发现有几个很奇怪的地方,就是阿里的gmv没有怎么长,但是crm收入同比增长了10%,这说明什么?结合我上篇分享的我们分群里一个电商运营分享的做淘宝电商的感悟,再结合年初一个阿里高管想让我回阿里打工时透露的信息,蒋凡的战略是保大卖家,保核心品类的头部卖家,保供应链优势的卖家等,说明这些增长来自于商家对于阿里新的ai投放工具的积极尝试和投入,而ai优化了阿里商业化流量的变现效率,但是炮灰是谁?懂得都懂!其次是经调整净利同比下降18%至335.1亿元,但净利润同比大增76%至423.82亿元???阿里的财报我是用小米内置的一个阅读工具看的,我可以一边看,一边问,它能快速提炼信息整理问题答案给我,我就问了它为啥会有这种反差,然后它告诉我的答案就是封面配图1那个!也就是净利润涨这么夸张,是因为处理了投资的Trendyol的股权收益,以及把本地生活业务的收益并入了阿里。也就是说阿里电商主站并没有变好!!!然后我又问它阿里云ai收益的增长主要是什么,买方是谁?它告诉我是公共云业务带来的,主要买方是阿里自己(配图2)我觉得你们可以把阿里财报下载下来,一共25页,你自己找到反常识的部分,问问ai!涨不代表实际价值,百度这么多年为什么风口都参与了,但是起不来,因为它一直被股价绑架决策。我还是更看好王兴这种更务实的管理风格,上次他们的财报电话会,他都说ai投资短期难以见成效这种实在话的人。所以的价格最终都要回归价值不是吗,高中就学的,你们忘了?只是对于阿里来说如果能在本地生活和即时零售构建壁垒,就不是查理芒格骂的只是没壁垒的零售商了,为此阿里拼了命也会去拿市场份额!所以很长一段时间内,美团面对账面资金比较雄厚的阿里,日子会很难!但如果美团赢了呢?这个壁垒将更加牢固,无法再撼动,那时的美团就是真的值钱了!责任编辑:郝欣煜","news_type":1,"symbols_score_info":{"89888":0.9,"03690":0.9,"09618":0.9,"09988":0.9,"BABA":1,"MPNGY":0.9}},"isVote":1,"tweetType":1,"viewCount":359,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":409586902700688,"gmtCreate":1741006828272,"gmtModify":1741007280153,"author":{"id":"4145482403543770","authorId":"4145482403543770","name":"统计局我们","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4145482403543770","authorIdStr":"4145482403543770"},"themes":[],"htmlText":"夸克太好用了!超过所有产品","listText":"夸克太好用了!超过所有产品","text":"夸克太好用了!超过所有产品","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":2,"repostSize":0,"link":"https://laohu8.com/post/409586902700688","repostId":"1162360192","repostType":2,"repost":{"id":"1162360192","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1741004302,"share":"https://www.laohu8.com/m/news/1162360192?lang=&edition=full","pubTime":"2025-03-03 20:18","market":"us","language":"zh","title":"盘前 | 特斯拉涨逾3%,英特尔获重大利好,理想汽车大跌超8%","url":"https://stock-news.laohu8.com/highlight/detail?id=1162360192","media":"老虎资讯综合","summary":"美股三大指数期货在盘前时段集体上涨。","content":"<html><head></head><body><p>3月3日周一,美股三大指数期货在盘前时段集体上涨。本周海外大事密集,特朗普将在美国国会演讲、主持白宫加密货币峰会;美国将发布2月非农就业报告;加墨关税实施;欧央行公布利率决议;鲍威尔等美联储官员讲话;美联储发布经济状况褐皮书。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/668f5f02536acde9269b45cf389b2115\" title=\"\" tg-width=\"740\" tg-height=\"240\"/></p><h3 id=\"id_2226404005\">个股盘前表现</h3><p><strong>特斯拉涨超3%。马斯克表示,<a href=\"https://laohu8.com/S/TSLA\" title=\"特斯拉\" class=\"\">特斯拉</a>在5年内实现1000%的利润增长是可能的。同时,摩根士丹利重新将特斯拉列为美国汽车板块首选股。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cd0d9e50c63d1e5967fda6993d3c2445\" title=\"\" tg-width=\"450\" tg-height=\"124\"/></p><p>英特尔涨逾5%。两位知情人士透露,英伟达和博通正在采用英特尔的18A工艺进行生产测试,显示出对后者先进生产技术的初步信心。测试表明,这些公司正越来越接近决定是否将价值数亿美元的制造合同交给英特尔。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e59bfa74f7b65f48cee794c95ab053d1\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>大型科技股涨跌不一。截至发稿,亚马逊涨0.94%,谷歌涨0.9%,Meta涨0.87%,英伟达跌0.2%,苹果跌0.11%。</p><p>加密货币概念股普涨。截至发稿,Strategy大涨13%,CleanSpark涨超11%,MARA涨超10%,Riot涨9.9%,Coinbase涨9.35%。3月3日,<strong>特朗普周日在社交媒体上发文称,美国将创建一项加密货币战略储备,其中将包括比特币、以太坊,以及瑞波币、Solana和艾达币。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9c7d4b629ccd438cfbd491c2a15b3ce7\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p><p>奢侈品集团Capri涨超7%。据彭博引述消息人士称,欧洲奢侈品集团普拉达(Prada)正接近与Capri达成洽购意大利名牌Versace的协议,涉及金额为15亿欧元(约合16亿美元)。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/06a0d34a43cff7b161af938856bb9e39\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>雷神技术公司涨1.79%,开盘有望再创历史新高。雷神技术此前公布的第四季度业绩,销售额216.2亿美元,同比增长8.5%,超分析师预期。公司预测2025年调整后销售额在830亿至840亿美元之间。</p><p>能源公司Sunnova Energy暴跌51%,公司称现金流面临枯竭,未来继续经营存疑。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6966b150fe37c57aac0bc8e236726b29\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>阿里巴巴涨1.44%。开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已反超DeepSeek-R1,登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4128b552b7539002b69325693c81620d\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>大健云仓涨超4%。公司将于美东时间03月03日盘后发布财报。有机构预期大健云仓2024Q4预计实现营收2.88亿美元,同比增加17.81%。</p><p>房多多涨超1%。中指研究院发布报告,TOP100房企销售额1—2月同比降幅收窄10.6个百分点,2月销售额同比增长17.3%,百亿以上销售额企业12家。</p><p>理想汽车大跌超8%,2月销量环比下滑超12%,昔日“新势力销冠”的位子也拱手出让,位居第二。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd8a508d61271ac2ade7b8e3675db6d\" title=\"\" tg-width=\"450\" tg-height=\"131\"/></p><p>同时,小鹏汽车跌超5%,蔚来跌超3%。</p><p>新东方跌2.6%。新东方董事长俞敏洪称现在为止新东方都没找到接班人。</p><h3 id=\"id_273697872\">大宗商品走势</h3><p>国际油价自日内低点回升。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/02414196f88fb0f60e86599b0da02e11\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p>国际金价涨逾1%。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/63866ab87795b97245a7d33808954e4c\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>盘前 | 特斯拉涨逾3%,英特尔获重大利好,理想汽车大跌超8%</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n盘前 | 特斯拉涨逾3%,英特尔获重大利好,理想汽车大跌超8%\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2025-03-03 20:18</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>3月3日周一,美股三大指数期货在盘前时段集体上涨。本周海外大事密集,特朗普将在美国国会演讲、主持白宫加密货币峰会;美国将发布2月非农就业报告;加墨关税实施;欧央行公布利率决议;鲍威尔等美联储官员讲话;美联储发布经济状况褐皮书。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/668f5f02536acde9269b45cf389b2115\" title=\"\" tg-width=\"740\" tg-height=\"240\"/></p><h3 id=\"id_2226404005\">个股盘前表现</h3><p><strong>特斯拉涨超3%。马斯克表示,<a href=\"https://laohu8.com/S/TSLA\" title=\"特斯拉\" class=\"\">特斯拉</a>在5年内实现1000%的利润增长是可能的。同时,摩根士丹利重新将特斯拉列为美国汽车板块首选股。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cd0d9e50c63d1e5967fda6993d3c2445\" title=\"\" tg-width=\"450\" tg-height=\"124\"/></p><p>英特尔涨逾5%。两位知情人士透露,英伟达和博通正在采用英特尔的18A工艺进行生产测试,显示出对后者先进生产技术的初步信心。测试表明,这些公司正越来越接近决定是否将价值数亿美元的制造合同交给英特尔。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e59bfa74f7b65f48cee794c95ab053d1\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>大型科技股涨跌不一。截至发稿,亚马逊涨0.94%,谷歌涨0.9%,Meta涨0.87%,英伟达跌0.2%,苹果跌0.11%。</p><p>加密货币概念股普涨。截至发稿,Strategy大涨13%,CleanSpark涨超11%,MARA涨超10%,Riot涨9.9%,Coinbase涨9.35%。3月3日,<strong>特朗普周日在社交媒体上发文称,美国将创建一项加密货币战略储备,其中将包括比特币、以太坊,以及瑞波币、Solana和艾达币。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9c7d4b629ccd438cfbd491c2a15b3ce7\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p><p>奢侈品集团Capri涨超7%。据彭博引述消息人士称,欧洲奢侈品集团普拉达(Prada)正接近与Capri达成洽购意大利名牌Versace的协议,涉及金额为15亿欧元(约合16亿美元)。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/06a0d34a43cff7b161af938856bb9e39\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>雷神技术公司涨1.79%,开盘有望再创历史新高。雷神技术此前公布的第四季度业绩,销售额216.2亿美元,同比增长8.5%,超分析师预期。公司预测2025年调整后销售额在830亿至840亿美元之间。</p><p>能源公司Sunnova Energy暴跌51%,公司称现金流面临枯竭,未来继续经营存疑。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6966b150fe37c57aac0bc8e236726b29\" title=\"\" tg-width=\"450\" tg-height=\"129\"/></p><p>阿里巴巴涨1.44%。开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已反超DeepSeek-R1,登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4128b552b7539002b69325693c81620d\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>大健云仓涨超4%。公司将于美东时间03月03日盘后发布财报。有机构预期大健云仓2024Q4预计实现营收2.88亿美元,同比增加17.81%。</p><p>房多多涨超1%。中指研究院发布报告,TOP100房企销售额1—2月同比降幅收窄10.6个百分点,2月销售额同比增长17.3%,百亿以上销售额企业12家。</p><p>理想汽车大跌超8%,2月销量环比下滑超12%,昔日“新势力销冠”的位子也拱手出让,位居第二。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd8a508d61271ac2ade7b8e3675db6d\" title=\"\" tg-width=\"450\" tg-height=\"131\"/></p><p>同时,小鹏汽车跌超5%,蔚来跌超3%。</p><p>新东方跌2.6%。新东方董事长俞敏洪称现在为止新东方都没找到接班人。</p><h3 id=\"id_273697872\">大宗商品走势</h3><p>国际油价自日内低点回升。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/02414196f88fb0f60e86599b0da02e11\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p>国际金价涨逾1%。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/63866ab87795b97245a7d33808954e4c\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/ed4ee39e6b0f45214393093d70ba81a8","relate_stocks":{"TSLA":"特斯拉","INTC":"英特尔","BABA":"阿里巴巴"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1162360192","content_text":"3月3日周一,美股三大指数期货在盘前时段集体上涨。本周海外大事密集,特朗普将在美国国会演讲、主持白宫加密货币峰会;美国将发布2月非农就业报告;加墨关税实施;欧央行公布利率决议;鲍威尔等美联储官员讲话;美联储发布经济状况褐皮书。个股盘前表现特斯拉涨超3%。马斯克表示,特斯拉在5年内实现1000%的利润增长是可能的。同时,摩根士丹利重新将特斯拉列为美国汽车板块首选股。英特尔涨逾5%。两位知情人士透露,英伟达和博通正在采用英特尔的18A工艺进行生产测试,显示出对后者先进生产技术的初步信心。测试表明,这些公司正越来越接近决定是否将价值数亿美元的制造合同交给英特尔。大型科技股涨跌不一。截至发稿,亚马逊涨0.94%,谷歌涨0.9%,Meta涨0.87%,英伟达跌0.2%,苹果跌0.11%。加密货币概念股普涨。截至发稿,Strategy大涨13%,CleanSpark涨超11%,MARA涨超10%,Riot涨9.9%,Coinbase涨9.35%。3月3日,特朗普周日在社交媒体上发文称,美国将创建一项加密货币战略储备,其中将包括比特币、以太坊,以及瑞波币、Solana和艾达币。奢侈品集团Capri涨超7%。据彭博引述消息人士称,欧洲奢侈品集团普拉达(Prada)正接近与Capri达成洽购意大利名牌Versace的协议,涉及金额为15亿欧元(约合16亿美元)。雷神技术公司涨1.79%,开盘有望再创历史新高。雷神技术此前公布的第四季度业绩,销售额216.2亿美元,同比增长8.5%,超分析师预期。公司预测2025年调整后销售额在830亿至840亿美元之间。能源公司Sunnova Energy暴跌51%,公司称现金流面临枯竭,未来继续经营存疑。阿里巴巴涨1.44%。开源社区Hugging Face最新榜单显示,开源仅6天的阿里万相大模型已反超DeepSeek-R1,登顶模型热榜、模型空间榜两大榜单,成为近期全球开源社区最受欢迎的大模型。大健云仓涨超4%。公司将于美东时间03月03日盘后发布财报。有机构预期大健云仓2024Q4预计实现营收2.88亿美元,同比增加17.81%。房多多涨超1%。中指研究院发布报告,TOP100房企销售额1—2月同比降幅收窄10.6个百分点,2月销售额同比增长17.3%,百亿以上销售额企业12家。理想汽车大跌超8%,2月销量环比下滑超12%,昔日“新势力销冠”的位子也拱手出让,位居第二。同时,小鹏汽车跌超5%,蔚来跌超3%。新东方跌2.6%。新东方董事长俞敏洪称现在为止新东方都没找到接班人。大宗商品走势国际油价自日内低点回升。国际金价涨逾1%。","news_type":1,"symbols_score_info":{"BABA":1.1,"INTC":1.1,"TSLA":1.1}},"isVote":1,"tweetType":1,"viewCount":2596,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"lives":[]}