社区
首页
集团介绍
社区
资讯
行情
学堂
TigerGPT
登录
注册
金刚狼割韭菜
禅定。
IP属地:海外
+关注
帖子 · 102
帖子 · 102
关注 · 0
关注 · 0
粉丝 · 0
粉丝 · 0
金刚狼割韭菜
金刚狼割韭菜
·
02-01
对 奥特曼一般都能把怪兽揍的屁滚尿流
奥特曼率队“血战”DeepSeek,o3-mini急上线!免费体验
ChatGPT被挤爆。
奥特曼率队“血战”DeepSeek,o3-mini急上线!免费体验
看
785
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-29
如果我是中国AI公司我会开始担心美国公司限制开元 没得抄了也就吹最后一波了
中国不只有DeepSeek,阿里除夕夜抛出重磅新模型,是时候整体重估中国AI资产了吗?
继DeepSeek之后,Qwen2.5-Max的发布是中国AI阵营在高性能、低成本技术路线上的又一重要突破。市场人士分析称,此前过度聚焦DeepSeek,却忽视了包括阿里通义在内的中国AI整体性追赶。02是时候整体重估中国AI资产了吗?如果说DeepSeek V3的横空出世展现了中国AI的锐度,那么本次阿里的突破则体现了产业生态的深度进化。如果阿里Qwen-2.5-max的性能确实展现出预期水平,加之其低成本优势与完整云生态,有理由期待,它将引发DeepSeek之后的中国AI资产新一轮重估。
中国不只有DeepSeek,阿里除夕夜抛出重磅新模型,是时候整体重估中国AI资产了吗?
看
577
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-29
你看看 功劳全是自己的错误全是别人的
非常抱歉,此主贴已删除
看
581
回复
评论
点赞
1
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-28
我得感谢deep seek。 赶紧上车英伟达啊 上车AMD 和微软
非常抱歉,此主贴已删除
看
572
回复
评论
点赞
4
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-26
该AI模型适合建立人类历史第一个AI党支部
全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻
就在这当口,全球复现DeepSeek的一波狂潮也来了。更令人兴奋的是,成本不到30美金,就可以亲眼见证「啊哈」时刻。7B模型复刻,结果令人惊讶港科大助理教授何俊贤的团队,只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS类技术。随后,生成长度开始再次增加,此时出现了自我反思机制。
全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻
看
572
回复
评论
点赞
3
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-26
标题党 你说雷军天天花钱顾一棒子**写这个干嘛呢
从狗狗币到政府区块链:马斯克的 “数字野心” 如何落地?
据知情人士透露,马斯克已在新成立的美国政府效率部发起有关使用区块链技术的讨论,这是特朗普政府支持数字资产行业的最新举措。知情人士透露,政府效率部相关人员已与多个公共区块链的代表会面,对其技术进行评估。区块链将是马斯克及其团队尝试用于削减成本、消除浪费性支出、欺诈和滥用行为的几种技术工具之一,这也是特朗普在 2024 年竞选时的关键议题。
从狗狗币到政府区块链:马斯克的 “数字野心” 如何落地?
看
1,234
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-25
又一篇粪作 我真的在蹲大号看这篇文章
比傻钱还傻的资金拼命买入美股
不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。报道称,韩国投资者去年持有的美国股票激增了65%。不仅是普通散户在购买美国股票,机构投资者也在加入。
比傻钱还傻的资金拼命买入美股
看
1,042
回复
评论
点赞
2
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-25
比 比傻钱还傻的资金 的**在写这篇评论
比傻钱还傻的资金拼命买入美股
不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。报道称,韩国投资者去年持有的美国股票激增了65%。不仅是普通散户在购买美国股票,机构投资者也在加入。
比傻钱还傻的资金拼命买入美股
看
921
回复
评论
点赞
5
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-21
马斯克配图不对啊 不敢上真图?
非常抱歉,此主贴已删除
看
539
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
金刚狼割韭菜
金刚狼割韭菜
·
01-18
还真是典型的中国思维 又一篇茅坑文章
非常抱歉,此主贴已删除
看
1,298
回复
1
点赞
5
编组 21备份 2
分享
举报
加载更多
热议股票
{"i18n":{"language":"zh_CN"},"isCurrentUser":false,"userPageInfo":{"id":"3548847772856151","uuid":"3548847772856151","gmtCreate":1585757954709,"gmtModify":1667095058069,"name":"金刚狼割韭菜","pinyin":"jglgjcjinganglanggejiucai","introduction":"","introductionEn":"","signature":"禅定。","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":3,"headSize":38,"tweetSize":102,"questionSize":0,"limitLevel":999,"accountStatus":4,"level":{"id":1,"name":"萌萌虎","nameTw":"萌萌虎","represent":"呱呱坠地","factor":"评论帖子3次或发布1条主帖(非转发)","iconColor":"3C9E83","bgColor":"A2F1D9"},"themeCounts":0,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":6,"symbols":null,"coverImage":null,"realNameVerified":null,"userBadges":[{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-3","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"偶像虎友","description":"加入老虎社区1500天","bigImgUrl":"https://static.tigerbbs.com/8b40ae7da5bf081a1c84df14bf9e6367","smallImgUrl":"https://static.tigerbbs.com/f160eceddd7c284a8e1136557615cfad","grayImgUrl":"https://static.tigerbbs.com/11792805c468334a9b31c39f95a41c6a","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2024.05.11","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001},{"badgeId":"02aa7f16703b4ce4ace6f1a7665789cc-1","templateUuid":"02aa7f16703b4ce4ace6f1a7665789cc","name":"知识体验官","description":"观看学堂课程满5节","bigImgUrl":"https://static.tigerbbs.com/fb5ae275631fb96a92d475cdc85d2302","smallImgUrl":"https://static.tigerbbs.com/c2660a1935bd2105e97c9915619936c3","grayImgUrl":null,"redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2022.08.05","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":2006},{"badgeId":"228c86a078844d74991fff2b7ab2428d-3","templateUuid":"228c86a078844d74991fff2b7ab2428d","name":"投资合伙人虎","description":"证券账户累计交易金额达到100万美元","bigImgUrl":"https://static.tigerbbs.com/fbeac6bb240db7da8b972e5183d050ba","smallImgUrl":"https://static.tigerbbs.com/436cdf80292b99f0a992e78750ac4e3a","grayImgUrl":"https://static.tigerbbs.com/506a259a7b456f037592c3b23c779599","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.28","exceedPercentage":"93.58%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1101},{"badgeId":"976c19eed35f4cd78f17501c2e99ef37-1","templateUuid":"976c19eed35f4cd78f17501c2e99ef37","name":"博闻投资者","description":"累计交易超过10只正股","bigImgUrl":"https://static.tigerbbs.com/e74cc24115c4fbae6154ec1b1041bf47","smallImgUrl":"https://static.tigerbbs.com/d48265cbfd97c57f9048db29f22227b0","grayImgUrl":"https://static.tigerbbs.com/76c6d6898b073c77e1c537ebe9ac1c57","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1102},{"badgeId":"518b5610c3e8410da5cfad115e4b0f5a-1","templateUuid":"518b5610c3e8410da5cfad115e4b0f5a","name":"实盘交易者","description":"完成一笔实盘交易","bigImgUrl":"https://static.tigerbbs.com/2e08a1cc2087a1de93402c2c290fa65b","smallImgUrl":"https://static.tigerbbs.com/4504a6397ce1137932d56e5f4ce27166","grayImgUrl":"https://static.tigerbbs.com/4b22c79415b4cd6e3d8ebc4a0fa32604","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100},{"badgeId":"35ec162348d5460f88c959321e554969-3","templateUuid":"35ec162348d5460f88c959321e554969","name":"传说交易员","description":"证券或期货账户累计交易次数达到300次","bigImgUrl":"https://static.tigerbbs.com/656db16598a0b8f21429e10d6c1cb033","smallImgUrl":"https://static.tigerbbs.com/03f10910d4dd9234f9b5702a3342193a","grayImgUrl":"https://static.tigerbbs.com/0c767e35268feb729d50d3fa9a386c5a","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":"93.36%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100}],"userBadgeCount":6,"currentWearingBadge":null,"individualDisplayBadges":null,"crmLevel":1,"crmLevelSwitch":0,"location":"海外","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":4,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"page":1,"watchlist":null,"tweetList":[{"id":398750752661928,"gmtCreate":1738373572968,"gmtModify":1738379941427,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"对 奥特曼一般都能把怪兽揍的屁滚尿流","listText":"对 奥特曼一般都能把怪兽揍的屁滚尿流","text":"对 奥特曼一般都能把怪兽揍的屁滚尿流","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/398750752661928","repostId":"1101056901","repostType":2,"repost":{"id":"1101056901","kind":"news","pubTimestamp":1738372069,"share":"https://www.laohu8.com/m/news/1101056901?lang=&edition=full","pubTime":"2025-02-01 09:07","market":"us","language":"zh","title":"奥特曼率队“血战”DeepSeek,o3-mini急上线!免费体验","url":"https://stock-news.laohu8.com/highlight/detail?id=1101056901","media":"新智元","summary":"ChatGPT被挤爆。","content":"<html><head></head><body><p> 眼看DeepSeek风头尽显,被逼急的OpenAI果然紧急发布了o3-mni。不光免费用户都能用,每百万输入和输出token价格更是疯狂跳水打骨折价!</p><p style=\"text-align: start;\"> o3-mini,真的来了。</p><p style=\"text-align: start;\"> 刚刚,OpenAI官宣o3-mini和o3-mini-high两大版本正式在ChatGPT上线。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5d85b826e9b9f1c50b185150688e755a\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"332\"/></p><p style=\"text-align: start;\"> 诚如奥特曼所言,免费用户直接打开‘Reason’即可体验,Plus用户每天会有更多用量,具体来说:</p><p style=\"text-align: start;\"> - ChatGPT免费版:首次体验推理模型</p><p style=\"text-align: start;\"> - ChatGPT Plus和团队版:每天150次对话限制</p><p style=\"text-align: start;\"> - ChatGPT Pro:无限制访问</p><p style=\"text-align: start;\"> - ChatGPT Enterprise和ChatGPT Edu:将在一周内可用</p><p style=\"text-align: start;\"> - API:向3-5级开发者开放(初期暂不支持图像分析功能)</p><p style=\"text-align: start;\"> - 输入1.10美元/百万token、输出4.40美元/百万token</p><p style=\"text-align: start;\"> 感谢DeepSeek,o3-mini的价格这次算是彻底给打下来了——比OpenAI o1-mini便宜63%,比满血版o1便宜93%。(但仍是GPT-4o mini的7倍左右)</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c2895439d1b8866e21da0038fd4b4afd\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"334\"/></p><p style=\"text-align: start;\"> 订阅用户已经在第一时间‘告别’了o1-mini,还没来得及说再见</p><p style=\"text-align: start;\"> OpenAI表示,o3-mini的发布是在追求高效能智能技术道路上的又一重要里程碑。</p><p style=\"text-align: start;\"> 通过优化科学(Science)、技术(Technology)、工程(Engineering)和数学(Mathematics)领域的推理能力,同时保持较低的成本,让高质量AI技术变得更加平易近人。</p><p style=\"text-align: start;\"> 值得一提的是,在ChatGPT中,o3-mini采用的是‘中等推理强度’,在速度和准确性之间取得平衡。所有付费用户还可以在模型选择器中选择o3-mini-high——响应时间略长但智能水平更高的版本。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d6fffcb251446bc9af83a8ebb2d939a2\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"377\"/></p><p style=\"text-align: start;\"> 目前,由于太过火爆,ChatGPT的项目和自定义GPTs功能都已经被挤崩了。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/33d9fc42e6c8aabcd84dbc04acd4d123\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"345\"/></p><p style=\"text-align: start;\"> 集成搜索,两种版本可选</p><p style=\"text-align: start;\"> 去年12月,十二天直播最后一弹,o3系列首次亮相便惊艳了所有人。相较于上一代o1模型,o3在ARC-AGI等多项基准测试中刷新SOTA。</p><p style=\"text-align: start;\"> 与o1-mini一样,o3-mini是最具性价比的推理模型,可谓是突破性能边界的‘小巨人’。</p><p style=\"text-align: start;\"> 在STEM领域,尤其是科学、数学和编程等方面,o3-mini性能表现卓越超越o1,并继承了上一代低成本和低延迟的优点。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a774470fd1b3061e5b54e1b513311fb\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"499\"/></p><p style=\"text-align: start;\"> 对于开发者来说,o3-mini简直就是一份‘大礼包’,它首次在小型推理模型中支持:包括函数调用、结构化输出和开发者消息、流式传输功能。</p><p style=\"text-align: start;\"> 开发者可以根据需求选择低、中、高三种推理强度,让o3-mini在处理复杂问题时进行‘深度思考’,灵活平衡速度和准确性。</p><p style=\"text-align: start;\"> 遗憾地是,o3-mini暂不支持视觉功能。</p><p style=\"text-align: start;\"> 如前所述,从今天起,o3-mini将通过Chat Completions API,Assistants API和Batch API向3-5级指定开发者开放。</p><p style=\"text-align: start;\"> 同时,o3-mini还整合了搜索功能,能够提供带有相关网络来源链接最新响应。</p><p style=\"text-align: start;\"> 一起来看看这款‘小而美’的o3-mini有什么过人之处。</p><p style=\"text-align: start;\"> 快速、强大、专为STEM领域推理优化</p><p style=\"text-align: start;\"> 与其前身OpenAI o1类似,OpenAI o3-mini专门针对STEM推理进行了优化。</p><p style=\"text-align: start;\"> 采用了中等推理强度的o3-mini,在数学、编程和科学领域的表现与o1不相上下,且响应速度更快。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f0baaf2add5780b634fc87cd9746eae3\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"164\"/></p><p style=\"text-align: start;\"> 报告地址:https://cdn.openai.com/o3-mini-system-card.pdf</p><p style=\"text-align: start;\"> 专家测试评估显示,o3-mini相比o1-mini能够生成更准确、更清晰的答案,推理能力更强。</p><p style=\"text-align: start;\"> 在测试中,o3-mini的响应结果获得了56%的偏好度,在处理复杂现实问题时的重大错误率更是降低了39%。</p><p style=\"text-align: start;\"> 在中等推理强度设置下,o3-mini在最具挑战性的推理和智能评估项目(包括AIME和GPQA)中,均达到了与o1相当的水平。</p><p style=\"text-align: start;\"> 数学竞赛(AIME 2024)</p><p style=\"text-align: start;\"> 在低推理强度下,o3-mini达到了与o1-mini相当的水平;在中等推理强度下,其表现可与o1媲美;而在高推理强度下,o3-mini的表现更是超越了o1-mini和o1。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/29051a93c44cfb4afc5b916099d3e527\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"483\"/></p><p style=\"text-align: start;\"> 博士级科学问题(GPQA Diamond)</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f155826633b83db7524a18fd31136f9c\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"418\"/></p><p style=\"text-align: start;\"> 研究级数学(FrontierMath)</p><p style=\"text-align: start;\"> 在高推理强度模式下,o3-mini在FrontierMath中的表现优于前代产品。当配合Python工具使用时,高推理强度的o3-mini能够一次性解决超过32%的测试题目,其中包括28%以上的T3级问题。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/854259d77b23d108aeabd23314bae2be\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"171\"/></p><p style=\"text-align: start;\"> 编程竞赛(Codeforces)</p><p style=\"text-align: start;\"> 随着推理强度的提升,OpenAI o3-mini的Elo得分不断提高,各层级表现均优于o1-mini。在中等推理强度下,其表现已能与o1相媲美。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/eaac5fb7f89007beff0b0662b0185187\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"417\"/></p><p style=\"text-align: start;\"> 软件工程(SWE-bench Verified)</p><p style=\"text-align: start;\"> o3-mini在高推理强度模式下,使用开源Agentless框架能达到39%的成功率,使用内部工具框架则可达到61%的成功率。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/522e56cb834315a0a8ff1a61eca7da4f\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"559\"/></p><p style=\"text-align: start;\"> LiveBench编码</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/036af7bfca03083a39a6a462ea317f40\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"204\"/></p><p style=\"text-align: start;\"> 人类偏好评估</p><p style=\"text-align: start;\"> 外部专家评测结果显示,o3-mini较o1-mini表现出更强的推理能力,能够生成更准确、更清晰的答案,尤其是在STEM领域中。在对比测试中,o3-mini获得了56%的用户偏好度,且在处理复杂现实问题时的重大错误率降低了39%。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1d9f300dbee0c1fa4ecd0098ee06c95e\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"624\"/></p><p style=\"text-align: start;\"> 在技术报告中,o3-mini编程性能超越了GPT-4o和o1-preview,与o1不相上下。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9d5fe94ae0daab3acc4df5490e659227\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"187\"/></p><p style=\"text-align: start;\"> 模型的速度与性能</p><p style=\"text-align: start;\"> o3-mini在保持与o1相当智能水平的同时,实现了更快的运行速度和更高的计算效率。</p><p style=\"text-align: start;\"> 除前文提到的STEM评估外,在中等推理强度下,o3-mini在其他数学能力和事实准确性测试中均取得了显著优势。</p><p style=\"text-align: start;\"> 对比测试(A/B Testing)结果显示,o3-mini的平均响应时间为7.7秒,较o1-mini的10.16秒提升了24%。</p><p style=\"text-align: start;\"> o1-mini和o3-mini(medium)的延迟对比</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/75f988a85d34378630474da91eef0dfb\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"462\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e9608c4d8b28900767f12e8d4ba68db3\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"151\"/></p><p style=\"text-align: start;\"> 安全评估</p><p style=\"text-align: start;\"> OpenAI在训练o3-mini确保其安全响应,采用的关键技术之一是审慎对齐(deliberative alignment)。</p><p style=\"text-align: start;\"> 这项技术使模型能够在响应用户提示词前,对人工制定的安全规范进行全面推理。</p><p style=\"text-align: start;\"> 与o1相似,o3-mini在高难度安全性测试和越狱评估中,明显优于GPT-4o。</p><p style=\"text-align: start;\"> 在正式部署前,研究人员采用与o1相同的准备方法,结合外部红队测试和安全性评估,对o3-mini的安全风险进行了全面评估。</p><p style=\"text-align: start;\"> 禁止内容评估</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/11f65d312ff224af0da76315f2a81939\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"225\"/></p><p style=\"text-align: start;\"> 越狱评估</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9a73a548a900a8919fe8671ffe7da647\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"194\"/></p><p style=\"text-align: start;\"> OpenAI急了</p><p style=\"text-align: start;\"> 去年年底放出o3和o3-mini的预览时,CEO奥特曼就曾表示,o3-mini将会在1月份发布。</p><p style=\"text-align: start;\"> 随后,奥特曼又在1月17日预告称,o3-mini会在几周内发布。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e8c8121bd5d45e153fb146efaa41369a\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"312\"/></p><p style=\"text-align: start;\"> 现在,o3-mini果然如约而至(卡在ddl最后一天),但外面的世界已经是天差地别。</p><p style=\"text-align: start;\"> 面对正在快速崛起的DeepSeek-R1,o3-mini存在着一个关键问题——‘不开源’。</p><p style=\"text-align: start;\"> 这也就意味着,它无法离线使用、无法下载代码,也无法以相同的程度进行自定义。对于很多应用过来说,它的吸引力相对于R1明显大打折扣。</p><p style=\"text-align: start;\"> 在上下文窗口方面,DeepSeek-R1约为128K/130K token,而o3-mini略胜一筹达到了200K token。其中,每个输出最多100K token,跟满血版o1相同。</p><p style=\"text-align: start;\"> 在价格方面,相比于输入/输出token分别为0.14/0.55美元的DeepSeek-R1,o3-mini依然贵出了天际。</p><p style=\"text-align: start;\"> 但作为一款美国模型,o3-mini在身份上无疑占尽了好处:应该会是欧美很多企业的首选。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3a93fb5ad2854365a650dbf713ccc8f1\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"336\"/></p><p style=\"text-align: start;\"> 奥特曼亲自率队</p><p style=\"text-align: start;\"> 这一次,最强最新的o3-mini模型训练,奥特曼本尊下场亲自率队。研究项目主管分别是Carpus Chang和Kristen Ying。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/08d8c60f7b55269094f03e254ae54504\" alt=\"\" title=\"\" tg-width=\"550\" tg-height=\"1110\"/></p><p style=\"text-align: start;\"> 接下来,如果说OpenAI还藏在什么杀手锏,那就是满血版的o3了。根据12月时的说法,它将在‘此后不久’发布。</p></body></html>","source":"lsy1569730104218","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>奥特曼率队“血战”DeepSeek,o3-mini急上线!免费体验</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n奥特曼率队“血战”DeepSeek,o3-mini急上线!免费体验\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-02-01 09:07 北京时间 <a href=https://finance.sina.com.cn/tech/internet/2025-02-01/doc-inehxnsk0840776.shtml><strong>新智元</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>眼看DeepSeek风头尽显,被逼急的OpenAI果然紧急发布了o3-mni。不光免费用户都能用,每百万输入和输出token价格更是疯狂跳水打骨折价! o3-mini,真的来了。 刚刚,OpenAI官宣o3-mini和o3-mini-high两大版本正式在ChatGPT上线。 诚如奥特曼所言,免费用户直接打开‘Reason’即可体验,Plus用户每天会有更多用量,具体来说: - ...</p>\n\n<a href=\"https://finance.sina.com.cn/tech/internet/2025-02-01/doc-inehxnsk0840776.shtml\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/1f94b93604bfb69924bf114f33b52cfb","relate_stocks":{},"source_url":"https://finance.sina.com.cn/tech/internet/2025-02-01/doc-inehxnsk0840776.shtml","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1101056901","content_text":"眼看DeepSeek风头尽显,被逼急的OpenAI果然紧急发布了o3-mni。不光免费用户都能用,每百万输入和输出token价格更是疯狂跳水打骨折价! o3-mini,真的来了。 刚刚,OpenAI官宣o3-mini和o3-mini-high两大版本正式在ChatGPT上线。 诚如奥特曼所言,免费用户直接打开‘Reason’即可体验,Plus用户每天会有更多用量,具体来说: - ChatGPT免费版:首次体验推理模型 - ChatGPT Plus和团队版:每天150次对话限制 - ChatGPT Pro:无限制访问 - ChatGPT Enterprise和ChatGPT Edu:将在一周内可用 - API:向3-5级开发者开放(初期暂不支持图像分析功能) - 输入1.10美元/百万token、输出4.40美元/百万token 感谢DeepSeek,o3-mini的价格这次算是彻底给打下来了——比OpenAI o1-mini便宜63%,比满血版o1便宜93%。(但仍是GPT-4o mini的7倍左右) 订阅用户已经在第一时间‘告别’了o1-mini,还没来得及说再见 OpenAI表示,o3-mini的发布是在追求高效能智能技术道路上的又一重要里程碑。 通过优化科学(Science)、技术(Technology)、工程(Engineering)和数学(Mathematics)领域的推理能力,同时保持较低的成本,让高质量AI技术变得更加平易近人。 值得一提的是,在ChatGPT中,o3-mini采用的是‘中等推理强度’,在速度和准确性之间取得平衡。所有付费用户还可以在模型选择器中选择o3-mini-high——响应时间略长但智能水平更高的版本。 目前,由于太过火爆,ChatGPT的项目和自定义GPTs功能都已经被挤崩了。 集成搜索,两种版本可选 去年12月,十二天直播最后一弹,o3系列首次亮相便惊艳了所有人。相较于上一代o1模型,o3在ARC-AGI等多项基准测试中刷新SOTA。 与o1-mini一样,o3-mini是最具性价比的推理模型,可谓是突破性能边界的‘小巨人’。 在STEM领域,尤其是科学、数学和编程等方面,o3-mini性能表现卓越超越o1,并继承了上一代低成本和低延迟的优点。 对于开发者来说,o3-mini简直就是一份‘大礼包’,它首次在小型推理模型中支持:包括函数调用、结构化输出和开发者消息、流式传输功能。 开发者可以根据需求选择低、中、高三种推理强度,让o3-mini在处理复杂问题时进行‘深度思考’,灵活平衡速度和准确性。 遗憾地是,o3-mini暂不支持视觉功能。 如前所述,从今天起,o3-mini将通过Chat Completions API,Assistants API和Batch API向3-5级指定开发者开放。 同时,o3-mini还整合了搜索功能,能够提供带有相关网络来源链接最新响应。 一起来看看这款‘小而美’的o3-mini有什么过人之处。 快速、强大、专为STEM领域推理优化 与其前身OpenAI o1类似,OpenAI o3-mini专门针对STEM推理进行了优化。 采用了中等推理强度的o3-mini,在数学、编程和科学领域的表现与o1不相上下,且响应速度更快。 报告地址:https://cdn.openai.com/o3-mini-system-card.pdf 专家测试评估显示,o3-mini相比o1-mini能够生成更准确、更清晰的答案,推理能力更强。 在测试中,o3-mini的响应结果获得了56%的偏好度,在处理复杂现实问题时的重大错误率更是降低了39%。 在中等推理强度设置下,o3-mini在最具挑战性的推理和智能评估项目(包括AIME和GPQA)中,均达到了与o1相当的水平。 数学竞赛(AIME 2024) 在低推理强度下,o3-mini达到了与o1-mini相当的水平;在中等推理强度下,其表现可与o1媲美;而在高推理强度下,o3-mini的表现更是超越了o1-mini和o1。 博士级科学问题(GPQA Diamond) 研究级数学(FrontierMath) 在高推理强度模式下,o3-mini在FrontierMath中的表现优于前代产品。当配合Python工具使用时,高推理强度的o3-mini能够一次性解决超过32%的测试题目,其中包括28%以上的T3级问题。 编程竞赛(Codeforces) 随着推理强度的提升,OpenAI o3-mini的Elo得分不断提高,各层级表现均优于o1-mini。在中等推理强度下,其表现已能与o1相媲美。 软件工程(SWE-bench Verified) o3-mini在高推理强度模式下,使用开源Agentless框架能达到39%的成功率,使用内部工具框架则可达到61%的成功率。 LiveBench编码 人类偏好评估 外部专家评测结果显示,o3-mini较o1-mini表现出更强的推理能力,能够生成更准确、更清晰的答案,尤其是在STEM领域中。在对比测试中,o3-mini获得了56%的用户偏好度,且在处理复杂现实问题时的重大错误率降低了39%。 在技术报告中,o3-mini编程性能超越了GPT-4o和o1-preview,与o1不相上下。 模型的速度与性能 o3-mini在保持与o1相当智能水平的同时,实现了更快的运行速度和更高的计算效率。 除前文提到的STEM评估外,在中等推理强度下,o3-mini在其他数学能力和事实准确性测试中均取得了显著优势。 对比测试(A/B Testing)结果显示,o3-mini的平均响应时间为7.7秒,较o1-mini的10.16秒提升了24%。 o1-mini和o3-mini(medium)的延迟对比 安全评估 OpenAI在训练o3-mini确保其安全响应,采用的关键技术之一是审慎对齐(deliberative alignment)。 这项技术使模型能够在响应用户提示词前,对人工制定的安全规范进行全面推理。 与o1相似,o3-mini在高难度安全性测试和越狱评估中,明显优于GPT-4o。 在正式部署前,研究人员采用与o1相同的准备方法,结合外部红队测试和安全性评估,对o3-mini的安全风险进行了全面评估。 禁止内容评估 越狱评估 OpenAI急了 去年年底放出o3和o3-mini的预览时,CEO奥特曼就曾表示,o3-mini将会在1月份发布。 随后,奥特曼又在1月17日预告称,o3-mini会在几周内发布。 现在,o3-mini果然如约而至(卡在ddl最后一天),但外面的世界已经是天差地别。 面对正在快速崛起的DeepSeek-R1,o3-mini存在着一个关键问题——‘不开源’。 这也就意味着,它无法离线使用、无法下载代码,也无法以相同的程度进行自定义。对于很多应用过来说,它的吸引力相对于R1明显大打折扣。 在上下文窗口方面,DeepSeek-R1约为128K/130K token,而o3-mini略胜一筹达到了200K token。其中,每个输出最多100K token,跟满血版o1相同。 在价格方面,相比于输入/输出token分别为0.14/0.55美元的DeepSeek-R1,o3-mini依然贵出了天际。 但作为一款美国模型,o3-mini在身份上无疑占尽了好处:应该会是欧美很多企业的首选。 奥特曼亲自率队 这一次,最强最新的o3-mini模型训练,奥特曼本尊下场亲自率队。研究项目主管分别是Carpus Chang和Kristen Ying。 接下来,如果说OpenAI还藏在什么杀手锏,那就是满血版的o3了。根据12月时的说法,它将在‘此后不久’发布。","news_type":1},"isVote":1,"tweetType":1,"viewCount":785,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":397744173232600,"gmtCreate":1738127829705,"gmtModify":1738128561499,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"如果我是中国AI公司我会开始担心美国公司限制开元 没得抄了也就吹最后一波了","listText":"如果我是中国AI公司我会开始担心美国公司限制开元 没得抄了也就吹最后一波了","text":"如果我是中国AI公司我会开始担心美国公司限制开元 没得抄了也就吹最后一波了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/397744173232600","repostId":"1122646398","repostType":2,"repost":{"id":"1122646398","kind":"news","pubTimestamp":1738124339,"share":"https://www.laohu8.com/m/news/1122646398?lang=&edition=full","pubTime":"2025-01-29 12:18","market":"us","language":"zh","title":"中国不只有DeepSeek,阿里除夕夜抛出重磅新模型,是时候整体重估中国AI资产了吗?","url":"https://stock-news.laohu8.com/highlight/detail?id=1122646398","media":"硬AI","summary":"继DeepSeek之后,Qwen2.5-Max的发布是中国AI阵营在高性能、低成本技术路线上的又一重要突破。市场人士分析称,此前过度聚焦DeepSeek,却忽视了包括阿里通义在内的中国AI整体性追赶。02是时候整体重估中国AI资产了吗?如果说DeepSeek V3的横空出世展现了中国AI的锐度,那么本次阿里的突破则体现了产业生态的深度进化。如果阿里Qwen-2.5-max的性能确实展现出预期水平,加之其低成本优势与完整云生态,有理由期待,它将引发DeepSeek之后的中国AI资产新一轮重估。","content":"<html><head></head><body><blockquote><p>当阿里云展现出"强大模型+充足算力+完整云平台"的组合优势时,是否印证了类似去年北美云计算服务商的投资逻辑?</p></blockquote><p style=\"text-align: justify;\">农历除夕夜,在全球华人喜迎新春之时,纽约证券交易所的电子屏上,<strong><a href=\"https://laohu8.com/S/BABA\">阿里巴巴</a>股价在收盘前出现显著异动——从涨幅1%快速拉升至6.7%。</strong></p><p><strong>行情异动的背后,是一场没有硝烟的技术奇袭。</strong></p><p>1月29日凌晨,<strong>阿里通义千问团队悄然上线的大模型Qwen2.5-Max,在多个权威基准测试中展现出与全球顶级模型比肩的性能。</strong></p><p>继DeepSeek之后,Qwen2.5-Max的发布是中国AI阵营在高性能、低成本技术路线上的又一重要突破。</p><p>市场人士分析称,此前过度聚焦DeepSeek,却忽视了包括阿里通义在内的中国AI整体性追赶。行业媒体《信息平权》表示,若阿里Qwen-2.5-max这次的确性能超过V3,可以对其RL推理模型给予更大期待。</p><p>进一步,<strong>当阿里云展现出"强大模型+充足算力+完整云平台"的组合优势时,是否印证了类似去年北美云计算服务商的投资逻辑?</strong></p><p><strong>如果美股因AI整体增值10万亿美元,中国AI资产的重估时机是否已至?</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/945e5aa938102a1aed4c87ce9d700949\" tg-width=\"560\" tg-height=\"240\"/></p><h2 id=\"id_2365375765\">01</h2><h2 id=\"id_318324864\">全面对标全球顶级模型,百万token里程碑</h2><p style=\"text-align: justify;\">Qwen2.5-Max采用超大规模MoE(混合专家)架构,基于超过20万亿token的预训练数据。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6439d2475856310facd7416ab158b92d\" alt=\"\" title=\"\" tg-width=\"571\" tg-height=\"91\"/></p><p>在测试大学水平知识的MMLU-Pro、评估编程能力的LiveCodeBench、综合能力评估的LiveBench,以及近似人类偏好的Arena-Hard等多个权威评测中,<strong><em>该模型均展现出与DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩,甚至领先的性能。</em></strong></p><p>阿里团队表示,随着后训练技术的不断进步,下一个版本将有望达到更高水平。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bfbd329ef3dbf3bb78af23f1cb1541cf\" alt=\"\" title=\"\" tg-width=\"1024\" tg-height=\"581\"/></p><p>Qwen2.5团队同步发布了两个创新型号:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。<strong><em>这些开源模型支持高达100万token的上下文窗口,成为业内首个达到此规模的公开可用模型。</em></strong></p><p>这些模型使用稀疏注意力,只关注上下文中最重要的部分。这种方法处理百万token输入的速度比传统方法快3到7倍,输出长度可达8000个token。然而,这需要模型识别上下文文档中的关键段落——这是当前语言模型经常难以完成的任务。</p><p>在测试中,14B型号和Qwen2.5-Turbo在查找非常长的文档中的隐藏数字时都达到了完美的准确性。较小的7B型号也表现良好,只有轻微的错误。</p><p>在RULER、LV-Eval和LongbenchChat等要求更高的复杂的上下文测试中,百万token模型的表现优于128K token模型,尤其是在超过64K token的序列中,14B型号甚至在RULER中得分超过90分——这是Qwen系列的第一次——在多个数据集上持续击败gpt - 4o mini。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2122b709ee813735624bb80c0615af4d\" alt=\"\" title=\"\" tg-width=\"1024\" tg-height=\"500\"/></p><h2 id=\"id_479248133\">02</h2><h2 id=\"id_4279666145\">是时候整体重估中国AI资产了吗?</h2><p style=\"text-align: justify;\">如果说DeepSeek V3的横空出世展现了中国AI的锐度,那么本次阿里的突破则体现了产业生态的深度进化。</p><p>在Qwen2.5-Max发布当天,阿里云百炼平台同步开放了完整的工具链支持,开发者可以直接在云端调用。这种"超算集群+开源生态+云原生"的三位一体架构,与北美AWS、Azure、GCP三大云服务商的商业模式形成镜像。</p><p>此外,根据我们之前提到的<a href=\"https://laohu8.com/S/MS\">摩根士丹利</a>最新研报,低成本高性能模型也将重塑数据中心和软件行业格局:</p><blockquote><p>对于中国数据中心而言,短期内,如果大型科技公司采用类似技术路线,可能减少AI训练相关需求。但从长远来看,低成本模型将推动推理需求增长,对一线城市数据中心形成利好;</p><p>对于<a href=\"https://laohu8.com/S/600536\">中国软件</a>行业,AI模型成本的降低将降低应用程序运行AI功能的门槛,从供给侧改善行业环境。</p></blockquote><p>如果阿里Qwen-2.5-max的性能确实展现出预期水平,加之其低成本优势与完整云生态,有理由期待,它将引发DeepSeek之后的中国AI资产新一轮重估。</p></body></html>","source":"lsy1690508328926","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>中国不只有DeepSeek,阿里除夕夜抛出重磅新模型,是时候整体重估中国AI资产了吗?</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n中国不只有DeepSeek,阿里除夕夜抛出重磅新模型,是时候整体重估中国AI资产了吗?\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-01-29 12:18 北京时间 <a href=https://mp.weixin.qq.com/s/9Xsd4MieeNUHDxC2SGBZEQ><strong>硬AI</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>当阿里云展现出\"强大模型+充足算力+完整云平台\"的组合优势时,是否印证了类似去年北美云计算服务商的投资逻辑?农历除夕夜,在全球华人喜迎新春之时,纽约证券交易所的电子屏上,阿里巴巴股价在收盘前出现显著异动——从涨幅1%快速拉升至6.7%。行情异动的背后,是一场没有硝烟的技术奇袭。1月29日凌晨,阿里通义千问团队悄然上线的大模型Qwen2.5-Max,在多个权威基准测试中展现出与全球顶级模型比肩的性能...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/9Xsd4MieeNUHDxC2SGBZEQ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/af72d99d957fc5b849074d7b8b86dd9a","relate_stocks":{},"source_url":"https://mp.weixin.qq.com/s/9Xsd4MieeNUHDxC2SGBZEQ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1122646398","content_text":"当阿里云展现出\"强大模型+充足算力+完整云平台\"的组合优势时,是否印证了类似去年北美云计算服务商的投资逻辑?农历除夕夜,在全球华人喜迎新春之时,纽约证券交易所的电子屏上,阿里巴巴股价在收盘前出现显著异动——从涨幅1%快速拉升至6.7%。行情异动的背后,是一场没有硝烟的技术奇袭。1月29日凌晨,阿里通义千问团队悄然上线的大模型Qwen2.5-Max,在多个权威基准测试中展现出与全球顶级模型比肩的性能。继DeepSeek之后,Qwen2.5-Max的发布是中国AI阵营在高性能、低成本技术路线上的又一重要突破。市场人士分析称,此前过度聚焦DeepSeek,却忽视了包括阿里通义在内的中国AI整体性追赶。行业媒体《信息平权》表示,若阿里Qwen-2.5-max这次的确性能超过V3,可以对其RL推理模型给予更大期待。进一步,当阿里云展现出\"强大模型+充足算力+完整云平台\"的组合优势时,是否印证了类似去年北美云计算服务商的投资逻辑?如果美股因AI整体增值10万亿美元,中国AI资产的重估时机是否已至?01全面对标全球顶级模型,百万token里程碑Qwen2.5-Max采用超大规模MoE(混合专家)架构,基于超过20万亿token的预训练数据。在测试大学水平知识的MMLU-Pro、评估编程能力的LiveCodeBench、综合能力评估的LiveBench,以及近似人类偏好的Arena-Hard等多个权威评测中,该模型均展现出与DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩,甚至领先的性能。阿里团队表示,随着后训练技术的不断进步,下一个版本将有望达到更高水平。Qwen2.5团队同步发布了两个创新型号:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。这些开源模型支持高达100万token的上下文窗口,成为业内首个达到此规模的公开可用模型。这些模型使用稀疏注意力,只关注上下文中最重要的部分。这种方法处理百万token输入的速度比传统方法快3到7倍,输出长度可达8000个token。然而,这需要模型识别上下文文档中的关键段落——这是当前语言模型经常难以完成的任务。在测试中,14B型号和Qwen2.5-Turbo在查找非常长的文档中的隐藏数字时都达到了完美的准确性。较小的7B型号也表现良好,只有轻微的错误。在RULER、LV-Eval和LongbenchChat等要求更高的复杂的上下文测试中,百万token模型的表现优于128K token模型,尤其是在超过64K token的序列中,14B型号甚至在RULER中得分超过90分——这是Qwen系列的第一次——在多个数据集上持续击败gpt - 4o mini。02是时候整体重估中国AI资产了吗?如果说DeepSeek V3的横空出世展现了中国AI的锐度,那么本次阿里的突破则体现了产业生态的深度进化。在Qwen2.5-Max发布当天,阿里云百炼平台同步开放了完整的工具链支持,开发者可以直接在云端调用。这种\"超算集群+开源生态+云原生\"的三位一体架构,与北美AWS、Azure、GCP三大云服务商的商业模式形成镜像。此外,根据我们之前提到的摩根士丹利最新研报,低成本高性能模型也将重塑数据中心和软件行业格局:对于中国数据中心而言,短期内,如果大型科技公司采用类似技术路线,可能减少AI训练相关需求。但从长远来看,低成本模型将推动推理需求增长,对一线城市数据中心形成利好;对于中国软件行业,AI模型成本的降低将降低应用程序运行AI功能的门槛,从供给侧改善行业环境。如果阿里Qwen-2.5-max的性能确实展现出预期水平,加之其低成本优势与完整云生态,有理由期待,它将引发DeepSeek之后的中国AI资产新一轮重估。","news_type":1},"isVote":1,"tweetType":1,"viewCount":577,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":397712909594816,"gmtCreate":1738120559177,"gmtModify":1738121154331,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"你看看 功劳全是自己的错误全是别人的 ","listText":"你看看 功劳全是自己的错误全是别人的 ","text":"你看看 功劳全是自己的错误全是别人的","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/397712909594816","repostId":"1140162574","repostType":2,"isVote":1,"tweetType":1,"viewCount":581,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":397377112613408,"gmtCreate":1738038067409,"gmtModify":1738039165879,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"我得感谢deep seek。 赶紧上车英伟达啊 上车AMD 和微软","listText":"我得感谢deep seek。 赶紧上车英伟达啊 上车AMD 和微软","text":"我得感谢deep seek。 赶紧上车英伟达啊 上车AMD 和微软","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":4,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/397377112613408","repostId":"1127596827","repostType":2,"isVote":1,"tweetType":1,"viewCount":572,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":396804747108736,"gmtCreate":1737898596306,"gmtModify":1737905246384,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"该AI模型适合建立人类历史第一个AI党支部","listText":"该AI模型适合建立人类历史第一个AI党支部","text":"该AI模型适合建立人类历史第一个AI党支部","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/396804747108736","repostId":"1161961252","repostType":2,"repost":{"id":"1161961252","kind":"news","pubTimestamp":1737873715,"share":"https://www.laohu8.com/m/news/1161961252?lang=&edition=full","pubTime":"2025-01-26 14:41","market":"sh","language":"zh","title":"全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻","url":"https://stock-news.laohu8.com/highlight/detail?id=1161961252","media":"新智元","summary":"就在这当口,全球复现DeepSeek的一波狂潮也来了。更令人兴奋的是,成本不到30美金,就可以亲眼见证「啊哈」时刻。7B模型复刻,结果令人惊讶港科大助理教授何俊贤的团队,只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS类技术。随后,生成长度开始再次增加,此时出现了自我反思机制。","content":"<html><head></head><body><p>这些天,硅谷彻底处于中国公司带来的大地震余波中。</p><p>全美都在恐慌:是否全球人工智能的中心已经转移到了中国?</p><p>就在这当口,全球复现DeepSeek的一波狂潮也来了。</p><p>诚如LeCun所言:「这一次,正是开源对闭源的胜利!」</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/96443f59328eead1fb03ccf0f6e8b4a7\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"519\"/></p><blockquote><p>在没有顶级芯片的情况下,以极低成本芯片训出突破性模型的DeepSeek,或将威胁到美国的AI霸权。</p><p>大模型比拼的不再是动辄千万亿美元的算力战。</p><p>OpenAI、Meta、谷歌这些大公司引以为傲的技术优势和高估值将会瓦解,英伟达的股价将开始动摇。</p></blockquote><p>种种这些观点和讨论,让人不禁怀疑:数百亿美元支出,对这个行业真的必要吗?甚至有人说,中国量化基金的一群天才,将导致纳斯达克崩盘。</p><p>从此,大模型时代很可能会进入一个分水岭:超强性能的模型不再独属于算力巨头,而是属于每个人。</p><h2 id=\"id_1782456954\">30美金,就能看到「啊哈」时刻</h2><p>来自UC伯克利博士生潘家怡和另两位研究人员,在CountDown游戏中复现了DeepSeek R1-Zero。</p><p>他们表示,结果相当出色!</p><p>实验中,团队验证了通过强化学习RL,3B的基础语言模型也能够自我验证和搜索。</p><p>更令人兴奋的是,成本不到30美金(约217元),就可以亲眼见证「啊哈」时刻。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9e5c66f649972cc1dcc1b64ac9e2312a\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"468\"/></p><p>这个项目叫做TinyZero,采用了R1-Zero算法——给定一个基础语言模型、提示和真实奖励信号,运行强化学习。</p><p>然后,团队将其应用在CountDown游戏中(这是一个玩家使用基础算术运算,将数字组合以达到目标数字的游戏)。</p><p>模型从最初的简单输出开始,逐步进化出自我纠正和搜索的策略。</p><p>在以下示例中,模型提出了解决方案,自我验证,并反复纠正,直到解决问题为止。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7fdc1973cccfff685657e93776b421a6\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"645\"/></p><p>在消融实验中,研究人员运行了Qwen-2.5-Base(0.5B、1.5B、3B、7B四种参数规模)。</p><p>结果发现,0.5B模型仅仅是猜测一个解决方案然后停止。而从1.5B开始,模型学会了搜索、自我验证和修正其解决方案,从而能够获得更高的分数。</p><p>他们认为,在这个过程,基础模型的是性能的关键。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b5bf9a119224a98c43e0746453632356\" alt=\"\" title=\"\" tg-width=\"1024\" tg-height=\"872\"/></p><p>他们还验证了,额外的指令微调(SFT)并非是必要的,这也印证了R1-Zero的设计决策。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9f1a78e6cf55328c051693886f074ca0\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"352\"/></p><p>这是首个验证LLM推理能力的实现可以纯粹通过RL,无需监督微调的开源研究</p><p>基础模型和指令模型两者区别:</p><ul style=\"list-style-type: disc;\"><li><p>指令模型运行速度快,但最终表现与基础模型相当</p></li><li><p>指令输出的模型更具结构性和可读性</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f32389410d6e5ede00b75380edf87e07\" alt=\"\" title=\"\" tg-width=\"1024\" tg-height=\"891\"/></p><p>此外,他们还发现,具体的RL算法并不重要。PPO、GRPO、PRIME这些算法中,长思维链(Long CoT)都能够涌现,且带来不错的性能表现。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/617d02e3d20394695f5f569d5f74c0d8\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1128\"/></p><p>而且,模型在推理行为中非常依赖于具体的任务:</p><ul style=\"list-style-type: disc;\"><li><p>对于Countdow任务,模型学习进行搜索和自我验证</p></li><li><p>对于数字乘法任务,模型反而学习使用分布规则分解问题,并逐步解决</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/96b4239d735ae442de73323b5bd4c965\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"643\"/></p><p>苹果机器学习科学家Yizhe Zhang对此表示,太酷了,小到1.5B的模型,也能通过RL涌现出自我验证的能力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3f01a77c2fff63fd05ba3d19af0bfeab\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"212\"/></p><h2 id=\"id_3291092331\">7B模型复刻,结果令人惊讶</h2><p>港科大助理教授何俊贤的团队(共同一作黄裕振、Weihao Zeng),只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。</p><p>结果令人惊喜——模型在复杂的数学推理上取得了十分强劲结果。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/51085fb73be2a72ee23054c18e6df557\" alt=\"\" title=\"\" tg-width=\"870\" tg-height=\"185\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/17a612e8c7859f8429ee06ebe37234bb\" alt=\"项目地址:https://github.com/hkust-nlp/simpleRL-reason\" title=\"项目地址:https://github.com/hkust-nlp/simpleRL-reason\" tg-width=\"1080\" tg-height=\"492\"/><span>项目地址:https://github.com/hkust-nlp/simpleRL-reason</span></p><p>他们以Qwen2.5-Math-7B(基础模型)为起点,直接对其进行强化学习。</p><p>整个过程中,没有进行监督微调(SFT),也没有使用奖励模型。</p><p>最终,模型在AIME基准上实现了33.3%的准确率,在AMC上为62.5%,在MATH上为77.2%。</p><p>这一表现不仅超越了Qwen2.5-Math-7B-Instruct,并且还可以和使用超过50倍数据量和更复杂组件的PRIME和rStar-MATH相媲美!</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/fc28abafaf1b99ce393cf71fc2cfb483\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"613\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/00ddd59c6d8b6ab3b8d2cf89524b23c4\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"553\"/></p><p>其中,Qwen2.5-7B-SimpleRL-Zero是在Qwen2.5-Math-7B基础模型上仅使用纯PPO方法训练的,仅采用了MATH数据集中的8K样本。</p><p>Qwen2.5-7B-SimpleRL则首先通过Long CoT监督微调(SFT)作为冷启动,然后再进行强化学习。</p><p>在这两种方法中,团队都只使用了相同的8K MATH样本,仅此而已。</p><p>大概在第44步的时候,「啊哈时刻」出现了!模型的响应中,出现了自我反思。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f3aa0b8e2d94bdc891f49c30a47aa475\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"438\"/></p><p>并且,在这个过程中,模型还显现了更长的CoT推理能力和自我反思能力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3320ec58f4e229808d3520653e70da3d\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"608\"/></p><p>在博客中,研究者详细剖析了实验设置,以及在这个强化学习训练过程中所观察到的现象,例如长链式思考(CoT)和自我反思机制的自发形成。</p><p>与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS(蒙特卡洛树搜索)类技术。</p><p>他们使用的是PPO算法,并采用基于规则的奖励函数,根据生成输出的格式和正确性分配奖励:</p><ul style=\"list-style-type: disc;\"><li><p>如果输出以指定格式提供最终答案且正确,获得+1的奖励</p></li><li><p>如果输出提供最终答案但不正确,奖励设为-0.5</p></li><li><p>如果输出未能提供最终答案,奖励设为-1</p></li></ul><p>该实现基于OpenRLHF。初步试验表明,这个奖励函数有助于策略模型快速收敛,产生符合期望格式的输出。</p><h3 id=\"id_1461976375\" style=\"text-align: center;\">第一部分:SimpleRL-Zero(从头开始的强化学习)</h3><p>接下来,研究者为我们分享了训练过程动态分析和一些有趣的涌现模式。</p><h4 id=\"id_606216327\">训练过程动态分析</h4><p>如下所示,所有基准测试的准确率在训练过程中都在稳步提高,而输出长度则呈现先减少后逐渐增加的趋势。</p><p>经过进一步调查,研究者发现,Qwen2.5-Math-7B基础模型在初始阶段倾向于生成大量代码,这可能源于模型原始训练数据的分布特征。</p><p>输出长度的首次下降,是因为强化学习训练逐渐消除了这种代码生成模式,转而学会使用自然语言进行推理。</p><p>随后,生成长度开始再次增加,此时出现了自我反思机制。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c617c450f7e378da91201c2612d6b7dc\" alt=\"训练奖励和输出长度\" title=\"训练奖励和输出长度\" tg-width=\"1076\" tg-height=\"432\"/><span>训练奖励和输出长度</span></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/59ef982da18a27da8c6263d647691fa7\" alt=\"基准测试准确率(pass@1)和输出长度\" title=\"基准测试准确率(pass@1)和输出长度\" tg-width=\"1080\" tg-height=\"924\"/><span>基准测试准确率(pass@1)和输出长度</span></p><h4 id=\"id_224279804\">自我反思机制的涌现</h4><p>在训练到第 40 步左右时,研究者观察到:模型开始形成自我反思模式,这正是DeepSeek-R1论文中所描述的「aha moment」(顿悟时刻)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/60580dff773b0a70b356c7267119e819\" alt=\"\" title=\"\" tg-width=\"1054\" tg-height=\"423\"/></p><h3 id=\"id_2889548553\" style=\"text-align: center;\">第二部分:SimpleRL(基于模仿预热的强化学习)</h3><p>如前所述,研究者在进行强化学习之前,先进行了long CoT SFT预热,使用了8,000个从QwQ-32B-Preview中提取的MATH示例响应作为SFT数据集。</p><p>这种冷启动的潜在优势在于:模型在开始强化学习时已具备long CoT思维模式和自我反思能力,从而可能在强化学习阶段实现更快更好的学习效果。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c761a6c0f0b865f5c1645cc06ad9869e\" alt=\"\" title=\"\" tg-width=\"1053\" tg-height=\"445\"/></p><p>与RL训练前的模型(Qwen2.5-Math-7B-Base + 8K QwQ知识蒸馏版本)相比,Qwen2.5-7B-SimpleRL的平均性能显著提升了6.9个百分点。</p><p>此外,Qwen2.5-7B-SimpleRL不仅持续优于Eurus-2-7B-PRIME,还在5个基准测试中的3个上超越了Qwen2.5-7B-SimpleRL-Zero。</p><h3 id=\"id_1405061093\">训练过程分析</h3><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7ca73d0446fd6af825ac840bba4c7b14\" alt=\"训练奖励和输出长度\" title=\"训练奖励和输出长度\" tg-width=\"1060\" tg-height=\"467\"/><span>训练奖励和输出长度</span></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/07444422d9115a8382ed0f8843badb5f\" alt=\"基准测试准确率(pass@1)和输出长度\" title=\"基准测试准确率(pass@1)和输出长度\" tg-width=\"1080\" tg-height=\"638\"/><span>基准测试准确率(pass@1)和输出长度</span></p><p>Qwen2.5-SimpleRL的训练动态表现与Qwen2.5-SimpleRL-Zero相似。</p><p>有趣的是,尽管研究者先进行了long CoT SFT,但在强化学习初期仍然观察到输出长度减少的现象。</p><p>他们推测,这可能是因为从QwQ提取的推理模式不适合小型策略模型,或超出了其能力范围。</p><p>因此,模型选择放弃这种模式,转而自主发展新的长链式推理方式。</p><p>最后,研究者用达芬奇的一句话,对这项研究做了总结——</p><p>简约,便是最终极的精致。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0031e63d9296afb7d700bb6315dbce70\" alt=\"图片\" title=\"图片\" tg-width=\"437\" tg-height=\"72\"/><span>图片</span></p><h2 id=\"id_2367102810\">完全开源复刻,HuggingFace下场了</h2><p>甚至,就连全球最大开源平台HuggingFace团队,今天官宣复刻DeepSeek R1所有pipeline。</p><p>复刻完成后,所有的训练数据、训练脚本等等,将全部开源。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8b6a0735cb87c3f66a56724b33c3f08c\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"436\"/></p><p>这个项目叫做Open R1,当前还在进行中。发布到一天,星标冲破1.9k,斩获142个fork。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/883546a6427f0ae894da543e70c593aa\" alt=\"项目地址:https://github.com/huggingface/open-r1\" title=\"项目地址:https://github.com/huggingface/open-r1\" tg-width=\"1080\" tg-height=\"391\"/><span>项目地址:https://github.com/huggingface/open-r1</span></p><p>研究团队以DeepSeek-R1技术报告为指导,将整个复刻过程划分为三个关键步骤。</p><ul style=\"list-style-type: disc;\"><li><p><strong>步骤 1:</strong>通过从DeepSeek-R1蒸馏高质量语料库,复现R1-Distill模型。</p></li><li><p><strong>步骤 2:</strong>复现DeepSeek用于创建R1-Zero的纯强化学习(RL)流程。这可能需要为数学、推理和代码任务策划新的大规模数据集。</p></li><li><p><strong>步骤 3:</strong>展示我们如何通过多阶段训练,从基础模型发展到经过RL调优的模型。</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0b5e37647b6df05c2e00fdcae31c20a1\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1238\"/></p><h2 id=\"id_1672370884\">从斯坦福到MIT,R1成为首选</h2><p>一个副业项目,让全世界科技大厂为之惶恐。</p><p>DeepSeek这波成功,也成为业界的神话,网友最新截图显示,这款应用已经在APP Store「效率」应用榜单中挤进前三。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c26a66723d3b3a6b69f68a1478db0112\" alt=\"\" title=\"\" tg-width=\"966\" tg-height=\"1200\"/></p><p>在Hugging Face中,R1下载量直接登顶,另外3个模型也霸占着热榜。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a17a15963d44d09684758a53d9f16d6e\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1080\"/></p><p>a16z合伙人Anjney Midha称,一夜之间,从斯坦福到MIT,DeepSeek R1已经成为美国顶尖高校研究人员「首选模型」。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/95d7a12d8352525e938ddde62a68ba77\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"237\"/></p><p>还有研究人员表示,DeepSeek基本上取代了我用ChatGPT的需求。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/aef5ecd49dffdc200d6f1bd7a0647528\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"169\"/></p><p>中国AI,这一次真的震撼了世界。</p></body></html>","source":"lsy1569730104218","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-01-26 14:41 北京时间 <a href=https://mp.weixin.qq.com/s/o41vPh9eJCVjCRUE4u5npA><strong>新智元</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>这些天,硅谷彻底处于中国公司带来的大地震余波中。全美都在恐慌:是否全球人工智能的中心已经转移到了中国?就在这当口,全球复现DeepSeek的一波狂潮也来了。诚如LeCun所言:「这一次,正是开源对闭源的胜利!」在没有顶级芯片的情况下,以极低成本芯片训出突破性模型的DeepSeek,或将威胁到美国的AI霸权。大模型比拼的不再是动辄千万亿美元的算力战。OpenAI、Meta、谷歌这些大公司引以为傲的...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/o41vPh9eJCVjCRUE4u5npA\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://community-static.tradeup.com/news/4abae3de7bed37b48c01721c28c51931","relate_stocks":{},"source_url":"https://mp.weixin.qq.com/s/o41vPh9eJCVjCRUE4u5npA","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1161961252","content_text":"这些天,硅谷彻底处于中国公司带来的大地震余波中。全美都在恐慌:是否全球人工智能的中心已经转移到了中国?就在这当口,全球复现DeepSeek的一波狂潮也来了。诚如LeCun所言:「这一次,正是开源对闭源的胜利!」在没有顶级芯片的情况下,以极低成本芯片训出突破性模型的DeepSeek,或将威胁到美国的AI霸权。大模型比拼的不再是动辄千万亿美元的算力战。OpenAI、Meta、谷歌这些大公司引以为傲的技术优势和高估值将会瓦解,英伟达的股价将开始动摇。种种这些观点和讨论,让人不禁怀疑:数百亿美元支出,对这个行业真的必要吗?甚至有人说,中国量化基金的一群天才,将导致纳斯达克崩盘。从此,大模型时代很可能会进入一个分水岭:超强性能的模型不再独属于算力巨头,而是属于每个人。30美金,就能看到「啊哈」时刻来自UC伯克利博士生潘家怡和另两位研究人员,在CountDown游戏中复现了DeepSeek R1-Zero。他们表示,结果相当出色!实验中,团队验证了通过强化学习RL,3B的基础语言模型也能够自我验证和搜索。更令人兴奋的是,成本不到30美金(约217元),就可以亲眼见证「啊哈」时刻。这个项目叫做TinyZero,采用了R1-Zero算法——给定一个基础语言模型、提示和真实奖励信号,运行强化学习。然后,团队将其应用在CountDown游戏中(这是一个玩家使用基础算术运算,将数字组合以达到目标数字的游戏)。模型从最初的简单输出开始,逐步进化出自我纠正和搜索的策略。在以下示例中,模型提出了解决方案,自我验证,并反复纠正,直到解决问题为止。在消融实验中,研究人员运行了Qwen-2.5-Base(0.5B、1.5B、3B、7B四种参数规模)。结果发现,0.5B模型仅仅是猜测一个解决方案然后停止。而从1.5B开始,模型学会了搜索、自我验证和修正其解决方案,从而能够获得更高的分数。他们认为,在这个过程,基础模型的是性能的关键。他们还验证了,额外的指令微调(SFT)并非是必要的,这也印证了R1-Zero的设计决策。这是首个验证LLM推理能力的实现可以纯粹通过RL,无需监督微调的开源研究基础模型和指令模型两者区别:指令模型运行速度快,但最终表现与基础模型相当指令输出的模型更具结构性和可读性此外,他们还发现,具体的RL算法并不重要。PPO、GRPO、PRIME这些算法中,长思维链(Long CoT)都能够涌现,且带来不错的性能表现。而且,模型在推理行为中非常依赖于具体的任务:对于Countdow任务,模型学习进行搜索和自我验证对于数字乘法任务,模型反而学习使用分布规则分解问题,并逐步解决苹果机器学习科学家Yizhe Zhang对此表示,太酷了,小到1.5B的模型,也能通过RL涌现出自我验证的能力。7B模型复刻,结果令人惊讶港科大助理教授何俊贤的团队(共同一作黄裕振、Weihao Zeng),只用了8K个样本,就在7B模型上复刻出了DeepSeek-R1-Zero和DeepSeek-R1的训练。结果令人惊喜——模型在复杂的数学推理上取得了十分强劲结果。项目地址:https://github.com/hkust-nlp/simpleRL-reason他们以Qwen2.5-Math-7B(基础模型)为起点,直接对其进行强化学习。整个过程中,没有进行监督微调(SFT),也没有使用奖励模型。最终,模型在AIME基准上实现了33.3%的准确率,在AMC上为62.5%,在MATH上为77.2%。这一表现不仅超越了Qwen2.5-Math-7B-Instruct,并且还可以和使用超过50倍数据量和更复杂组件的PRIME和rStar-MATH相媲美!其中,Qwen2.5-7B-SimpleRL-Zero是在Qwen2.5-Math-7B基础模型上仅使用纯PPO方法训练的,仅采用了MATH数据集中的8K样本。Qwen2.5-7B-SimpleRL则首先通过Long CoT监督微调(SFT)作为冷启动,然后再进行强化学习。在这两种方法中,团队都只使用了相同的8K MATH样本,仅此而已。大概在第44步的时候,「啊哈时刻」出现了!模型的响应中,出现了自我反思。并且,在这个过程中,模型还显现了更长的CoT推理能力和自我反思能力。在博客中,研究者详细剖析了实验设置,以及在这个强化学习训练过程中所观察到的现象,例如长链式思考(CoT)和自我反思机制的自发形成。与DeepSeek R1类似,研究者的强化学习方案极其简单,没有使用奖励模型或MCTS(蒙特卡洛树搜索)类技术。他们使用的是PPO算法,并采用基于规则的奖励函数,根据生成输出的格式和正确性分配奖励:如果输出以指定格式提供最终答案且正确,获得+1的奖励如果输出提供最终答案但不正确,奖励设为-0.5如果输出未能提供最终答案,奖励设为-1该实现基于OpenRLHF。初步试验表明,这个奖励函数有助于策略模型快速收敛,产生符合期望格式的输出。第一部分:SimpleRL-Zero(从头开始的强化学习)接下来,研究者为我们分享了训练过程动态分析和一些有趣的涌现模式。训练过程动态分析如下所示,所有基准测试的准确率在训练过程中都在稳步提高,而输出长度则呈现先减少后逐渐增加的趋势。经过进一步调查,研究者发现,Qwen2.5-Math-7B基础模型在初始阶段倾向于生成大量代码,这可能源于模型原始训练数据的分布特征。输出长度的首次下降,是因为强化学习训练逐渐消除了这种代码生成模式,转而学会使用自然语言进行推理。随后,生成长度开始再次增加,此时出现了自我反思机制。训练奖励和输出长度基准测试准确率(pass@1)和输出长度自我反思机制的涌现在训练到第 40 步左右时,研究者观察到:模型开始形成自我反思模式,这正是DeepSeek-R1论文中所描述的「aha moment」(顿悟时刻)。第二部分:SimpleRL(基于模仿预热的强化学习)如前所述,研究者在进行强化学习之前,先进行了long CoT SFT预热,使用了8,000个从QwQ-32B-Preview中提取的MATH示例响应作为SFT数据集。这种冷启动的潜在优势在于:模型在开始强化学习时已具备long CoT思维模式和自我反思能力,从而可能在强化学习阶段实现更快更好的学习效果。与RL训练前的模型(Qwen2.5-Math-7B-Base + 8K QwQ知识蒸馏版本)相比,Qwen2.5-7B-SimpleRL的平均性能显著提升了6.9个百分点。此外,Qwen2.5-7B-SimpleRL不仅持续优于Eurus-2-7B-PRIME,还在5个基准测试中的3个上超越了Qwen2.5-7B-SimpleRL-Zero。训练过程分析训练奖励和输出长度基准测试准确率(pass@1)和输出长度Qwen2.5-SimpleRL的训练动态表现与Qwen2.5-SimpleRL-Zero相似。有趣的是,尽管研究者先进行了long CoT SFT,但在强化学习初期仍然观察到输出长度减少的现象。他们推测,这可能是因为从QwQ提取的推理模式不适合小型策略模型,或超出了其能力范围。因此,模型选择放弃这种模式,转而自主发展新的长链式推理方式。最后,研究者用达芬奇的一句话,对这项研究做了总结——简约,便是最终极的精致。图片完全开源复刻,HuggingFace下场了甚至,就连全球最大开源平台HuggingFace团队,今天官宣复刻DeepSeek R1所有pipeline。复刻完成后,所有的训练数据、训练脚本等等,将全部开源。这个项目叫做Open R1,当前还在进行中。发布到一天,星标冲破1.9k,斩获142个fork。项目地址:https://github.com/huggingface/open-r1研究团队以DeepSeek-R1技术报告为指导,将整个复刻过程划分为三个关键步骤。步骤 1:通过从DeepSeek-R1蒸馏高质量语料库,复现R1-Distill模型。步骤 2:复现DeepSeek用于创建R1-Zero的纯强化学习(RL)流程。这可能需要为数学、推理和代码任务策划新的大规模数据集。步骤 3:展示我们如何通过多阶段训练,从基础模型发展到经过RL调优的模型。从斯坦福到MIT,R1成为首选一个副业项目,让全世界科技大厂为之惶恐。DeepSeek这波成功,也成为业界的神话,网友最新截图显示,这款应用已经在APP Store「效率」应用榜单中挤进前三。在Hugging Face中,R1下载量直接登顶,另外3个模型也霸占着热榜。a16z合伙人Anjney Midha称,一夜之间,从斯坦福到MIT,DeepSeek R1已经成为美国顶尖高校研究人员「首选模型」。还有研究人员表示,DeepSeek基本上取代了我用ChatGPT的需求。中国AI,这一次真的震撼了世界。","news_type":1},"isVote":1,"tweetType":1,"viewCount":572,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":396802851082608,"gmtCreate":1737898329354,"gmtModify":1737905245898,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"标题党 你说雷军天天花钱顾一棒子**写这个干嘛呢","listText":"标题党 你说雷军天天花钱顾一棒子**写这个干嘛呢","text":"标题党 你说雷军天天花钱顾一棒子**写这个干嘛呢","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/396802851082608","repostId":"1185382984","repostType":2,"repost":{"id":"1185382984","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1737872285,"share":"https://www.laohu8.com/m/news/1185382984?lang=&edition=full","pubTime":"2025-01-26 14:18","market":"us","language":"zh","title":"从狗狗币到政府区块链:马斯克的 “数字野心” 如何落地?","url":"https://stock-news.laohu8.com/highlight/detail?id=1185382984","media":"老虎资讯综合","summary":"据知情人士透露,马斯克已在新成立的美国政府效率部发起有关使用区块链技术的讨论,这是特朗普政府支持数字资产行业的最新举措。知情人士透露,政府效率部相关人员已与多个公共区块链的代表会面,对其技术进行评估。区块链将是马斯克及其团队尝试用于削减成本、消除浪费性支出、欺诈和滥用行为的几种技术工具之一,这也是特朗普在 2024 年竞选时的关键议题。","content":"<html><head></head><body><p>据知情人士透露,马斯克已在新成立的美国政府效率部发起有关使用区块链技术的讨论,这是特朗普政府支持数字资产行业的最新举措。</p><p>消息指出,身为政府效率部负责人的马斯克,曾与亲信探讨利用数字账本降低政府成本的想法。这些人士还表示,目前已讨论过使用区块链来追踪联邦政府支出、保障数据安全、进行支付,甚至管理建筑设施。</p><p>知情人士透露,政府效率部相关人员已与多个公共区块链的代表会面,对其技术进行评估。</p><p>白宫和政府效率部的代表均未回复各自收到的置评请求。马斯克也未回复通过电子邮件发送的置评请求。</p><p>考虑到马斯克所在部门的名称是对基于自身区块链的加密货币狗狗币的巧妙引用,这些讨论具有一定的直观逻辑。特朗普也在迅速制定对加密货币友好的政策:周四他签署了一项行政命令,成立了一个数字资产工作组,成员包括政府的关键官员。</p><p>政府效率部是根据特朗普 1 月 20 日的行政命令成立的,负责推动联邦技术和软件现代化,以实现政府效率和生产力的最大化。特朗普表示,该小组将与白宫管理与预算办公室合作,确定削减开支的方案,并在 2026 年 7 月 4 日前完成建议报告。</p><p>一位人士称,在特朗普就职前,马斯克就招募了约 100 名志愿者为他的项目编写代码。</p><p>区块链将是马斯克及其团队尝试用于削减成本、消除浪费性支出、欺诈和滥用行为的几种技术工具之一,这也是特朗普在 2024 年竞选时的关键议题。特朗普曾谴责美国不断膨胀的赤字,将其主要归咎于前任发起的项目和政策。</p><p>去年 12 月,一位前往佛罗里达州棕榈滩的人士向特朗普过渡团队官员介绍了区块链的几种潜在用途,重点强调了该技术在保护重要政府数据和追踪资金流向方面的潜力。</p><p>区块链概念最早由比特币提出,用于在没有中央机构的情况下记录和验证数字代币的交易。从那以后,许多其他加密项目出于类似目的创建了自己的区块链,其中大多数提供了可供任何人查看的公共账本。</p><p>特朗普的商业伙伴选择了与索拉纳(Solana)加密货币相关的账本,来发行特朗普和梅拉尼娅模因币,这在最近引发了关注和批评。不过,目前尚不清楚马斯克的团队可能会为其项目选择哪一种区块链,这些讨论最终也可能无果而终。</p><p>将区块链用于大规模项目的想法并不新鲜,但将其应用于像美国政府这样庞大的机构,仍是一个未经检验的概念。多年前,像零售商沃尔玛这样的一大批大公司就发起了区块链相关行动。这些项目大多使用私有区块链,交易记录不会公开。</p><p>这些区块链项目大多由财团运营,管理难度大,进展缓慢。许多人还发现,区块链并不一定比现有的数据库技术成本更低或效率更高。早在 2019 年,高德纳咨询公司就曾预测,“到 2021 年,90% 的现有企业区块链平台实施项目将需要更换”,以保持竞争力和安全性。</p><p>美国创新基金会首席经济学家山姆・哈蒙德表示:“政府内部使用区块链,可以以完全安全和透明的方式追踪支出、文件和合同。”</p><p>但哈蒙德补充说:“问题在于,是否真的需要区块链来实现这一目标,因为传统数据库也能以类似方式使用,而且弊端更少。”</p><p>像比特币和索拉纳使用的公共区块链也有自身的问题,因为这类账本是由分散的计算机网络管理的。</p><p>杜克大学金融学教授坎贝尔・哈维表示:“政府使用公共区块链的一个问题是,他们无法控制账本记录。我认为这种控制权的缺失对政府来说是个问题。”</p><p>但近年来,一些大型机构已开始将公共区块链用于商业目的。例如,贝莱德集团已在几种不同加密货币的账本上发行了一只货币市场基金。加利福尼亚州机动车管理局也已在雪崩区块链上对数百万个汽车所有权证书进行了数字化处理。</p><p>如果政府效率部采用这项技术,其规模很可能超过美国迄今为止所有的政府项目。</p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>从狗狗币到政府区块链:马斯克的 “数字野心” 如何落地?</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n从狗狗币到政府区块链:马斯克的 “数字野心” 如何落地?\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2025-01-26 14:18</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>据知情人士透露,马斯克已在新成立的美国政府效率部发起有关使用区块链技术的讨论,这是特朗普政府支持数字资产行业的最新举措。</p><p>消息指出,身为政府效率部负责人的马斯克,曾与亲信探讨利用数字账本降低政府成本的想法。这些人士还表示,目前已讨论过使用区块链来追踪联邦政府支出、保障数据安全、进行支付,甚至管理建筑设施。</p><p>知情人士透露,政府效率部相关人员已与多个公共区块链的代表会面,对其技术进行评估。</p><p>白宫和政府效率部的代表均未回复各自收到的置评请求。马斯克也未回复通过电子邮件发送的置评请求。</p><p>考虑到马斯克所在部门的名称是对基于自身区块链的加密货币狗狗币的巧妙引用,这些讨论具有一定的直观逻辑。特朗普也在迅速制定对加密货币友好的政策:周四他签署了一项行政命令,成立了一个数字资产工作组,成员包括政府的关键官员。</p><p>政府效率部是根据特朗普 1 月 20 日的行政命令成立的,负责推动联邦技术和软件现代化,以实现政府效率和生产力的最大化。特朗普表示,该小组将与白宫管理与预算办公室合作,确定削减开支的方案,并在 2026 年 7 月 4 日前完成建议报告。</p><p>一位人士称,在特朗普就职前,马斯克就招募了约 100 名志愿者为他的项目编写代码。</p><p>区块链将是马斯克及其团队尝试用于削减成本、消除浪费性支出、欺诈和滥用行为的几种技术工具之一,这也是特朗普在 2024 年竞选时的关键议题。特朗普曾谴责美国不断膨胀的赤字,将其主要归咎于前任发起的项目和政策。</p><p>去年 12 月,一位前往佛罗里达州棕榈滩的人士向特朗普过渡团队官员介绍了区块链的几种潜在用途,重点强调了该技术在保护重要政府数据和追踪资金流向方面的潜力。</p><p>区块链概念最早由比特币提出,用于在没有中央机构的情况下记录和验证数字代币的交易。从那以后,许多其他加密项目出于类似目的创建了自己的区块链,其中大多数提供了可供任何人查看的公共账本。</p><p>特朗普的商业伙伴选择了与索拉纳(Solana)加密货币相关的账本,来发行特朗普和梅拉尼娅模因币,这在最近引发了关注和批评。不过,目前尚不清楚马斯克的团队可能会为其项目选择哪一种区块链,这些讨论最终也可能无果而终。</p><p>将区块链用于大规模项目的想法并不新鲜,但将其应用于像美国政府这样庞大的机构,仍是一个未经检验的概念。多年前,像零售商沃尔玛这样的一大批大公司就发起了区块链相关行动。这些项目大多使用私有区块链,交易记录不会公开。</p><p>这些区块链项目大多由财团运营,管理难度大,进展缓慢。许多人还发现,区块链并不一定比现有的数据库技术成本更低或效率更高。早在 2019 年,高德纳咨询公司就曾预测,“到 2021 年,90% 的现有企业区块链平台实施项目将需要更换”,以保持竞争力和安全性。</p><p>美国创新基金会首席经济学家山姆・哈蒙德表示:“政府内部使用区块链,可以以完全安全和透明的方式追踪支出、文件和合同。”</p><p>但哈蒙德补充说:“问题在于,是否真的需要区块链来实现这一目标,因为传统数据库也能以类似方式使用,而且弊端更少。”</p><p>像比特币和索拉纳使用的公共区块链也有自身的问题,因为这类账本是由分散的计算机网络管理的。</p><p>杜克大学金融学教授坎贝尔・哈维表示:“政府使用公共区块链的一个问题是,他们无法控制账本记录。我认为这种控制权的缺失对政府来说是个问题。”</p><p>但近年来,一些大型机构已开始将公共区块链用于商业目的。例如,贝莱德集团已在几种不同加密货币的账本上发行了一只货币市场基金。加利福尼亚州机动车管理局也已在雪崩区块链上对数百万个汽车所有权证书进行了数字化处理。</p><p>如果政府效率部采用这项技术,其规模很可能超过美国迄今为止所有的政府项目。</p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/9e2e0725ece1c0521e645686ab640440","relate_stocks":{},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1185382984","content_text":"据知情人士透露,马斯克已在新成立的美国政府效率部发起有关使用区块链技术的讨论,这是特朗普政府支持数字资产行业的最新举措。消息指出,身为政府效率部负责人的马斯克,曾与亲信探讨利用数字账本降低政府成本的想法。这些人士还表示,目前已讨论过使用区块链来追踪联邦政府支出、保障数据安全、进行支付,甚至管理建筑设施。知情人士透露,政府效率部相关人员已与多个公共区块链的代表会面,对其技术进行评估。白宫和政府效率部的代表均未回复各自收到的置评请求。马斯克也未回复通过电子邮件发送的置评请求。考虑到马斯克所在部门的名称是对基于自身区块链的加密货币狗狗币的巧妙引用,这些讨论具有一定的直观逻辑。特朗普也在迅速制定对加密货币友好的政策:周四他签署了一项行政命令,成立了一个数字资产工作组,成员包括政府的关键官员。政府效率部是根据特朗普 1 月 20 日的行政命令成立的,负责推动联邦技术和软件现代化,以实现政府效率和生产力的最大化。特朗普表示,该小组将与白宫管理与预算办公室合作,确定削减开支的方案,并在 2026 年 7 月 4 日前完成建议报告。一位人士称,在特朗普就职前,马斯克就招募了约 100 名志愿者为他的项目编写代码。区块链将是马斯克及其团队尝试用于削减成本、消除浪费性支出、欺诈和滥用行为的几种技术工具之一,这也是特朗普在 2024 年竞选时的关键议题。特朗普曾谴责美国不断膨胀的赤字,将其主要归咎于前任发起的项目和政策。去年 12 月,一位前往佛罗里达州棕榈滩的人士向特朗普过渡团队官员介绍了区块链的几种潜在用途,重点强调了该技术在保护重要政府数据和追踪资金流向方面的潜力。区块链概念最早由比特币提出,用于在没有中央机构的情况下记录和验证数字代币的交易。从那以后,许多其他加密项目出于类似目的创建了自己的区块链,其中大多数提供了可供任何人查看的公共账本。特朗普的商业伙伴选择了与索拉纳(Solana)加密货币相关的账本,来发行特朗普和梅拉尼娅模因币,这在最近引发了关注和批评。不过,目前尚不清楚马斯克的团队可能会为其项目选择哪一种区块链,这些讨论最终也可能无果而终。将区块链用于大规模项目的想法并不新鲜,但将其应用于像美国政府这样庞大的机构,仍是一个未经检验的概念。多年前,像零售商沃尔玛这样的一大批大公司就发起了区块链相关行动。这些项目大多使用私有区块链,交易记录不会公开。这些区块链项目大多由财团运营,管理难度大,进展缓慢。许多人还发现,区块链并不一定比现有的数据库技术成本更低或效率更高。早在 2019 年,高德纳咨询公司就曾预测,“到 2021 年,90% 的现有企业区块链平台实施项目将需要更换”,以保持竞争力和安全性。美国创新基金会首席经济学家山姆・哈蒙德表示:“政府内部使用区块链,可以以完全安全和透明的方式追踪支出、文件和合同。”但哈蒙德补充说:“问题在于,是否真的需要区块链来实现这一目标,因为传统数据库也能以类似方式使用,而且弊端更少。”像比特币和索拉纳使用的公共区块链也有自身的问题,因为这类账本是由分散的计算机网络管理的。杜克大学金融学教授坎贝尔・哈维表示:“政府使用公共区块链的一个问题是,他们无法控制账本记录。我认为这种控制权的缺失对政府来说是个问题。”但近年来,一些大型机构已开始将公共区块链用于商业目的。例如,贝莱德集团已在几种不同加密货币的账本上发行了一只货币市场基金。加利福尼亚州机动车管理局也已在雪崩区块链上对数百万个汽车所有权证书进行了数字化处理。如果政府效率部采用这项技术,其规模很可能超过美国迄今为止所有的政府项目。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1234,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":396269610324392,"gmtCreate":1737767825327,"gmtModify":1737769107511,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"又一篇粪作 我真的在蹲大号看这篇文章","listText":"又一篇粪作 我真的在蹲大号看这篇文章","text":"又一篇粪作 我真的在蹲大号看这篇文章","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/396269610324392","repostId":"1139745064","repostType":4,"repost":{"id":"1139745064","kind":"news","pubTimestamp":1737767422,"share":"https://www.laohu8.com/m/news/1139745064?lang=&edition=full","pubTime":"2025-01-25 09:10","market":"us","language":"zh","title":"比傻钱还傻的资金拼命买入美股","url":"https://stock-news.laohu8.com/highlight/detail?id=1139745064","media":"有限次重复博弈","summary":"不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。报道称,韩国投资者去年持有的美国股票激增了65%。不仅是普通散户在购买美国股票,机构投资者也在加入。","content":"<html><head></head><body><p>“傻钱”(Dumb money)是对散户投资者的一种贬义称呼(也是一部关于GameStop股票飙升的电影的标题)。通常情况下,普通投资者总是最后一个得知投资新闻,并最终成为专业投资者的接盘侠。</p><p style=\"text-align: start;\">不过也会有例外。例如,在GameStop事件中,一个大型对冲基金被迫退出市场。但通常情况下,专业投资者占据上风。</p><p style=\"text-align: start;\">如果有一个群体比“傻钱”更不精明,那可能就是外国散户投资者。不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c889291e5827b79848f57889d88d0b6f\" tg-width=\"1080\" tg-height=\"571\"/></p><p style=\"text-align: start;\">Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。</p><p style=\"text-align: start;\">他表示:“他们的买入行为常常是一个反向指标。他们倾向于在熊市前大量买入。”</p><p style=\"text-align: start;\">《金融时报》本月早些时候采访了一些外国散户投资者。报道称,韩国投资者去年持有的美国股票激增了65%。</p><p style=\"text-align: start;\">他们的逻辑相当合理:美国市场聚集了苹果、英伟达和特斯拉这样的企业赢家,而本地公司难以与之竞争。</p><p style=\"text-align: start;\">这种模式在全球范围内不断重复。例如,根据英国投资协会(当地的一个行业组织)的数据,仅在去年11月,英国散户投资者对美国股票基金的净流入为5.9亿英镑,而同期本国股票基金则出现了5.52亿英镑的净流出。</p><p style=\"text-align: start;\">不仅是普通散户在购买美国股票,机构投资者也在加入。历史学家尼尔·弗格森本周出席了在瑞士达沃斯举行的世界经济论坛。他为《自由新闻》撰文表示:“几乎所有在达沃斯世界经济论坛的人都看好美国股票,唱空欧盟。他们的新共识是,欧洲无法在经济上自我调整,而美国正在快速发展。如果你不持有美国的大型股票,那么你可能会因为错过机会而后悔不已。”</p><p style=\"text-align: start;\">他补充道:“问题是,达沃斯的共识几乎总是错误的。”</p><p style=\"text-align: start;\">仅仅为了反其道而行并不一定能带来胜利。例如,亚尔德尼依然是华尔街最看涨的策略师之一。但在这个案例中,确实存在支持逆向观点的估值论据。</p><p style=\"text-align: start;\">根据FactSet的数据,iShares MSCI全球(不含美国)ETF的预期市盈率为13.4,而SPDR标普500 ETF的预期市盈率为22.1。</p></body></html>","source":"lsy1737767377475","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>比傻钱还傻的资金拼命买入美股</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n比傻钱还傻的资金拼命买入美股\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-01-25 09:10 北京时间 <a href=https://mp.weixin.qq.com/s/BsNXqJ9QmVtlqZ56KbECoQ><strong>有限次重复博弈</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>“傻钱”(Dumb money)是对散户投资者的一种贬义称呼(也是一部关于GameStop股票飙升的电影的标题)。通常情况下,普通投资者总是最后一个得知投资新闻,并最终成为专业投资者的接盘侠。不过也会有例外。例如,在GameStop事件中,一个大型对冲基金被迫退出市场。但通常情况下,专业投资者占据上风。如果有一个群体比“傻钱”更不精明,那可能就是外国散户投资者。不幸的是,他们正在疯狂购买美国股票,...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/BsNXqJ9QmVtlqZ56KbECoQ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/d8d6ac8df9927810fa41a461bdcd1022","relate_stocks":{},"source_url":"https://mp.weixin.qq.com/s/BsNXqJ9QmVtlqZ56KbECoQ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1139745064","content_text":"“傻钱”(Dumb money)是对散户投资者的一种贬义称呼(也是一部关于GameStop股票飙升的电影的标题)。通常情况下,普通投资者总是最后一个得知投资新闻,并最终成为专业投资者的接盘侠。不过也会有例外。例如,在GameStop事件中,一个大型对冲基金被迫退出市场。但通常情况下,专业投资者占据上风。如果有一个群体比“傻钱”更不精明,那可能就是外国散户投资者。不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。他表示:“他们的买入行为常常是一个反向指标。他们倾向于在熊市前大量买入。”《金融时报》本月早些时候采访了一些外国散户投资者。报道称,韩国投资者去年持有的美国股票激增了65%。他们的逻辑相当合理:美国市场聚集了苹果、英伟达和特斯拉这样的企业赢家,而本地公司难以与之竞争。这种模式在全球范围内不断重复。例如,根据英国投资协会(当地的一个行业组织)的数据,仅在去年11月,英国散户投资者对美国股票基金的净流入为5.9亿英镑,而同期本国股票基金则出现了5.52亿英镑的净流出。不仅是普通散户在购买美国股票,机构投资者也在加入。历史学家尼尔·弗格森本周出席了在瑞士达沃斯举行的世界经济论坛。他为《自由新闻》撰文表示:“几乎所有在达沃斯世界经济论坛的人都看好美国股票,唱空欧盟。他们的新共识是,欧洲无法在经济上自我调整,而美国正在快速发展。如果你不持有美国的大型股票,那么你可能会因为错过机会而后悔不已。”他补充道:“问题是,达沃斯的共识几乎总是错误的。”仅仅为了反其道而行并不一定能带来胜利。例如,亚尔德尼依然是华尔街最看涨的策略师之一。但在这个案例中,确实存在支持逆向观点的估值论据。根据FactSet的数据,iShares MSCI全球(不含美国)ETF的预期市盈率为13.4,而SPDR标普500 ETF的预期市盈率为22.1。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1042,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":396267979682168,"gmtCreate":1737767760724,"gmtModify":1737769107569,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"比 比傻钱还傻的资金 的**在写这篇评论","listText":"比 比傻钱还傻的资金 的**在写这篇评论","text":"比 比傻钱还傻的资金 的**在写这篇评论","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/396267979682168","repostId":"1139745064","repostType":2,"repost":{"id":"1139745064","kind":"news","pubTimestamp":1737767422,"share":"https://www.laohu8.com/m/news/1139745064?lang=&edition=full","pubTime":"2025-01-25 09:10","market":"us","language":"zh","title":"比傻钱还傻的资金拼命买入美股","url":"https://stock-news.laohu8.com/highlight/detail?id=1139745064","media":"有限次重复博弈","summary":"不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。报道称,韩国投资者去年持有的美国股票激增了65%。不仅是普通散户在购买美国股票,机构投资者也在加入。","content":"<html><head></head><body><p>“傻钱”(Dumb money)是对散户投资者的一种贬义称呼(也是一部关于GameStop股票飙升的电影的标题)。通常情况下,普通投资者总是最后一个得知投资新闻,并最终成为专业投资者的接盘侠。</p><p style=\"text-align: start;\">不过也会有例外。例如,在GameStop事件中,一个大型对冲基金被迫退出市场。但通常情况下,专业投资者占据上风。</p><p style=\"text-align: start;\">如果有一个群体比“傻钱”更不精明,那可能就是外国散户投资者。不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c889291e5827b79848f57889d88d0b6f\" tg-width=\"1080\" tg-height=\"571\"/></p><p style=\"text-align: start;\">Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。</p><p style=\"text-align: start;\">他表示:“他们的买入行为常常是一个反向指标。他们倾向于在熊市前大量买入。”</p><p style=\"text-align: start;\">《金融时报》本月早些时候采访了一些外国散户投资者。报道称,韩国投资者去年持有的美国股票激增了65%。</p><p style=\"text-align: start;\">他们的逻辑相当合理:美国市场聚集了苹果、英伟达和特斯拉这样的企业赢家,而本地公司难以与之竞争。</p><p style=\"text-align: start;\">这种模式在全球范围内不断重复。例如,根据英国投资协会(当地的一个行业组织)的数据,仅在去年11月,英国散户投资者对美国股票基金的净流入为5.9亿英镑,而同期本国股票基金则出现了5.52亿英镑的净流出。</p><p style=\"text-align: start;\">不仅是普通散户在购买美国股票,机构投资者也在加入。历史学家尼尔·弗格森本周出席了在瑞士达沃斯举行的世界经济论坛。他为《自由新闻》撰文表示:“几乎所有在达沃斯世界经济论坛的人都看好美国股票,唱空欧盟。他们的新共识是,欧洲无法在经济上自我调整,而美国正在快速发展。如果你不持有美国的大型股票,那么你可能会因为错过机会而后悔不已。”</p><p style=\"text-align: start;\">他补充道:“问题是,达沃斯的共识几乎总是错误的。”</p><p style=\"text-align: start;\">仅仅为了反其道而行并不一定能带来胜利。例如,亚尔德尼依然是华尔街最看涨的策略师之一。但在这个案例中,确实存在支持逆向观点的估值论据。</p><p style=\"text-align: start;\">根据FactSet的数据,iShares MSCI全球(不含美国)ETF的预期市盈率为13.4,而SPDR标普500 ETF的预期市盈率为22.1。</p></body></html>","source":"lsy1737767377475","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>比傻钱还傻的资金拼命买入美股</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n比傻钱还傻的资金拼命买入美股\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-01-25 09:10 北京时间 <a href=https://mp.weixin.qq.com/s/BsNXqJ9QmVtlqZ56KbECoQ><strong>有限次重复博弈</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>“傻钱”(Dumb money)是对散户投资者的一种贬义称呼(也是一部关于GameStop股票飙升的电影的标题)。通常情况下,普通投资者总是最后一个得知投资新闻,并最终成为专业投资者的接盘侠。不过也会有例外。例如,在GameStop事件中,一个大型对冲基金被迫退出市场。但通常情况下,专业投资者占据上风。如果有一个群体比“傻钱”更不精明,那可能就是外国散户投资者。不幸的是,他们正在疯狂购买美国股票,...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/BsNXqJ9QmVtlqZ56KbECoQ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/d8d6ac8df9927810fa41a461bdcd1022","relate_stocks":{},"source_url":"https://mp.weixin.qq.com/s/BsNXqJ9QmVtlqZ56KbECoQ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1139745064","content_text":"“傻钱”(Dumb money)是对散户投资者的一种贬义称呼(也是一部关于GameStop股票飙升的电影的标题)。通常情况下,普通投资者总是最后一个得知投资新闻,并最终成为专业投资者的接盘侠。不过也会有例外。例如,在GameStop事件中,一个大型对冲基金被迫退出市场。但通常情况下,专业投资者占据上风。如果有一个群体比“傻钱”更不精明,那可能就是外国散户投资者。不幸的是,他们正在疯狂购买美国股票,仿佛这些股票即将消失。Yardeni Research公司总裁艾德·亚尔德尼分析数据显示,外国投资者在过去三个月内以创纪录的速度购买了765亿美元的美国股票。数据显示,非美国投资者在美国股市的时机把握非常糟糕。他们曾在1987年股灾、2000年互联网泡沫破裂以及2008年全球金融危机前大量买入美国股票。他表示:“他们的买入行为常常是一个反向指标。他们倾向于在熊市前大量买入。”《金融时报》本月早些时候采访了一些外国散户投资者。报道称,韩国投资者去年持有的美国股票激增了65%。他们的逻辑相当合理:美国市场聚集了苹果、英伟达和特斯拉这样的企业赢家,而本地公司难以与之竞争。这种模式在全球范围内不断重复。例如,根据英国投资协会(当地的一个行业组织)的数据,仅在去年11月,英国散户投资者对美国股票基金的净流入为5.9亿英镑,而同期本国股票基金则出现了5.52亿英镑的净流出。不仅是普通散户在购买美国股票,机构投资者也在加入。历史学家尼尔·弗格森本周出席了在瑞士达沃斯举行的世界经济论坛。他为《自由新闻》撰文表示:“几乎所有在达沃斯世界经济论坛的人都看好美国股票,唱空欧盟。他们的新共识是,欧洲无法在经济上自我调整,而美国正在快速发展。如果你不持有美国的大型股票,那么你可能会因为错过机会而后悔不已。”他补充道:“问题是,达沃斯的共识几乎总是错误的。”仅仅为了反其道而行并不一定能带来胜利。例如,亚尔德尼依然是华尔街最看涨的策略师之一。但在这个案例中,确实存在支持逆向观点的估值论据。根据FactSet的数据,iShares MSCI全球(不含美国)ETF的预期市盈率为13.4,而SPDR标普500 ETF的预期市盈率为22.1。","news_type":1},"isVote":1,"tweetType":1,"viewCount":921,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":394964461707808,"gmtCreate":1737437144974,"gmtModify":1737438034890,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"马斯克配图不对啊 不敢上真图?","listText":"马斯克配图不对啊 不敢上真图?","text":"马斯克配图不对啊 不敢上真图?","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/394964461707808","repostId":"1147035507","repostType":2,"isVote":1,"tweetType":1,"viewCount":539,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":393964498407816,"gmtCreate":1737208275607,"gmtModify":1737208949738,"author":{"id":"3548847772856151","authorId":"3548847772856151","name":"金刚狼割韭菜","avatar":"https://static.tigerbbs.com/edca0b30b7e243758d1bac348f3e2817","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3548847772856151","authorIdStr":"3548847772856151"},"themes":[],"htmlText":"还真是典型的中国思维 又一篇茅坑文章","listText":"还真是典型的中国思维 又一篇茅坑文章","text":"还真是典型的中国思维 又一篇茅坑文章","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/393964498407816","repostId":"1190367174","repostType":2,"isVote":1,"tweetType":1,"viewCount":1298,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"4182346424956632","authorId":"4182346424956632","name":"有钱自美方来不亦乐乎","avatar":"https://static.tigerbbs.com/a275a333dc1d495e1864823b8e4852f5","crmLevel":7,"crmLevelSwitch":1,"idStr":"4182346424956632","authorIdStr":"4182346424956632"},"content":"哈哈哈哈,来源 QQ.com 肯定中国思维啊","text":"哈哈哈哈,来源 QQ.com 肯定中国思维啊","html":"哈哈哈哈,来源 QQ.com 肯定中国思维啊"}],"imageCount":0,"langContent":"CN","totalScore":0}],"defaultTab":"posts","isTTM":false}