把端侧AI生态,向前推进一小步。作者|刘杨楠编辑|栗子“你们有信心吗!”11月13日,安谋科技Arm China“周易”X3 NPU IP发布会临近尾声,安谋科技Arm China CEO陈锋低调现身会场后方,作为现场Q&A环节的最后一位“提问者”,向台上的三位演讲者发问。这场精心安排的互动彩蛋,也将整场发布会的情绪推至高潮。陈锋自今年2月出任CEO以来,便带领公司开启“All in AI”的产品战略,推动公司在AI领域全面投入。其中,端侧AI是安谋科技AI Arm China战略的重要方向。此次发布会主角“周易”X3便是专为端侧AI打造的NPU IP。可陈锋的问题,或许不只是向台上的同僚提问,更是向整个端侧AI芯片设计市场提问。当前的端侧AI市场火热之余仍面临巨大的不确定性。算法的快速迭代、市场需求的碎片化、客户对成本与性能的双重苛求,都让芯片厂商如履薄冰。安谋科技Arm China产品研发副总裁刘浩在发布会上坦言,端侧AI正面临着前所未有的挑战。“首先是大模型的需求,它算力巨大,参数众多,对算力、带宽、存储都提出了极具挑战性的要求,形成了所谓的‘算力墙’‘面积墙’‘功耗墙’。其次是多模态的需求,输入不再只是文字,可能是图像、视频、点云、语音,这要求NPU支持更多异构算子。第三是混合专家系统(MoE)的需求,动态路由、动态任务分配,这些都需要架构具备灵活的算力调度和高带宽互联能力。”刘浩说。安谋科技Arm China产品研发副总裁刘浩更令人捉摸不透的,是模型迭代速度。刘浩举了一个生动的例子:“客户在芯片流片成功进入量产之际,他的模型和算法仍然需要两周一次的迭代。这就要求芯片硬件必须有足够的通用性,无论新的算子还是模型出现,硬件都能灵活支持。”于是,端侧AI芯片IP的设计陷入了两难境地——过于专用化的架构虽然面效比、能效比高,但无法适应快速变化的算法;而过
解锁百度市值暴涨的底层逻辑。作者|田思奇编辑|栗子2025年,百度的估值逻辑正在被重写。当大多数消费级AI应用还在为商业化苦恼时,百度的股价却走出了陡峭的上扬曲线,从年初的82美元,增长到目前120美元左右。摩根士丹利对百度维持“增持”评级,高盛等机构纷纷上调百度目标价,理由一致:市场长期低估了百度在人工智能领域的真实价值。在11月13日举行的百度世界大会2025上,李彦宏给出了这一轮重估的逻辑起点。他认为,AI行业正走向“效果涌现”,产业结构也正在重构,从过去以芯片为底、应用端价值薄弱的“正金字塔”,转变为一个模型和应用价值被充分释放的“倒金字塔”。在这个新结构里,模型能产生十倍于芯片的价值,而应用层将释放百倍潜力,成为新的生产力引擎。这一判断的背后,是百度对AI能力应用方式的深刻思考。李彦宏强调,当AI能力被内化,成为一种原生的能力,智能就不再是企业运营的成本,而是一种可以直接驱动增长的生产力。他表示,行业更应关心如何让AI跟每一项任务有机结合,让AI成为企业发展和个人成长的原生推动力。评估百度的标尺必须改变。它不再是那家以搜索为核心的互联网公司,而是一个以AI为核心操作系统的新物种。1. 百度为什么要内化AI能力?自2022年底生成式 AI 爆发以来,市场经历了从狂热到冷静的全过程。消费级应用的增长陷入瓶颈,高昂的推理成本与模糊的商业模式,让许多产品在流量消退后举步维艰。与此同时,B端需求却在真实增长。2023年,几乎每个CEO都在问同一个问题:AI能为我做什么?如今,这个问题变成了:我该如何让AI成为自己的一部分?尤其是在金融、制造、能源等关键领域,利用AI进行成本优化、效率提升的需求变得刚性且迫切。这为拥有深厚AI技术能力的企业,打开了一个巨大的增量市场。然而“甲子光年”观察到,机遇面前横亘着巨大的鸿沟。大多数企业对AI的应用,仍停留
AI的未来不是云端取代本地,而是云端与本地的深度协同。作者|王艺编辑|栗子今年下半年以来,AI圈流传着一个半开玩笑的段子:“DeepSeek R2为什么还不发布?因为Scaling Law不灵了。”笑声背后,是整个行业正在面对的残酷现实:大模型的边际收益正在递减,AI竞赛的上半场规则正在失效。首先是训练模型需要巨量的花费:训练一个GPT-4级别的模型,费用已经突破1亿美元大关,而知名科技投资机构BOND于2025年5月底发布了最新的《AI 行业趋势研究报告》显示,目前训练最尖端AI模型的成本已接近10亿美元规模,这一成本规模远超历史上任何一个技术开发项目,标志着AI模型训练进入了只有资本雄厚巨头企业才能主导的时代。其次是模型能力遇到了增长瓶颈:从GPT-3.5到GPT-4再到GPT-5,大模型智能水平的跃升令人惊叹;但从GPT-4到GPT-4.5再到GPT-5,即便参数量翻倍,能力提升却越来越不明显。Scaling Law开始“撞墙”——简单地堆砌参数,不再是通往AGI的捷径。然而,就在巨头们陷入困境时,一个“小模型”逆袭的故事正在上演:今年5月,DeepSeek R1-0528将原来671B参数的大模型蒸馏到仅有8B,不仅保持了原有能力,在AIME 2024测试中甚至反超原模型10%。DeepSeek并不是孤例。Qwen最新推出的Qwen3-VL 4B/8B(Instruct / Thinking)模型在保持256K-1M超长上下文和完整多模态能力的同时,还能在低显存设备上稳定运行,并提供了FP8量化权重,真正让多模态AI走向“可落地”。英伟达2025年6月发表的论文也表示,小于100亿参数的“小语言模型”(SLM)在多数Agent任务中,不仅能媲美甚至超越庞大的LLM,且运营成本仅为后者的1/10到1/30。图源:《Small Language Models are t
“VLA只是一个过渡方案。”作者|刘杨楠编辑|王博2021年底,商汤科技在港交所敲钟上市。这个时刻像整个计算机视觉行业的一次成人礼,意味着此前数年的狂欢与争议,终于有了一个暂时的落脚点。作为商汤智能汽车事业群的灵魂人物,时任商汤绝影智能云研发总经理武伟,见证了十年来商汤从0起步,一路辗转上市的全部经过。可在商汤上市敲钟那一刻,他意识到自己正来到新的岔路口。“我喜欢初创公司的氛围,大家在一个相对未知的领域快速试错,去突破新技术,直到它真正在产业落地发展。”武伟说。于是,他开始思考自己的下一站该往何处。或是加入某个初创团队,或是干脆自己再创业一次。直到2022年的CVPR上,武伟碰巧和特斯拉团队做了一次技术交流。当时他们默契地意识到,世界模型是AGI的新基建。三年后,武伟做出了选择。他告别自己一手打造的“绝影”,在2025年5月创办流形空间(Manifold AI)。他又站上了一个全新的技术风口。Manifold AI流形空间创始人兼CEO武伟流形空间成立3个月便连获种子轮以及天使轮两轮共亿元融资,成为了世界模型领域一匹“黑马”。“Manifold”在数学领域被直译为“流形”,这是一种又简单又通用的几何结构。它在局部简单到可以被线性化,在全局又通用到足以描述复杂的高维空间。数学出身的武伟,正试图找到一种“既简单,又通用”的方案,打造一个能理解并预测物理世界的大脑。这是一个近乎完美的技术理想,但当下的世界模型赛道实在太过复杂。技术仍在早期,一切尚未收敛,市场热闹程度堪比2023年初LLM的“百模大战”。就在今天,斯坦福大学教授李飞飞的一篇长文《From Words to Worlds: Spatial Intelligence is AI’s Next Frontier(从词到世界:空间智能是AI的下一个前沿)》,引发了整个硅谷对空间智能、世界模型的讨论。李飞飞提出世界