当纤维本身具备感知与思考能力,技术便能以更自然的方式理解和改善人类睡眠。作者|王博深秋的剑桥,落叶在微冷的空气中打转。走进MIT Media Lab(麻省理工学院媒体实验室,后文简称MIT媒体实验室)那座玻璃与钢的建筑,门廊隐约回响着实验室内的低频电子噪声,仿佛一台巨型合成器在呼吸。MIT媒体实验室,图片来源:“甲子光年”拍摄MIT媒体实验室是全球最具影响力的跨学科研究机构之一,以“反常规创新”著称。MIT Media Lab中的Media并不是指新闻媒体(News Media),而是科技媒介(Technology Media),实验室作为一个创新平台,鼓励科研人员跨越计算机科学、艺术设计、生物科技、神经科学、社会科学等边界,探索技术与人类体验的未来。Kindle的核心显示技术电子墨水E-Ink就是MIT媒体实验室最成功的从科研到商业化案例。在这里有一句话:“Demo or Die(展示原型,否则无意义)。”这也是实验室内部的行动准则,与传统学界的 “Publish or Perish(发表或灭亡)” 形成鲜明对比。我在这里要见的是约瑟夫·帕拉迪索(Joe Paradiso)教授:一个从高能粒子物理转战可穿戴感知,又从电子音乐跳入传感器世界的谜一般人物。1977年,Joe Paradiso在塔夫茨大学获得电气工程与物理学学士学位,1981年又在MIT完成物理学博士学位,他的博士论文研究基于在瑞士日内瓦的欧洲核研究中心(CERN)进行的一个实验,内容与高能μ子对的产生测量相关。可以说,1994年之前,Joe Paradiso都是一个物理学家。1994年,他加入MIT媒体实验室,并创立了响应式环境(Responsive Environments)研究组,三十多年来,他一直致力于让建筑、家具、衣服成为“有感知、自反馈”的系统。除了科研与学术生涯之外,Joe Paradiso从19
把端侧AI生态,向前推进一小步。作者|刘杨楠编辑|栗子“你们有信心吗!”11月13日,安谋科技Arm China“周易”X3 NPU IP发布会临近尾声,安谋科技Arm China CEO陈锋低调现身会场后方,作为现场Q&A环节的最后一位“提问者”,向台上的三位演讲者发问。这场精心安排的互动彩蛋,也将整场发布会的情绪推至高潮。陈锋自今年2月出任CEO以来,便带领公司开启“All in AI”的产品战略,推动公司在AI领域全面投入。其中,端侧AI是安谋科技AI Arm China战略的重要方向。此次发布会主角“周易”X3便是专为端侧AI打造的NPU IP。可陈锋的问题,或许不只是向台上的同僚提问,更是向整个端侧AI芯片设计市场提问。当前的端侧AI市场火热之余仍面临巨大的不确定性。算法的快速迭代、市场需求的碎片化、客户对成本与性能的双重苛求,都让芯片厂商如履薄冰。安谋科技Arm China产品研发副总裁刘浩在发布会上坦言,端侧AI正面临着前所未有的挑战。“首先是大模型的需求,它算力巨大,参数众多,对算力、带宽、存储都提出了极具挑战性的要求,形成了所谓的‘算力墙’‘面积墙’‘功耗墙’。其次是多模态的需求,输入不再只是文字,可能是图像、视频、点云、语音,这要求NPU支持更多异构算子。第三是混合专家系统(MoE)的需求,动态路由、动态任务分配,这些都需要架构具备灵活的算力调度和高带宽互联能力。”刘浩说。安谋科技Arm China产品研发副总裁刘浩更令人捉摸不透的,是模型迭代速度。刘浩举了一个生动的例子:“客户在芯片流片成功进入量产之际,他的模型和算法仍然需要两周一次的迭代。这就要求芯片硬件必须有足够的通用性,无论新的算子还是模型出现,硬件都能灵活支持。”于是,端侧AI芯片IP的设计陷入了两难境地——过于专用化的架构虽然面效比、能效比高,但无法适应快速变化的算法;而过
解锁百度市值暴涨的底层逻辑。作者|田思奇编辑|栗子2025年,百度的估值逻辑正在被重写。当大多数消费级AI应用还在为商业化苦恼时,百度的股价却走出了陡峭的上扬曲线,从年初的82美元,增长到目前120美元左右。摩根士丹利对百度维持“增持”评级,高盛等机构纷纷上调百度目标价,理由一致:市场长期低估了百度在人工智能领域的真实价值。在11月13日举行的百度世界大会2025上,李彦宏给出了这一轮重估的逻辑起点。他认为,AI行业正走向“效果涌现”,产业结构也正在重构,从过去以芯片为底、应用端价值薄弱的“正金字塔”,转变为一个模型和应用价值被充分释放的“倒金字塔”。在这个新结构里,模型能产生十倍于芯片的价值,而应用层将释放百倍潜力,成为新的生产力引擎。这一判断的背后,是百度对AI能力应用方式的深刻思考。李彦宏强调,当AI能力被内化,成为一种原生的能力,智能就不再是企业运营的成本,而是一种可以直接驱动增长的生产力。他表示,行业更应关心如何让AI跟每一项任务有机结合,让AI成为企业发展和个人成长的原生推动力。评估百度的标尺必须改变。它不再是那家以搜索为核心的互联网公司,而是一个以AI为核心操作系统的新物种。1. 百度为什么要内化AI能力?自2022年底生成式 AI 爆发以来,市场经历了从狂热到冷静的全过程。消费级应用的增长陷入瓶颈,高昂的推理成本与模糊的商业模式,让许多产品在流量消退后举步维艰。与此同时,B端需求却在真实增长。2023年,几乎每个CEO都在问同一个问题:AI能为我做什么?如今,这个问题变成了:我该如何让AI成为自己的一部分?尤其是在金融、制造、能源等关键领域,利用AI进行成本优化、效率提升的需求变得刚性且迫切。这为拥有深厚AI技术能力的企业,打开了一个巨大的增量市场。然而“甲子光年”观察到,机遇面前横亘着巨大的鸿沟。大多数企业对AI的应用,仍停留
AI的未来不是云端取代本地,而是云端与本地的深度协同。作者|王艺编辑|栗子今年下半年以来,AI圈流传着一个半开玩笑的段子:“DeepSeek R2为什么还不发布?因为Scaling Law不灵了。”笑声背后,是整个行业正在面对的残酷现实:大模型的边际收益正在递减,AI竞赛的上半场规则正在失效。首先是训练模型需要巨量的花费:训练一个GPT-4级别的模型,费用已经突破1亿美元大关,而知名科技投资机构BOND于2025年5月底发布了最新的《AI 行业趋势研究报告》显示,目前训练最尖端AI模型的成本已接近10亿美元规模,这一成本规模远超历史上任何一个技术开发项目,标志着AI模型训练进入了只有资本雄厚巨头企业才能主导的时代。其次是模型能力遇到了增长瓶颈:从GPT-3.5到GPT-4再到GPT-5,大模型智能水平的跃升令人惊叹;但从GPT-4到GPT-4.5再到GPT-5,即便参数量翻倍,能力提升却越来越不明显。Scaling Law开始“撞墙”——简单地堆砌参数,不再是通往AGI的捷径。然而,就在巨头们陷入困境时,一个“小模型”逆袭的故事正在上演:今年5月,DeepSeek R1-0528将原来671B参数的大模型蒸馏到仅有8B,不仅保持了原有能力,在AIME 2024测试中甚至反超原模型10%。DeepSeek并不是孤例。Qwen最新推出的Qwen3-VL 4B/8B(Instruct / Thinking)模型在保持256K-1M超长上下文和完整多模态能力的同时,还能在低显存设备上稳定运行,并提供了FP8量化权重,真正让多模态AI走向“可落地”。英伟达2025年6月发表的论文也表示,小于100亿参数的“小语言模型”(SLM)在多数Agent任务中,不仅能媲美甚至超越庞大的LLM,且运营成本仅为后者的1/10到1/30。图源:《Small Language Models are t