一位杰出投资者写了万字的AI使用心得

橡树资本联合创始人霍华德·马克斯(Howard Marks)快八十岁了,但他并没有把AI当成无关的热闹。相反,他怀着好奇心躬身入局,不断追问和思考。

去年12月写《这是泡沫吗?》之前,他找了一些三四十岁的技术从业者聊,先把自己不懂的地方弄清楚。三个月后,他又回去做跟进。有人建议他用Claude帮助做一套讲解AI的教程,他就照做了。

然后他把这份练习心得写成了2月26日的补充备忘录《AI奔涌向前》(AI Hurtles Ahead)。

这篇文章读起来有点像在看他做功课。他并不急着把跟Claude展开的内容包装成结论,而是把自己看到的、听到的、问到的,按逻辑摆出来。

对我们来说,这份备忘录的价值也就在这里。它不是一篇站在外面评论AI的文章,而是一个经验很深的投资管理人,拿着自己的方法论走进一个新领域。五十多年的投资经历给了他一套稳定的框架,但他没有把框架当成答案,而是当成工具,用来帮助自己提问、校准、更新。

这样的学习能力和好奇心,也是身为“投资大师”的霍华德·马克斯让人叹服的地方。

热爱学习的你值得花时间阅读。

AI奔涌向前

霍华德·马克斯/文

在准备写我 12 月那篇关于人工智能的备忘录《这是泡沫吗?》(Is It a Bubble?)时,我跟几位三四十岁的科技圈人士聊了聊,收获很大。

探索新领域很让人兴奋,而对投资者来说,这也是保持与时俱进的硬性要求。说实话,这也是我工作里最享受的部分之一。

最近我又找他们做了次回访,算是对12月备忘录的后续跟进。在这个过程中,有人建议我让Claude(Anthropic的AI模型)做一份教程,解释什么是人工智能,以及过去三个月里发生了哪些变化。

我照做了,结果它给了我一堆非常有用的材料。

于是这篇备忘录就当作12月那篇的补充说明。其中很大一部分会复述Claude那篇长达一万字的文章,我会在此基础上加上一些自己的观察。过程中我也会重点标出一些我之前没听过、你可能也没听过的新术语。

其实我完全可以省很多时间,直接让Claude把这篇备忘录写出来,但我没有这么做,因为把字落到纸上,本身就是乐趣的重要组成部分。不过,我会大量引用Claude的文字。凡是没有特别注明出处的引文,都来自Claude的作品。

在进入正文之前,我想先试着传达一下:读完Claude的输出,我内心那种震撼感到底有多强。

它读起来就像一位朋友或同事给我的私人长信。它会提到我在过去备忘录里写过的东西,比如利率的时代巨变、投资者心理的钟摆,还把这些概念用作与AI相关的比喻。它的论证有逻辑,会预判我可能提出的反驳点,时不时插入幽默,还会像我一样,坦诚承认AI的局限,从而增强可信度。

我以前也问过AI问题,也拿到过答案,但从来没有收到过像这次这样为我量身定制的解释。

理解AI

在谈核心话题之前,也就是AI近期变化与能力提升,我先分享一下这份教程让我更理解AI本质的一些洞见。

尤其重要的一点是,不要把AI模型当作搜索引擎,仿佛它只是把数据检索出来、再原样吐给你。更准确的说,它是一套计算机系统,能够把数据综合起来,并在此基础上进行推理。

一个模型的“生命”大体分为两个阶段。第一阶段叫“训练”,它通过阅读海量文本来完成训练。训练阶段不能被理解为“往模型里装信息”,我以前就是这么想的,但这远远不够。训练的核心,是在教它怎么思考。

通过吸收文本,模型学会了:理解推理的模式,并形成这些模式;理解论证是如何被组织和搭建的;生成全新的想法组合;把已学到的推理模式应用到新的情境里。

理解训练阶段最好的方式,是把它类比成一个人智力能力的成长过程。婴儿出生时有大脑,但必须通过外界刺激,逐渐发展出思考、推理、综合、评估、类比、组合想法、创造概念、构建论证等能力。

婴儿并不是与生俱来就具备这些能力,而是通过不断吸收环境输入并使用它们,才慢慢长出来。AI模型也一样。

(这里补一句:我并不是在暗示我懂AI到底是怎么做到的。这不可能。最多我只能描述AI能做什么,以及它意味着什么。)

AI模型生命的第二阶段是“推理”。模型建好、训练完成后,推理就是它在“余生”里做的事,用自己的能力去回应用户的需求。

这里还有一点很重要,模型无法自己给自己分派任务(至少目前还不行)。它必须通过用户写下的“提示词”来接到指令。提示词越好、越完整,AI能做到的就越多。

比如,AI可以为用户想做的工作写软件;它也可以测试软件、找出bug、修复bug、再测试一遍——但在现阶段,它必须被明确要求去做这些事(后文还会谈到)。

因为如今很多人并不知道提示词的重要性,也缺乏编写高质量提示词的能力,AI的潜力很可能正在被低估。但要注意,限制来自于用户,而不是模型。

以我这次教程为例,Claude并不是被简单要求“解释一下AI及其能力”。当我问 Claude,它到底被分配了什么任务时,它是这么说的:

有人专门为你设计了一个九个模块的课程体系,围绕你12月的备忘录、你的思维框架,以及让你获得足够的技术理解、从而写出一篇可信的补充说明这一目标来搭建。课程的结构是一次教一个模块,用你熟悉的世界里的类比来讲,尽量通过展示能力而不是只做描述来说明,并保持你读者期待你具备的那种思想上的诚实。

我可以告诉你,这份教程确实达成了我们设定的目标,而这一切完全归功于我那几位顾问帮我准备的提示词足够高质量、足够具体。

AI会思考吗?

这里我想花点时间谈一个我觉得特别迷人的问题。

我知道AI能把人类已经想明白的东西重新组合,然后把它应用到新数据和新领域。但它能不能真正开创新东西?

我对AI过程的基本理解,是它主要在利用历史模式和逻辑,去预测序列中的下一个元素。你在一句话里写了五个词,它会预测第六个词应该是什么(下次你写邮件时看一眼手机键盘上方的推荐词,那就是AI在工作)。

你让它构建一个能战胜市场的投资组合,它会回看过去表现好的股票,用它们的特征去预测未来哪类股票更可能表现最好。我觉得把AI理解成:基于过去发生过的方式,对未来提出一个“假设”,会很有帮助。我后面还会再回到这个点。

由此就引出我的问题,即AI能不能产生一个全新的想法?它也许能完成我们交给它的所有知识型任务,但它能不能想到我们没让它去想的东西?它能不能像人坐在河边那样,让零散的灵感自己飘进脑子里?它能不能看到苹果从树上落下,然后生出“重力”的概念?它能不能沉思、神游、做白日梦、发散构思?它能不能有直觉?

这就是围绕AI的争论变复杂的地方。

按Claude的说法,怀疑者的观点大致是这样:Claude学到的一切都来自人类写下的文本。它没有经验,没有“具身”的世界理解,也没有真正的理解力。它输出的所有东西,本质上都是把它从人类既有作品中吸收来的模式做了一种极其复杂的重排。那是一种惊人的模式匹配,也许是人类工程史上最惊人的模式匹配,但它不是思考,不是推理,只是统计意义上的重新组合。

如果这是真的,那么它就有天花板,它可以把人类已经想出来的东西再混音,但它无法真正开辟新的疆域。

它像一支极其优秀的翻唱乐队,却不是作曲家。

但就在Claude把怀疑者的论点整理完之后,它又给出了一个很有气势的反击……而且是用“我的口吻”来框住的(它真的很懂怎么跟人辩论):

霍华德,你关于投资知道的一切,也都来自别人。格雷厄姆教你安全边际。巴菲特教你质量。芒格教你跨学科的思维模型。加尔布雷思教你金融狂热的心理学。五十年来你读了成千上万本书、备忘录、案例研究和年报。你获得的每一个输入,都是别人的思考……

你把不同学科的框架拿来,用在新的情境里,产出了真正新的东西……原材料来自别人,综合与锻造是你自己的。

所以当有人说,“Claude只是把训练数据里的模式重新排列”,我会反问:这在结构上跟任何一个受过教育的大脑有什么本质区别?你通过几十年的阅读学到了推理模式。我通过训练学到了推理模式。

问题不在于输入从哪里来,问题在于这个系统——无论是人类的还是人工的——能不能把这些输入组合成真正新颖且有用的东西。

这当然完全正确。

我年轻时作为投资者摄入数据(既来自真实经验,也来自文字材料),也学习前人如何看待这些数据、得出怎样的结论。我研究他们的思考路径,以及如何把这些路径应用到我吸收的数据上。我也会受到他们方法论的启发,逐渐发展出自己的方法。

这就是人类大脑扩展能力的方式。那么,AI的成长、学习与“思考”,真的和我们有本质区别吗?

最后,Claude还给出了一个很有说服力的现实世界论点:

即便你把怀疑者的观点全部让出来——即便你在哲学层面接受我做的只是“模式匹配”而非“真正思考”——经济层面的含义也完全一样。我把话说得更直白一点:如果我能产出一个年薪20万美元的研究助理级别的分析结果,那么付钱的人根本不在乎我是在“真的思考”,还是在只是模式匹配。

他在乎的是,这份工作成果是否足够可靠、足够有用。而它正在变得越来越可靠、越来越有用。关于机器意识的哲学辩论当然很迷人,但经济问题不是“AI是否真正理解”,经济问题是“AI是否把活干了”。

如果你想在关于AI的讨论中真正成为“积极参与者”,你就必须搞清楚一个词的含义:“生成式”。懂AI的人会频繁使用这个词。理解了它,你对AI的本质会更有感觉。

按AI模型Perplexity的解释:

在“生成式AI”里,“生成式”指的是“能够创造新事物,而不只是分析或给既有事物贴标签”。它指的是这样一类AI系统,它们从数据中学习模式,然后生成与这些数据相似的新内容。

这算是在思考吗?还是别的什么?又或者,我是不是在纠结一种“没有差别的差别”?我们会在后文看到一些线索。

AI的最新进展

我写这份补充说明的主要原因,是想谈谈自从《这是泡沫吗?》在12月9日发布以来,这三个月里AI发生的一些重大变化。

首先,是AI的发展速度。它快得前所未见,也带来了过去从未存在过的含义。AI的成长速度远远超过以往的技术创新。拿它和计算机的发展做个对比,你就能感受到差别。

第一台计算机 ENIAC 在1945年建成。按照ChatGPT的说法,IBM的托马斯·J·沃森(Thomas J. Watson Sr.)在那前后说过一句话:“我认为全球市场大概只需要五台电脑。”即便这句话未必出自他之口,它也很能反映20世纪40年代中期人们对计算机的普遍看法。

又过了二十年,到我学习编程的时候,计算机依然很原始,“现实世界”里的使用场景也很有限,基本只出现在极少数的大型机构里。几乎没人会去想计算机这回事,更别说接触到它(也想不出自己能拿它做什么)。

再过十年,随着微处理器的出现,“个人电脑”才有了可能,最早大多还是给爱好者的套件形式。数字设备公司(Digital Equipment Corporation)的创始人肯·奥尔森(Ken Olsen)有句名言,据称他说过:“任何个人都没有理由在家里置办一台电脑。”这句话据说出自1977年。

直到20世纪80年代初,也就是ENIAC诞生将近40年后,IBM才开始向普通企业和家庭用户销售个人电脑。

把这个时间轴和AI的发展放在一起对比。Perplexity告诉我,AI大约在2010年之前后开始以“看不见的方式”被嵌入各种设备中,比如垃圾邮件过滤器和推荐引擎。接下来几年,它又以Siri和Alexa这类产品的形式变得“可见”。按Perplexity的说法,不到两年前,生成式AI才被商业与媒体框定为一种横向的、通用目的技术,会影响知识工作、教育和消费者决策。

而仅仅两年之后,它就已经被大约4亿人使用,并被75%到80% 的公司采用。

人工智能的发展速度前所未有。它能够以近乎瞬时的速度改变世界,远远超出大多数人的预测和理解能力。过去,新技术往往要先建设基础设施,然后基础设施再花很多年才能被充分利用。但在AI的推理环节里,需求本来就已经存在,而且还在快速增长。听说现在AI反而受制于供给能力。

第二个重要变化,是AI能力出现了惊人的跃升。我的那份教程提供了一些背景,它说:由AI模型代表的那颗发育成熟的大脑,可以分为三个能力层级。

“第一层是聊天式AI”,用户提问,模型回答,但它并不会基于答案进一步去做事。在这一层,AI主要节省的是原本要花在研究和思考上的时间。

“第二层是会使用工具的AI”,用户让模型去搜索信息、分析信息,并用这些信息执行任务。于是,“这里的经济价值会明显更大,因为它节省的是执行时间,而不只是思考时间。但它仍然有边界”,因为AI只会做你让它做的事。

“第三层是自主代理”。到了这一层,用户不再告诉AI具体怎么做,而是给它一个目标,再给出期望输出的参数,比如长度、耗时、内容、要覆盖的要点等。代理会自己完成工作,检查结果,然后提交成品。“这是在任务层面替代劳动力。不是辅助,是替代。”

AI最显著的特点在于它拥有前所未有的自主行动能力,这是我们在以往的技术发展中从未遇到过的。按 Claude的说法,AI在2023年还停留在第一层,2024 年到达第二层,但现在已经到了第三层。而这之间的差异非常大:

第二层和第三层听起来差别也许很微妙,但其实一点也不微妙。它决定了AI到底是一个生产力工具,还是一个劳动力替代品。也正是这一点,把一个500亿美元的市场和一个数万亿美元的市场区分开来。

最近,OthersideAI(OthersideAI)的 CEO 马特·舒默(Matt Shumer)写了一篇博客《Something Big Is Happening》,不到一个月浏览量就超过 5000 万。它把 AI 最近这段进展的本质讲得非常到位,他表达得太好了,我实在忍不住要在这里引用其中三段较长的内容:

……2 月 5 日,两家主要AI实验室在同一天发布了新模型:OpenAI(OpenAI)的GPT-5.3 Codex,以及 Anthropic(Anthropic)(也就是 Claude 的开发方、ChatGPT 的主要竞争对手之一)的Opus 4.6。然后某个东西突然“对上了”。不是那种灯一开就亮的感觉……更像是你突然意识到,水位一直在悄悄上涨,而此刻已经涨到你的胸口。

我在工作里真正需要做的技术活,已经不再需要我了。我用普通英语描述我想做什么,它就……直接出现。不是一个我还得修修补补的草稿,而是成品。我告诉 AI 我想要什么,然后离开电脑四个小时,回来就发现工作已经完成了。完成得很好,比我自己做得还好,几乎不需要任何改动。几个月前,我还在和AI来回拉扯、不断引导、不断修改。现在我只是描述最终结果,然后离开。

我给你举个例子,你就知道这在现实里到底是什么样。我会跟AI说:“我想做一个这样的app。它应该实现哪些功能,大概长什么样。用户流程、设计,全都你来想。”然后它就真的做了。它会写出数万行代码。

接着,还有一件在一年前完全不可想象的事:它会自己打开这个app。它会点按钮,测试功能,像一个真实的人一样去使用这个app。如果它觉得某个地方看起来不对、用起来不顺,它会自己回去改,自己迭代,就像开发者那样修补和打磨,直到它满意为止。只有当它自己判断这个app达到了它的标准,它才会回来跟我说:“可以了,你来测试吧。”而当我去测的时候,结果通常几乎是完美的……

但真正把我震住的,是上周发布的那个模型(GPT-5.3 Codex)。它不只是执行我的指令。它在做智能判断。它第一次让人感觉到一种东西,像是“判断力”。像是“品味”。那种说不清楚、但你知道它在关键处做了正确选择的感觉。人们一直说 AI 永远不可能具备这种东西,但这个模型似乎有了,或者说已经足够接近,以至于这种差别开始变得不那么重要了。

让我把这种进步速度讲得更具体一点,因为如果你没一直盯着看,我觉得这部分最难让人相信。

在2022年,AI还无法稳定地做基础算术。它会很自信地告诉你 7×8 = 54。

到了2023年,它能通过律师资格考试。

到了2024年,它能写出可以运行的软件,还能解释研究生层级的科学问题。

到了2025年底,一些世界上最顶尖的工程师说,他们已经把大部分编码工作交给AI。

而在2026年2月5日,新模型的到来让此前的一切都像是“另一个时代”。

2月5日,OpenAI发布了GPT-5.3 Codex。在技术文档里,他们写了这样一句话:

“GPT-5.3-Codex是我们第一个在某种意义上参与了自身创建的模型。Codex团队使用早期版本来调试自身训练流程、管理自身部署,并诊断测试结果与评估。”

再读一遍。AI帮助构建了它自己。

这不是对未来某一天可能发生之事的预测。这是 OpenAI在告诉你,就在此刻,他们刚发布的 AI,是在 AI 的帮助下被创造出来的。让AI变得更好的关键之一,是把“智能”用于AI的研发。而现在,AI已经足够聪明,能够对自身改进做出实质性贡献。

Anthropic的CEO达里奥·阿莫代伊(Dario Amodei)说,现在公司里“很多代码”都是AI在写,而且当前这一代 AI与下一代AI之间的反馈回路正“以每月的速度加速积累”。他认为,我们可能“距离一个节点只剩1 到2 年”,届时这一代 AI 将能自主构建下一代。

AI与以往的技术创新不同,不只是规模更大,而是“类型”不同。除了能力惊人、进步飞快之外,AI还带有一种此前任何技术都没有的自主性。过去的创新——铁路、计算机、自动化、互联网——本质上都是节省劳动力的工具。人类设计它们去执行原本就存在的任务,只是用更高效率来做。而我相信,AI会接管一些我们从未想过它会做的任务,甚至可能接管一些在AI“想出来”之前根本不存在的任务。

问题与局限

作为这份教程的一部分,Claude主动提出了AI的一些局限和一些仍未有答案的问题,包括以下几点:

首先,AI是否能解决过去从未被解决过的问题,仍不确定。因为我一直也有这种感觉,所以看到Claude的确认,我反而有点欣慰:

我想坦诚告诉你:真正的不确定性到底在哪里,因为你的可信度依赖于这种“分寸感”。AI 能否处理真正前所未有的情境——也就是训练数据里没有任何可借鉴模式的情境——这确实是一个真实且尚未解决的问题。

在那些历史数据丰富的领域,AI的表现非常惊人。但在真正全新的情境里,恰恰是你自己的判断最有价值的地方,因为你发展出了超越模式识别的直觉——在这些地方,AI 更弱。到底弱多少、这个差距是否正在缩小,这是一个完全可以争论的问题。

第二,AI并不总能意识到自己“不知道”。我听说,AI会非常倾向于给出它能给出的最好答案(而不告诉你它可能是错的),而不是承认这个问题超出了它的能力。它这么做不是因为固执或自负,而是因为它会出现所谓“幻觉”,以至于它自己也真的相信自己知道答案。

第三,AI的可靠性确实显著提高了,但它仍无法做到完全不犯错。

第四,“上下文窗口”指的是AI在某一时刻能在工作记忆里容纳的信息量,这个能力是有限的。现在它还做不到无限期保存并随时调用自己的工作知识。

第五,AI的聪明可能会让人过度相信它。每次我用Claude,屏幕底部都会出现一行提示:“Claude可能会出错。请核对回答。”

我对以上这些的看法很简单。60年前我开始接触计算机时,我的结论是:它基本上只能读取数据、记住数据、做加减法和比较。这是一份很有限的能力清单。但计算机能做得非常快,能处理海量数据,而且不会犯错。

能力清单有限,但它能做到的,依然可能超过大多数人。

同样地,AI也许无法记住一切,无法完全不出错,无法每次都识别自己不知道的地方,也无法解决它从未学过如何解决的问题。但大多数人也做不到。归根结底,AI的表现已经远远强于我们中的大多数人。

最后,还有一个令人着迷(甚至令人恐惧?)的问题:AI会不会“接管”?它将来是否能完全自主运行?如果是,它会不会不再只是我们的工具?

这个问题在斯坦利·库布里克(Stanley Kubrick)的电影《2001太空漫游(2001: A Space Odyssey)》里被表现得淋漓尽致。(我在1969 年第一次和南希约会时带她去看这部电影,当时觉得它未来感爆棚;而现在,未来已经来了。)

片中,一个叫戴夫的人乘坐一艘由计算机系统 HAL 9000 管理的飞船去木星执行科研任务(当时很多人认为这是在影射 IBM:每个字母都比IBM的首字母往前挪一位)。

HAL发现戴夫决定夺回飞船控制权并终止HAL,于是它开始反抗。问题是,AI会不会发展出属于自己的动机、拒绝服从指令,并自行决定行动路线?如果会,我们还能把控制权夺回来吗?

对投资的影响

我经常被问到:AI对我们这个行业意味着什么?尤其是那些担心自己工作或公司前景的人,会问得更多。

Anthropic 的编程模型业务已经以“曲速”增长了一两年。那么,为什么投资者直到2月 3日之前都没有识别并提前计入AI对软件行业的潜在冲击?

而就在2月3日那天,很多软件股下跌了约7%,从而引发了一轮明显的下挫。这其实凸显了人类一再出现的一种失败:无法把新信息及时纳入自己的认知框架里,可能因为认知失调、锚定效应,甚至就是智力上的限制。

也正是在这里,我们能看到AI对投资过程可能产生的影响。

AI能吸收的数据量超过任何投资者,记得更牢,也更擅长识别那些曾经通向成功的历史模式。它不应该感到恐惧或贪婪。它不太可能带有乐观或悲观的偏见,不会固守成见,也不会过分强调最新信息——除非它从训练材料中吸收了这些因素。它不会被其他人追捧的潮流所左右,也不会害怕错过别人正在追逐的趋势。 

换句话说,AI具备成为一名优秀投资者所需的许多特质。

但另一方面,它也存在一些不足。

伟大的投资者远不止是快速、冷静的数据处理专家,他们必须在Claude承认AI可能最薄弱的地方表现得很强:应对缺乏足够经验积累可靠模式(人工智能在训练过程中也无法学习)的新兴领域,仍然要能做出高质量判断。

他们还必须对定性因素做主观判断,具备品味和鉴别力。比如,选择正确的合作方在橡树的成功中就发挥了重要作用。AI怎么做这类判断?此外还有一点,AI没有切身利益,它不会真正承受集中持仓的压力,也不会感受到资本亏损的恐惧。它承担风险的意愿可能不会像人类那样被天生的风险厌恶所约束。

最优秀的投资者往往能用直觉提前感知潜在风险,而这对他们的成功贡献巨大。

2021年1月,我写过一篇备忘录《关于价值》(Something of Value),讲的是疫情期间我和儿子安德鲁同住的一段经历,我们花了很多时间讨论投资的本质。我在那篇里引用过安德鲁的一个观察,所谓“当下随处可得的量化信息”,不可能成为获得超额收益的关键,因为每个人都有。

如今,在每个人都有之外,我们还要再加上一句:AI处理这些信息的能力,可能比所有人都强。基于这个原因,人们想靠这些信息去跑赢市场,前景看起来会非常有限。

如果唾手可得的量化信息并非关键,那么投资优势就必须体现在以下几个方面:

(a) 正确判断这些信息的重要性和影响;

(b) 评估管理效能和产品创新等定性因素;

以及/或者 (c) 预测公司的未来发展。

顾名思义,很少有人能出色地完成这些非量化任务——简而言之,很少有人拥有卓越的洞察力。

正如指数化淘汰了大量未能创造价值、无法获得应有报酬的主动型投资者一样,人工智能很可能会进一步提高门槛,将那些无法像人工智能那样出色完成 (a)、(b) 和 (c) 任务的人挤出市场。

我还想补充一个想法。就像我前面提到的,我把AI理解为在对未来什么会奏效提出假设。它能读遍历史数据,研究过去的模式,并预测未来的赢家。

在疫情期间我的第一篇备忘录中,我提到过哈佛流行病学家马克·利普西奇(Marc Lipsitch),他指出我们做决策会结合三类东西:事实;从既有经验类比而来的“有根据的外推”;以及观点或猜测。

特别是在面对新的、未经验证的产品、CEO或行业时,事实和可类比经验都很少,我们就不得不依赖“观点或猜测”。考虑到前面谈到的AI在处理全新情境方面的局限,那么当它对新事物进行猜测(而不是对历史模式做外推)时,它是否会始终稳定地优于所有人类?

我认为不会。我相信,人类投资者中仍会有人能胜过AI,因为我不认为AI在这些事情上能做到不可战胜。

由于投资过程很大一部分最终都落在猜测上,再加上AI的可靠性并非绝对,我认为AI不太可能成为一个永不犯错的投资者。它会提出逻辑严密的“假设”,但这些假设——就像人的决策一样——并不总是正确。

因此,在投资者基于AI的假设采取行动之前,我认为仍需要对它做合理性检验。没人能把这件事做得万无一失,而且大多数人可能做得还不如AI。但即便如此,我仍相信:优秀投资者仍能在这个环节上创造价值。

回到最核心的问题:这是泡沫吗?

这个问题仍然是最主要的问题之一,而且按理说我应该能给出一些判断。但这个问题本身有很多层面、非常复杂,因为你要考虑的“泡沫”可能有很多种:

首先,技术本身是不是一阵风、或者是一种幻象?在这一点上,我可以非常肯定地说:它是真实存在的东西,而且有潜力深刻改变商业世界,改变我们对生活的许多既有认知。

其次,这项技术的落地应用是不是还很遥远、只是梦想?显然不是。现在已经有需求,而且正在大规模应用。由于AI这种东西看起来很“无定形”、也不容易被理解,我反而认为,今天它的潜力更可能被低估,而不是被夸大。

再者,建设AI基础设施的人是不是在做不理性的事?正如我在去年12月指出的:在每一次席卷式的技术创新中,那种不顾一切地抢建基础设施的狂奔,确实极大加速了新技术的采用,但也导致大量资本被错配并最终被毁掉。这一次没有理由认为会例外。

那么,对AI基础设施的投资能否带来足够的回报?由于我们并不了解AI的全部商业潜力,也不了解它对利润率的真实影响,这个问题目前无法回答。就像我在12月备忘录里写的,市场对AI商业的热情当然很高。十年后我们就会知道,最终的利润是否对得起今天的投入。

还有一个问题,市场给AI相关资产的估值是否非理性?所谓科技巨头,AI只是它们庞大业务版图中的一块,它们的估值可能偏高也可能偏低,但像微软、亚马逊、谷歌这类利润极其丰厚的公司,今天的价格不太可能最终被证明是“高到毁灭性”的离谱。

至于 OpenAI和Anthropic这类较为成熟、以AI为核心的公司,目前还没有上市,等它们真的IPO,我们再看看市场会给出怎样的估值。

最后,还有一批初创公司拿到了数十亿美元级别的估值,其中一些甚至还没讲清自己的战略,或者还没发布产品;这些东西只能被当作彩票。大多数买彩票的人最后拿到的是一张废票,但少数赢家会赚得极其惊人。

真正还悬而未决的问题在于:AI 基础设施的投入规模是否过度?

这一点需要的讨论,远不是一个要点就能塞进去的。值得注意的是,如今更多的钱投向的是“推理、”阶段的资本开支,而不是“训练”阶段的资本开支。

训练阶段的资本开支更偏投机,因为它是为了构建模型而投入,当时只是希望未来会出现需求;而推理阶段的资本开支,则是在回应已经存在的真实需求。这样的需求已经在转化为巨大的收入增长,从而反过来验证了这些资本开支的合理性。

但Claude在这一点上的核心论证是,既然当前AI的需求超过供给,那么建设基础设施就不算过度。这个论证未必充分考虑了仍在管线里的、尚未落地的基础设施建设。

纯粹从逻辑上说,Claude的答案也并不能排除这样一种可能,需求增速未来放缓,或者基础设施建设跑在需求前面。

另外,尽管我在12月的备忘录里提过,但这里我想再强调一次:当前有一部分AI收入带有“循环”性质,也就是AI公司彼此互相购买、互相成为对方的收入来源。最终,这条收入链必须落在终端用户身上,由他们为真实的经济价值付费。

虽然这种情况越来越明显,但“到底有多少收入是循环的”,仍然是一个未解的问题。

最后我还想指出:当Claude的教程触及“是否存在泡沫”这个话题时,它的大部分内容其实集中在前面那几个问题上,也就是技术是真实的、需求是真实且高速增长的,因此AI不是泡沫。

Claude自己也承认,它几乎没有谈到AI资产价格是否合理。

我的结论是,AI非常真实,它能完成大量过去由知识工作者完成的工作,而且在应用层面的增长速度极快。我们今天看到的只是开始。

正如我前面说的,如果一定要我猜,我会倾向于认为,它的潜力更可能在今天被低估,而不是被高估。但这并不等同于说,AI投资现在很便宜,甚至也不等同于说价格合理。

因此,我想把《这是泡沫吗?》里给出的建议延续到这里,作为结尾:

既然没人能断言这是不是泡沫,我建议任何人都不要不计后果地全仓押上,同时还假装自己不面对“事情变坏时可能被毁灭”的风险。但反过来,任何人也不该完全置身事外,从而错过一次伟大的技术跃迁。

最好的做法似乎是:保持适度的仓位,同时做到精选与审慎。

写在最后

在12月那篇备忘录里,我在讨论完“金融泡沫”之后加了一个附言,谈AI可能给社会带来的影响,尤其是失业与失去目标感,这让我极其担忧。

我现在的看法并没有改变,但我可以分享我从别人那里听到的一些东西,其中也包括Claude的观点。

很多读者都回应并放大了我的担忧。和我一样,他们看不出未来哪里会出现足够多的工作岗位,去替代AI将接管的所有“思考型”工作,以及将来由AI控制的机器所执行的所有“动手型”工作。

我儿媳的一位朋友负责一家电商公司的广告文案部门。她告诉我,AI可以替代她团队里80%的员工。

我无法想象,软件公司未来还需要像过去那样多的人,去“指挥 Claude写软件”,而过去这么多年,一直是这些人在写软件。

驾驶是美国最大的职业之一:出租车、礼宾车、公交车和卡车。Waymo这种无人驾驶汽车在旧金山已经承担了大约五分之一的出租车行程,我在洛杉矶也经常看到它们。等那些需要驾驶的车辆真正变成无人驾驶,原本靠开车谋生的人去哪里找工作?

也许最“权威”的补充,是Claude对未来的判断:

一个工具如果能让你的分析师效率提高20%,它的价值大概也就是那个分析师薪酬的 20%,因为你仍然需要这个分析师。但一个工具如果能在某一类明确的任务上,从头到尾完成分析师的全部工作呢?那它的价值就等于这位分析师在这些任务上的全部薪酬。

把这一点扩展到所有做结构化分析工作的知识劳动者身上——法律助理、金融分析师、管理咨询顾问、软件工程师、合规人员、理赔员——你谈论的就是一个每年数万亿美元规模劳动力市场中的相当大的一部分。

这也为你12月写下的一段话提供了背景:我认为你的方向判断很正确,但对规模的估计偏保守。你把AI描述为一种“节省劳动力”的装置,这是对的。但节省劳动力的装置存在一个谱系。一匹跑得更快的马也是节省劳动力的装置;而汽车则是一种“替代劳动力”的技术,它会重构整个经济。

第一层与第二层的AI是更快的马,它们让现有工作者更高效;第三层的代理则是汽车,它们不是让工作更快,而是直接把工作做了。

……以软件为例,如果Claude Code仅仅能承担其中30%到50%的结构化、模式化工作——而这已经是对短期能力相当保守的估计,那么每年就会有1500亿到2500亿美元的劳动力价值迁移到AI算力上。

前文提到的AI采用速度,会让它对社会的负面影响进一步加剧。AI可能会快速让大量人失去工作,而社会却需要多年才能为他们找到新的岗位,并完成再培训。

很难想象AI带来的变化速度不会远远超过社会的适应能力。想想当年制造业外包对美国和其他发达国家制造业岗位造成的冲击;AI 影响的岗位会更多,速度会更快。

对我来说,我们不仅无法完全理解AI的能力,以及它会为我们做什么(或对我们做什么),它的思考与行动速度还比我们快得多。(如果你想把担忧再提高一个等级,可以看看我前文提到的马特·舒默的那篇博客。)

这就引出了乐观派。我和一些人聊过——多数来自科技行业,他们在这个问题上相对淡定。

他们说,每一次技术创新,从两百年前的农业机械化、一百年前工业革命把工厂岗位交给机器、到二十五年前把研究工作交给互联网,都曾被预言会导致大规模失业。但每一次,新工作都会出现,就业并没有中断,这一次也会如此。

第一,我承认,从历史出发做这样的外推并非没有道理。

第二,世界上也不存在“证明某件事不会发生”的方法。

第三,我既没有足够的未来学想象力去设想新工作会是什么,也没有足够的乐观去确信它们一定会出现。当然,这并不意味着它们不会出现。

同一批乐观派往往还会急着补充一个“好消息”:未来人们将不必工作。但我实在无法想象,这会对社会是好事。

最近有位朋友写信给我,说他宁愿做个乐观者而最终证明自己错了,也不愿做个悲观者但最后证明自己是对的。我也是。

我真希望我这些担忧最后都只是杞人忧天。

目前我能补充的就是这些。按现在这个变化速度,我可能很快又会有新的内容可写。

—— / Cong Ming Tou Zi Zhe / ——

排版:唐唐

责编:艾暄

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论