每当新技术出现,总有人开始谈论它将如何改变一切。然后资本涌入,公司一夜之间成立,估值攀升到难以证明的高度。许多个月后,警告到来,人们突然想起了互联网泡沫或加密货币。
市场的模式识别陷阱
你可能见过这样的循环。如果你见过,你可能会认为 AI 是下一个泡沫。人类擅长模式识别——我们进化出识别模式的能力,所以当熟悉的东西出现时,我们会本能地将其映射到我们已知的故事上。我们认为自己以前见过,确信知道它会如何结束。
但这种本能可能会误导我们。AI 感觉像一个泡沫,是因为我们在强迫一个真正不连续的东西适应一个熟悉的故事。快速上升的东西最终必须崩溃的想法听起来很谨慎,但这并不意味着它永远是对的。
为什么市场总是超调
每一次重大的技术转变都会产生相同的外在症状:膨胀的预期,随后是高调的失败。互联网、移动和加密货币都经历了一个世界失去理性的阶段。
为什么会不断发生这种情况?因为市场没有针对不连续变化的框架。贴现现金流模型假设稳定、可持续的增长,可比公司分析假设类别已经存在。所以人们假设不久的将来看起来像最近的过去,但当底层类别本身发生变化时,这不成立。
大多数估值工具是为渐进式进步设计的,所以分析师看季度预测和增量改进。他们不知道如何处理阶梯式变化,也无法建模非线性采用。
AI 为什么不同
当新东西到来时,我们寻找比较对象:AI 像电力,像计算机,像互联网,像移动。这些比较令人安慰,因为它们都产生了大规模的、经济范围的变革,并吸引了大量资本。
但它们有一个更深的共同点:每一种技术都扩展了人类能力,而没有取代人类认知。电力驱动机器,但人类仍然决定建造什么。计算机处理数据,但人类解释它。互联网移动信息,但人类决定什么重要。移动设备把计算放进口袋,但人类注意力仍然是稀缺资源。在每种情况下,人类智能锚定一切,它也是瓶颈。
AI 不同,因为它执行认知工作。如果这让你不安,它应该。因为如果 AI 真的能思考,那么我们职业生涯建立的东西——我们的专业知识和来之不易的技能——可能不像我们想象的那么可防御。
专业知识的压缩
我每周都与 CFO 交谈。六个月前,他们问我抽象的问题,比如「什么是 AI?」和「我们应该有 AI 战略吗?」现在问题很具体:「我团队的哪些工作不再需要以这种方式完成?」这种转变发生得太快,已经在改变资源分配方式。
例如,一位创始人开始使用 Claude 编写 SQL 查询,这以前需要她的分析师几天时间。她没有解雇分析师。但她消除了瓶颈,不再需要依赖他快速获得答案。然后她分析师的角色完全改变了——从花 60% 时间写查询到 10% 检查它们和 90% 做战略建议。公司没有减少人数或成本,分析师从支持三个利益相关者变成支持十五个。
怀疑者关于炒作的看法是对的,关于意义的看法是错的
让我们接受最强的泡沫论点。也许 AI 确实被过度炒作,大多数这些公司会失败。也许我们太早了,真正的影响还需要五到十年。所有这些都可能是真的,但仍然不会改变核心观点:
即使大多数 AI 创业公司失败,即使采用比预期慢得多,AI 仍然是第一个可以执行知识工作的技术。这不会因为市场超调或预期重置而消失。怀疑者关于炒作膨胀的看法是对的。但他们对膨胀的炒作使技术无关紧要的看法是错的。
互联网泡沫是真实的,Pets.com 崩溃了,但互联网仍然改变了一切。两件事同时成立。
这次确实不同
短期内,AI 会让人失望。许多用例不会兑现承诺,这波浪潮中形成的许多公司不会生存下来。但技术会。长期来看,AI 将重塑每一个依赖知识工作的领域。不是一次全部,也不是均匀地,但十年后,很难找到一个与今天相同的知识型行业。
AI 不同,因为智能本身——历史上是人类创新的核心约束——现在变得可扩展。这是一个可观察的事实,有可衡量的后果。关于泡沫的对话会消退,正如它总是如此,留下来的是那些在其他人争论估值时安静适应的系统。五年后,我们会以同样方式回望今天的恐慌,就像我们回望那些因为少数公司失败而否定互联网的人。赢家将是那些在其他人争论估值时在构建的人。
发表回复