关于 AI 项目失败率的最新报告引发了组织对 AI 重金投资的尴尬问题。讨论大多集中在模型精度和数据质量等技术因素上,但在观察了数十个 AI 计划启动后,我发现最大的改进机会往往是文化层面的,而非技术层面。

跨部门协作的缺失

内部挣扎的项目往往有共同问题。工程团队构建产品经理不知道如何使用的模型。数据科学家构建运营团队难以维护的原型。AI 应用闲置不用,因为它们服务的人群没有参与决定什么是”有用”。

相比之下,用 AI 实现有意义价值的组织已经找到了如何在部门间创建正确协作、并为结果建立共同问责的方法。技术很重要,但组织准备度同样重要。

以下是三个解决可能阻碍 AI 成功的文化和组织障碍的实践。

一、将 AI 素养扩展到工程之外

当只有工程师理解 AI 系统如何工作及其能力时,协作就会破裂。产品经理无法评估他们不理解的权衡。设计师无法为他们无法表达的能力创建界面。分析师无法验证他们无法解读的输出。

解决方案不是让每个人都成为数据科学家。而是帮助每个角色理解 AI 如何应用于他们的具体工作。产品经理需要了解在可用数据情况下,什么样的生成内容、预测或推荐是现实的。设计师需要理解 AI 实际能做什么,才能设计用户觉得有用的功能。分析师需要知道哪些 AI 输出需要人工验证,哪些可以信任。

当团队共享这种工作词汇时,AI 不再是工程部门发生的事情,而成为整个组织可以有效使用的工具。

二、为 AI 自主性建立清晰规则

第二个挑战涉及知道 AI 可以在哪里独立行动,哪里需要人工批准。许多组织默认走向极端,要么让每个 AI 决策都通过人工审查成为瓶颈,要么让 AI 系统在没有护栏的情况下运行。

需要的是一个清晰框架,定义 AI 可以在哪里以及如何自主行动。这意味着提前建立规则:AI 可以批准常规配置更改吗?它可以推荐架构更新但不实施吗?它可以部署代码到测试环境但不能到生产环境吗?

这些规则应包括三个要素:可审计性(你能追溯 AI 如何达到决策吗?)、可重现性(你能重建决策路径吗?)、可观察性(团队能实时监控 AI 行为吗?)。没有这个框架,你要么慢到 AI 没有任何优势,要么创建做出没人能解释或控制的决策的系统。

三、创建跨职能剧本

第三步是编纂不同团队实际如何与 AI 系统工作。当每个部门开发自己的方法时,你会得到不一致的结果和重复的努力。

跨职能剧本在团队一起开发而不是从上层强加时效果最好。这些剧本回答具体问题:我们在将 AI 推荐投入生产前如何测试?当自动部署失败时,我们的回退程序是什么——是交接给人工操作员还是先尝试不同方法?当我们覆盖 AI 决策时,谁需要参与?我们如何整合反馈来改进系统?

目标不是增加官僚。而是确保每个人都理解 AI 如何适应他们现有的工作,以及当结果与预期不符时该怎么办。

前进之路

AI 的技术卓越仍然重要,但过度关注模型性能而忽视组织因素的企业正在为自己设置可避免的挑战。我见过的成功 AI 部署对文化转型和工作流程的重视程度与技术实施相当。

问题不在于你的 AI 技术是否足够复杂。而在于你的组织是否准备好与之协作。