近年来,关于AI项目失败率的报告引发了企业界的深刻反思。许多组织在AI领域投入巨资,却未能获得预期回报。问题究竟出在哪里?
问题的根源:不是技术,而是文化
很多人将AI项目失败归咎于模型准确性或数据质量等技术因素。但在观察了数十个AI项目启动后,专家发现最大的改进机会往往是文化层面的,而非技术层面。
内部项目常见的困境包括:
- 工程团队构建的模型,产品经理不知如何使用
- 数据科学家开发的原型,运营团队难以维护
- AI应用最终无人问津,因为目标用户从未参与定义”有用”的含义
相比之下,那些成功从AI中获得价值的企业,都找到了跨部门协作的正确方式,并建立了对结果的共同责任制。
改进建议一:扩大AI素养范围
当只有工程师理解AI系统的工作原理和能力时,协作就会崩溃。产品经理无法评估他们不了解的权衡;设计师无法为无法描述的能力设计界面;分析师无法验证他们无法解读的输出。
解决方案不是让每个人都成为数据科学家,而是帮助每个角色理解AI如何应用于他们的具体工作:
- 产品经理需要了解在现有数据条件下,什么样的生成内容、预测或推荐是现实的
- 设计师需要理解AI的实际能力,才能设计出用户觉得有用的功能
- 分析师需要知道哪些AI输出需要人工验证,哪些可以信任
当团队共享这种工作词汇时,AI就不再是”工程部门的事”,而成为整个组织都能有效使用的工具。
改进建议二:建立清晰的AI自主规则
第二个挑战是确定AI在哪里可以自主行动,哪里需要人工批准。许多组织走向极端:要么每项AI决策都通过人工审查造成瓶颈,要么让AI系统在没有护栏的情况下运行。
需要一个清晰的框架来定义AI可以在何处以及如何自主行动,包括:
- 可审计性:能否追溯AI如何做出决策?
- 可复现性:能否重现决策路径?
- 可观察性:团队能否实时监控AI行为?
没有这个框架,要么慢到AI毫无优势可言,要么创造出一个没有人能解释或控制决策的系统。
改进建议三:创建跨职能手册
第三步是将不同团队如何与AI系统协作的方式制度化。当每个部门各自为战时,结果就是不一致和重复劳动。
跨职能手册应该回答具体问题:
- 如何在将AI推荐投入生产之前进行测试?
- 当自动部署失败时,回退程序是什么?
- 谁需要参与推翻AI决策?
- 如何整合反馈以改进系统?
总结
AI技术卓越仍然重要,但过度关注模型性能而忽视组织因素的企业正在给自己制造可避免的挑战。成功的AI部署将文化转型和工作流程与技术实施同等重视。
关键问题不在于你的AI技术是否足够先进,而在于你的组织是否准备好与之协作。
发表回复