昆尼皮亚克大学的最新民调揭示了一个矛盾现象:尽管AI工具使用率持续上升,但公众对AI的信任却在下降。这一发现对企业如何部署和使用AI具有重要启示。
信任危机的数据
调查显示,只有27%的受访者表示从未使用过AI工具,这意味着超过70%的美国人在某种程度上已接触AI技术。然而,76%的人表示他们很少或只是有时信任AI,只有21%的人在大多数情况下信任AI生成的内容。
更令人担忧的是,55%的人认为AI在日常生活中弊大于利,只有三分之一认为利大于弊。这与去年的调查相比,负面看法有所增加。
企业面临的挑战
对于正在大规模部署AI的企业来说,这些数据敲响了警钟:
用户接受度低:即使技术先进,如果用户不信任,采用就会受阻。
品牌风险:AI错误可能导致用户流失和声誉损害。
监管压力:公众的不信任可能推动更严格的AI监管。
如何重建信任?
企业在部署AI时需要采取以下措施来建立用户信任:
透明度:清楚地告知用户何时在使用AI,AI在做什么。
可控性:让用户能够控制AI的使用程度和范围。
问责机制:当AI出错时,有明确的责任归属和纠正机制。
人机协作:保留人类监督和干预的能力,而不是完全自动化。
安全认证的教训
Delve事件提供了另一个教训:合规认证本身不足以建立信任。如果认证过程不可靠,认证反而会损害信任。
企业需要真正的安全实践,而不仅仅是一张证书。LiteLLM在发现安全问题后迅速与Delve切割,正是这种思维的体现。
Bluesky的警示
Bluesky推出AI工具Attie后遭遇用户大规模屏蔽,说明了另一个问题:用户选择特定平台可能正是为了避开AI泛滥。在这些平台上强行引入AI功能,即使本意是赋能用户,也可能引发反弹。
产品决策必须考虑用户基础的特点和期望。
写在最后
AI信任危机是一个系统性问题,需要系统性解决。技术进步、透明度、问责制、用户控制权——这些要素缺一不可。
对于企业而言,建立用户信任不是一蹴而就的事情,而是需要持续努力。在AI时代,信任可能成为最重要的竞争优势。
发表回复