Anthropic周一发布新功能“Claude Cowork”,旨在扩展Claude的AI代理能力,让用户能够像与同事协作一样与AI互动。
Cowork是什么?
“Cowork可以处理许多与Claude Code相同的任务,但以更适合非编码任务的形式呈现,”Anthropic在博客文章中写道。公司将其作为”研究预览”发布,以便团队了解人们如何使用它并继续构建。
目前,Cowork仅通过Claude的macOS应用提供,且仅面向Anthropic的高阶用户层级Claude Max订阅者,该层级月费100至200美元。
如何工作
用户给Claude访问计算机上某个文件夹的权限,允许聊天机器人读取、编辑或创建文件。Anthropic给出的示例包括:
- 通过排序和重命名每个文件来重新组织下载文件夹
- 从一堆截图中创建包含费用列表的新电子表格
- 从散乱的笔记中生成报告初稿
Claude会定期提供正在处理的工作更新,用户也可以使用现有连接器将其链接到外部信息(如Asana、Notion、PayPal等支持的合作伙伴),或将其链接到Chrome中的Claude进行浏览器相关任务。
核心体验:像给同事留言
“你不需要持续手动提供上下文或将Claude的输出转换为正确格式,”Anthropic写道,”你也不必等待Claude完成后再提供进一步想法或反馈:你可以排队任务,让Claude并行处理它们。感觉更像是在给同事留言,而不是来回对话。”
AI代理竞争升温
新功能是Anthropic及其竞争对手竞相提供最实用AI代理的一部分——无论对消费者还是企业。AI代理已从最初大多数理论上实用的工具走了很远,但在看到非科技行业朋友使用它们完成日常任务之前,仍需更多发展。
Anthropic在2024年10月宣布的”Skills for Claude”是Cowork的部分前身。从那时起,Claude可以通过”包含指令、脚本和资源的文件夹”来改进个性化任务——从处理Excel到遵循组织品牌指南。
安全警告
作为公告的一部分,Anthropic警告了使用Cowork和其他AI代理工具的潜在危险:
- 如果指令不清晰,Claude确实有能力删除本地文件并采取其他”潜在破坏性行动”
- 提示注入攻击存在一系列潜在安全风险
提示注入攻击通常涉及恶意行为者在模型引用的网站中隐藏恶意文本,指示模型绕过其保障措施并做有害的事情,例如交出个人数据。
“代理安全——即保护Claude在现实世界中的行动——仍然是行业中活跃的开发领域,”Anthropic写道。
如何使用
Claude Max订阅者可以通过点击macOS应用侧边栏中的”Cowork”来试用新功能。其他用户可以加入等待列表。
与微软Copilot Cowork的关系
值得注意的是,微软也在为其Copilot推出类似的Cowork功能,允许Claude集成用于”长时间运行的多步骤任务”。这表明AI代理协作正成为行业趋势。
写在最后
Cowork代表了AI从”对话工具”向”协作伙伴”的演进。当你不必等待AI完成后再给反馈,当你可以在AI工作时排队下一个任务,交互模式正在从”提问-回答”转向”分配-协作”。
但安全警告提醒我们,代理能力越强,潜在风险也越大。在AI能够真正成为可靠”同事”之前,代理安全仍需大量工作。
发表回复