SheepNav
Claude Code 现已能接管你的电脑完成任务,但 Anthropic 警告:研究预览版安全措施“并非绝对”
新上线12天前0 投票

Claude Code 现已能接管你的电脑完成任务,但 Anthropic 警告:研究预览版安全措施“并非绝对”

Anthropic 推出 AI 桌面控制功能,Claude Code 可接管电脑完成任务

Anthropic 近日宣布,其 AI 助手 Claude Code 和面向普通用户的 Claude Cowork 现已具备直接控制本地电脑桌面的能力。这意味着 AI 可以“点击、滚动、导航屏幕内容”,在必要时“自动打开文件、使用浏览器、运行开发工具”以完成任务。这一功能目前以“研究预览”形式向 macOS 上的 Claude Pro 和 Max 订阅用户 开放。

功能机制:优先连接器,备选桌面控制

Anthropic 强调,Claude 在可能的情况下会优先使用 Connectors(连接器)直接访问和控制外部应用或数据源。但当连接不可用时,AI 工具现在可以请求权限,在本地机器上“按需滚动、点击打开、探索”以执行任务。此外,用户还可以通过 Claude 的 Dispatch 工具 远程启动和管理这种电脑控制,只要目标电脑保持开机状态。

性能与局限:研究预览版尚不完美

公司明确指出,这一系统“不会总是完美工作”,复杂任务有时需要“第二次尝试”。通过“电脑使用”完成任务比通过连接器执行相同任务“耗时更长且更容易出错”。这反映了当前 AI 代理在真实环境交互中仍面临的挑战。

安全隐忧:训练防护“并非绝对”

赋予一个“容易出错”的 AI 工具按需探索电脑桌面的权限,无疑会引发合理的安全担忧。尤其是在企业和个人用户赋予 AI 代理访问敏感资源后,已出现多起安全问题的背景下。

Anthropic 表示已实施防护措施,例如防止提示注入攻击,并默认限制访问某些“禁止”应用(如“投资交易平台、加密货币”)。公司在一份支持页面中指出,模型经过训练会避免“高风险操作”,包括移动或投资资金、修改文件、抓取面部图像或输入“敏感数据”。

然而,Anthropic 也坦率警告:这些训练防护措施“并不完美”且“并非绝对”,意味着“Claude 偶尔可能超出这些界限”。 更值得注意的是,当电脑使用功能激活时,Claude 将能看到屏幕上任何可见内容,这进一步扩大了潜在的数据暴露风险。

行业背景:AI 代理竞争白热化

Anthropic 此举使其加入了日益拥挤的 AI 代理 竞争领域,多家公司正竞相开发能够直接控制用户设备的智能助手。从自动化工作流程到复杂开发任务,AI 代理的“手”正伸向更底层的系统交互。但随之而来的安全、隐私和可靠性问题,已成为行业必须面对的共性挑战。

小结:便利与风险的平衡

Claude Code 的电脑控制功能代表了 AI 向更深层次人机协作迈出的重要一步,尤其对开发者而言,自动化工具使用和文件操作可能提升工作效率。但 Anthropic 以“研究预览”形式推出,并反复强调其局限性和风险,显示出公司在创新与责任之间的谨慎权衡。对于早期采用者,这意味着在享受前沿自动化能力的同时,必须对潜在的数据安全和操作错误保持高度警觉。

延伸阅读

  1. 太空数据中心能否支撑SpaceX的巨额估值?
  2. 在日本,机器人不是来抢工作的,而是填补没人愿意干的岗位
  3. 我让Google Maps里的Gemini规划我的一天,结果出乎意料地好
查看原文