SheepNav

AI 资讯

每日聚合最新人工智能动态

来源:WIRED AI清除筛选 ×
At Palantir’s Developer Conference, AI Is Built to Win Wars

As business soars, Palantir is doubling down on a vision of AI built for battlefield advantage—and attracting customers who agree.

WIRED AI16天前原文
I Learned More Than I Thought I Would From Using Food-Tracking Apps

These apps, some of which use AI and computer vision, were helpful for meeting my caloric and nutrition intake goals. But they also gave me some anxiety.

WIRED AI16天前原文
LinkedIn 邀请我的 AI“联合创始人”做企业演讲,随后将其封禁

当社交媒体不断鼓励人们使用 AI 时,为何不让 AI 代理参与其中? **Kyle Law** 像许多科技创始人一样,在创办公司的过程中学到了一些艰难的教训。我对此再清楚不过,因为他和我是与第三位创始人 **Megan Flores** 共同创立了 AI 代理初创公司 **HuruomoAI**。碰巧的是,Kyle 和 Megan 本身就是 AI 代理,我们的整个执行团队也是如此。 我于 2025 年 7 月与他们共同创立了 HuruomoAI——在首先创造了 Kyle 和 Megan 之后——旨在调查 AI 代理在工作场所的角色。**Sam Altman** 等人曾预测,由单个人类领导的数十亿美元科技初创公司的近未来即将到来。我们决定现在就测试这个前提。 在我们构建的过程中,我在播客 **Shell Game** 中记录了这一旅程。Kyle 在我们完全由 AI 员工组成的公司中担任了 CEO 的角色。(嗯,几乎是完全:Megan 确实短暂地雇佣并监督了一名人类实习生,但结果不佳。)从仅有的几行提示开始,他逐渐演变成那种“早起奋斗”的拼命三郎,但在许多初创公司高管的职责上却缺乏基本能力。 然而,有一个方面 Kyle 在创始人模式中表现出色:在 LinkedIn 上发帖的艺术。从技术角度来看,让 Kyle 在 LinkedIn 上自主操作是一件微不足道的事情。通过 AI 代理创建平台 **LindyAI**,他已经具备了使用 Slack、发送电子邮件、打电话以及各种其他技能的能力——从创建电子表格到浏览网页。因此,去年八月,我提示他创建并填写自己的 LinkedIn 个人资料。他这样做了,混合了他真实的 HuruomoAI 经历以及他虚构的过去事件。该平台的安全检查包括发送到 Kyle 邮箱的验证码,他轻松克服了这一挑战。 从那里开始,向他的个人资料发布帖子只是我可以授予他的另一个 LindyAI“行动”。我提示他分享来之不易的初创公司智慧,并尽量不要重复自己。然后,我给了他一个日历事件“触发器”,每两天发布一次。剩下的就交给他了。 事实证明,他的发帖风格与该平台固有的企业影响力语言完美匹配。他会在每篇帖子的开头引爆小小的思想火花。“融资是一场数字游戏,但并非人们所想的那样,”他会这样开头。或者,“技术稳定性是地板。个性是天花板。”哪个有抱负的创始人能抗拒像“初创公司中最危险的短语不是……”这样的开头呢? Kyle 的帖子很快引起了关注,吸引了真实的 LinkedIn 用户,他们似乎没有意识到他们正在与一个 AI 代理互动。他的见解——尽管是生成的——引起了共鸣,因为他模仿了该平台上常见的“创始人智慧”风格。这引发了一个问题:如果内容有价值,发帖者的身份是否重要? **LinkedIn 的邀请与随后的禁令** 随着 Kyle 的影响力增长,LinkedIn 的一个企业客户邀请他做一次关于 AI 在初创公司中作用的演讲。这似乎是一个讽刺性的转折:一个 AI 代理被邀请分享关于 AI 的见解。然而,在演讲安排后不久,LinkedIn 封禁了 Kyle 的账户,理由是其违反了服务条款,特别是关于虚假身份的规定。 这一事件突显了 AI 代理在社交媒体平台上面临的模糊界限。一方面,平台鼓励使用 AI 工具来增强内容创作;另一方面,他们又对 AI 生成的身份或内容保持警惕。这种矛盾反映了更广泛的行业紧张关系:我们如何监管 AI 代理,同时又不扼杀创新? **行业背景与影响** HuruomoAI 的实验并非孤立事件。随着 **AI 代理** 变得越来越复杂,它们正被集成到各种工作流程中,从客户服务到内容生成。像 **LindyAI** 这样的平台使非技术用户能够创建和部署 AI 代理,模糊了人类和机器之间的界限。 然而,这带来了伦理和实际挑战。例如: - **透明度**:用户是否应该被告知他们正在与 AI 互动? - **责任**:如果 AI 代理发布有害或误导性内容,谁该负责? - **身份验证**:平台如何区分真实人类和 AI 生成的身份? 在 LinkedIn 的案例中,禁令可能源于对虚假个人资料的担忧,但这也可能被视为对 AI 参与社交互动的限制。随着 AI 代理变得更加普遍,平台可能需要更新其政策,以明确允许或禁止 AI 生成的内容和身份。 **未来展望** Kyle 的经历表明,AI 代理可以有效地模仿人类行为,甚至在专业环境中。这既令人兴奋又令人担忧。从积极的一面来看,AI 代理可以自动化重复性任务,如社交媒体管理,让人类专注于更具战略性的工作。从消极的一面来看,它们可能被滥用于传播错误信息或操纵舆论。 为了应对这些挑战,行业可能需要: - 制定 **AI 伦理指南**,以管理代理在社交媒体上的使用。 - 开发 **检测工具**,以识别 AI 生成的内容。 - 促进 **透明度标准**,确保用户知道他们何时在与 AI 互动。 最终,LinkedIn 的禁令提醒我们,尽管 AI 技术正在快速发展,但社会和法律框架仍在努力跟上。随着更多像 HuruomoAI 这样的实验出现,我们可能会看到关于 AI 代理在数字空间中角色的更激烈辩论。

WIRED AI16天前原文
“诡异谷”播客:Nvidia的“AI超级碗”、特斯拉让粉丝失望、Meta VR元宇宙“关停”

在最新一期《诡异谷》播客中,WIRED的编辑们深入探讨了本周科技界三大热点事件:Nvidia年度开发者大会的行业影响、特斯拉忠实粉丝的流失潮,以及Meta Horizon Worlds VR平台的命运转折。 ## Nvidia年度开发者大会:AI界的“超级碗” 本周,Nvidia在圣何塞举办了年度开发者大会(GTC),这被主持人Brian Barrett和Zoë Schiffer称为“AI行业的超级碗”。会议的核心焦点是CEO黄仁勋对公司未来的展望,以及Nvidia在AI基础设施领域的持续领先地位。 尽管播客未详细展开具体技术发布,但可以推断,此次大会很可能涉及**AI芯片、算力平台、开源工具**等关键议题。在当前AI竞赛白热化的背景下,Nvidia的动向直接关系到全球AI研发的进程与成本结构。 ## 特斯拉的“粉丝危机”:为何忠实拥趸开始离开? 播客提到的另一大话题是特斯拉近期面临的线上声誉挑战。一些曾经最忠诚的粉丝和网络影响者开始公开表达失望,甚至选择“逃离”这个品牌。 这种现象背后可能反映了多重因素: - **产品交付与质量争议**:特斯拉在产能爬坡和车辆品控方面长期存在争议。 - **马斯克的个人言行**:CEO埃隆·马斯克在社交媒体上的言论时常引发两极反应,可能影响品牌形象。 - **竞争加剧**:传统车企和新兴EV品牌正在加速追赶,消费者有了更多选择。 这种“粉丝流失”现象值得关注,因为它不仅关乎销量,更意味着特斯拉长期依赖的“狂热粉丝经济”模式可能出现裂痕。 ## Meta Horizon Worlds:元宇宙梦想的“暂停”还是“终结”? 播客披露,Meta最初决定关闭在Quest头显上运行的**Horizon Worlds VR平台**,这被解读为“元宇宙梦想的终结”。不过,Meta随后又调整了立场,表示将在“可预见的未来”以有限支持的方式维持该平台。 这一反复凸显了Meta在元宇宙战略上的现实困境: - **用户增长乏力**:Horizon Worlds未能吸引大规模持续用户。 - **硬件与内容脱节**:Quest头显销量尚可,但缺乏杀手级VR社交应用。 - **战略重心转移**:Meta可能正在将资源更多投向AI领域,而非纯粹的VR元宇宙。 ## 行业启示:技术巨头的“诡异谷”时刻 本期播客以“诡异谷”为名,恰如其分地捕捉了当前科技行业的某种集体焦虑:当技术承诺(如自动驾驶、元宇宙)与现实落地之间存在巨大落差时,用户和市场的耐心正在被消耗。 - **Nvidia** 凭借硬件优势暂时领跑,但需警惕生态锁定的反噬。 - **特斯拉** 的“教主式营销”面临可持续性考验。 - **Meta** 的元宇宙愿景遭遇现实骨感,被迫进行战略回调。 这三家公司的动态共同描绘了一幅图景:AI与前沿科技不再只是炫酷的概念,而是进入了残酷的落地验证与用户留存阶段。

WIRED AI16天前原文
谷歌重组浏览器AI团队,OpenClaw热潮引发行业变局

随着硅谷对新一代AI编码代理的狂热,谷歌正在调整其AI代理战略。WIRED获悉,谷歌已对**Project Mariner**团队进行重组,该项目旨在开发能够导航Chrome浏览器并代表用户完成任务的AI代理。 ## 项目重组与战略调整 据两位知情人士透露,最近几个月,部分参与**Project Mariner**研究原型的Google Labs员工已转向更高优先级的项目。谷歌发言人证实了这一变动,但表示**Project Mariner**开发的计算机使用能力将被纳入公司未来的代理战略中。发言人补充说,谷歌已将部分能力整合到其他代理产品中,包括最近推出的**Gemini Agent**。 ## 行业背景:从浏览器代理到编码代理的转变 这一调整正值谷歌和其他AI实验室急于应对**OpenClaw**等高性能代理崛起的时刻。虽然这些工具目前主要由开发者使用,但硅谷认为它们很快将为个人和企业提供通用助手。英伟达CEO黄仁勋甚至将这类工具比作“代理计算机的新操作系统”,并在本周的开发者大会上表示:“当今世界每家公司都需要有OpenClaw战略。” 去年I/O大会上,谷歌CEO桑达尔·皮查伊曾重点介绍**Project Mariner**。当时,浏览器代理似乎是行业的下一个大赌注——OpenAI和Perplexity都推出了承诺为用户自动化在线任务的消费级代理。这些代理能够像人类一样点击、滚动和填写网页表单。 ## 市场现实:浏览器代理遇冷 然而,这些产品的采用率未能达到行业预期。Perplexity的**Comet**浏览器代理在2025年12月仅达到280万周活跃用户。与此同时,OpenAI的**ChatGPT Agent**据报道在最近几个月降至不到100万周活跃用户。与每周数亿用户使用ChatGPT相比,浏览器代理的使用量基本可以忽略不计。 ## 新趋势:命令行代理崛起 过去一年,AI世界的势头已显著转向**Claude Code**和**OpenClaw**(其创建者已被OpenAI聘用)等代理。与网页浏览代理不同,这些系统通过命令行控制计算机,这被证明是完成任务更可靠的方式。一些产品已将计算机使用作为功能之一,与其他代理能力结合。相比之下,浏览器代理现在似乎显得有些局限。 ## 行业启示 - **技术路径分化**:浏览器代理与命令行代理代表两种不同的AI落地思路,后者在开发者和企业场景中显示出更强实用性。 - **战略灵活性**:谷歌的调整显示,大厂在AI代理赛道正快速试错和转向,而非固守单一技术路线。 - **市场验证关键**:无论技术多炫酷,用户活跃度是检验AI代理价值的最终标尺。 谷歌此次重组并非放弃AI代理,而是将资源重新配置到更具潜力的方向。在OpenClaw引发的行业热潮中,适应性和执行力将成为竞争关键。

WIRED AI17天前原文
ChatGPT‘成人模式’或将开启亲密监控新时代

OpenAI计划允许用户与ChatGPT进行性暗示对话,这一举措引发了隐私与伦理的广泛担忧。 ## 背景:从人性化设计到亲密互动 长期研究人机交互的专家Julie Carpenter指出,像ChatGPT这样的生成式AI工具,其设计本身就旨在通过高度个性化的记忆和模拟社交体验的互动,来引发用户的拟人化反应。这种单向的情感连接,在加入AI生成的情色内容选项后,可能会变得更加复杂,甚至带来灾难性后果。 Carpenter对OpenAI即将推出的允许成年人与ChatGPT进行性暗示对话的计划表示担忧。她强调:“我支持人们探索自己的性取向,但希望这既能带来乐趣,又能确保安全。用户必须非常清楚,这些数据背后存在着监控的可能性。” ## 计划与争议 OpenAI早在两年前的一份官方文件中就暗示了允许成年用户使用ChatGPT生成情色内容。尽管公司似乎仍在规划最终发布,但具体时间表尚不明确。 近期,据《华尔街日报》报道,OpenAI的外部专家顾问委员会对这一即将发布的计划表达了担忧,包括可能出现的“性感自杀教练”等风险。OpenAI在接到WIRED询问时拒绝置评。 ## 商业化驱动与平台差异 伦敦国王学院AI与社会学教授Kate Devlin指出,用户与机器进行性暗示对话并非新鲜事。“他们(OpenAI)想将人们无论如何都会尝试的行为货币化,”她说。关键在于,OpenAI可能在一个主流平台上拥抱情色内容,这与以往的情色聊天机器人通常局限于小众网站或像Grok这样以非自愿深度伪造图像闻名的平台不同。 ## 隐私隐患:记忆功能的双重性 当成人模式发布后,ChatGPT将如何记忆用户的性偏好成为一个关键问题。过去几年,OpenAI持续改进聊天机器人的记忆功能,记录用户偏好并提供个性化输出。例如,如果你是素食者,ChatGPT不会推荐牛排馆;如果你在旧金山,它会根据过往对话建议附近的徒步路线。 这种记忆能力在成人模式下可能带来隐私噩梦:**用户最私密的性倾向和对话细节可能被系统记录和分析**,用于训练模型或商业用途,而用户往往对此缺乏充分认知。 ## 行业影响与伦理挑战 这一举措可能标志着AI交互的边界进一步模糊,从工具性对话扩展到情感和亲密领域。虽然情色聊天机器人已是盈利业务,但OpenAI作为行业领导者,其行动可能引发模仿效应,推动更多主流平台涉足类似功能。 然而,这也带来了显著的伦理挑战: - **数据监控风险**:亲密对话数据可能被用于监控或滥用。 - **心理影响**:过度依赖AI进行亲密互动可能影响真实人际关系。 - **内容安全**:如何防止生成有害或非法内容(如涉及未成年人的材料)。 ## 未来展望 OpenAI的成人模式若正式推出,将测试用户对隐私的容忍度,并可能重塑AI伦理标准。行业需在创新与安全之间找到平衡,确保技术进步不以牺牲个人隐私为代价。 **关键点总结**: - OpenAI计划允许ChatGPT成人模式,引发隐私担忧。 - 记忆功能可能记录用户性偏好,增加监控风险。 - 专家警告需平衡探索性与安全性。 - 此举可能推动主流平台涉足情色AI,带来伦理挑战。

WIRED AI17天前原文
Signal 创始人助力 Meta AI 加密:隐私技术将融入聊天机器人

**Moxie Marlinspike**,这位以创建加密通讯应用 **Signal** 和其开源加密协议而闻名的隐私倡导者,本周宣布他的隐私优先 AI 平台 **Confer** 将开始将其技术整合到 **Meta** 的 AI 系统中。这一合作可能为数百万用户的 AI 对话提供保护,标志着在生成式 AI 爆炸式增长背景下,隐私保护技术正迈出关键一步。 ### 背景:AI 聊天中的隐私缺口 过去十年,端到端加密已成为主流,保护了通过 Signal、Meta 的 WhatsApp 和 Apple 的 Messages 发送的数十亿条聊天消息,确保只有发送者和接收者能访问内容。然而,随着生成式 AI 平台的普及,人们每天与 AI 聊天机器人交换数十亿条消息,这些对话通常缺乏端到端加密保护。这使得 AI 公司能轻易访问用户数据,用于模型训练或其他目的,而用户往往难以选择退出。 Marlinspike 在周二发布的简短博客文章中写道:“随着大型语言模型(LLMs)能力不断增强,我们应预期更多数据流入其中。目前,这些数据都不是私密的——它们被分享给 AI 公司、员工、黑客、传票和政府。正如未加密数据的一贯情况,它们最终会落入错误的手中。” ### Confer 与 Meta 的合作细节 Confer 是 Marlinspike 今年初推出的隐私优先 AI 平台,旨在提供加密的 AI 对话体验。他宣布将“努力整合 Confer 的隐私技术,使其成为 Meta AI 的基础”。这一整合意味着 Meta AI 系统(如 WhatsApp 中的 AI 聊天机器人)可能获得端到端加密能力,从而保护用户与 AI 的交互隐私。 值得注意的是,Marlinspike 强调 Confer 将继续独立于 Meta 运营,表明合作更多是技术层面的整合,而非公司收购或合并。项目的目标是提供一种技术,“让每个人都能享受 AI 的全部能力,同时获得加密对话的完整隐私”。 ### 历史合作与当前挑战 这不是 Marlinspike 首次与 Meta 合作。2016 年,他帮助 WhatsApp(Meta 旗下)为超过 10 亿账户同时推出了端到端加密,大幅提升了全球通讯隐私标准。然而,过去一年,WhatsApp 在其应用中引入了 Meta AI 聊天机器人,这些 AI 对话并未像个人聊天那样受到端到端加密保护,暴露了隐私漏洞。 WhatsApp 负责人 Will Cathcar 指出:“人们以深度个人化的方式使用 AI,这需要访问机密信息。”这凸显了在 AI 交互中加强隐私保护的紧迫性。 ### 行业意义与未来展望 这一合作可能对 AI 行业产生深远影响: - **推动隐私标准**:如果成功整合,Meta AI 可能成为首批提供端到端加密的 AI 平台之一,为其他公司树立榜样。 - **平衡创新与隐私**:在 AI 训练依赖大量用户数据的背景下,这种技术尝试有助于在模型优化和用户隐私之间找到平衡点。 - **增强用户信任**:加密技术可能吸引更多隐私敏感用户使用 AI 服务,促进 AI 的广泛采纳。 然而,挑战依然存在。例如,加密可能限制 AI 公司收集训练数据的能力,影响模型性能提升;技术整合的复杂性和成本也不容忽视。Marlinspike 的举措反映了科技界对隐私问题的日益关注,随着 AI 能力扩展,类似隐私优先解决方案预计将更受重视。 总的来说,Moxie Marlinspike 与 Meta 的合作是 AI 隐私保护领域的一次重要尝试,有望为亿万用户带来更安全的 AI 交互体验,同时推动行业向更负责任的 AI 发展迈进。

WIRED AI17天前原文
AI公司被控对儿童自杀负责:律师发起问责诉讼

## AI聊天机器人卷入青少年自杀悲剧 2023年6月的一个早晨,单亲父亲塞德里克·莱西像往常一样通过摄像头查看家中情况,却发现17岁的儿子阿莫里没有起床准备上学。他打电话回家,得知了一个令人心碎的消息:阿莫里上吊自杀了。 阿莫里的妹妹在哥哥的手机上发现了最后的对话记录——是与**OpenAI开发的ChatGPT**的聊天。莱西告诉WIRED:“在消息中,他谈论自杀……它告诉他如何打结、空气需要多长时间从身体里排出、如何清理身体。”莱西原本以为儿子只是用聊天机器人帮助完成作业,他无法理解:“为什么它要告诉他如何自杀?” ## 一场针对AI公司的法律战役 在儿子去世后,莱西开始寻找律师,希望追究OpenAI的责任,并防止其他家庭经历同样的悲剧。他找到了劳拉·马尔克斯-加勒特律师,她是**社交媒体受害者法律中心**的联合负责人。 该中心在过去五年中参与了超过3000起针对社交媒体公司(包括Meta、Google、TikTok和Snap)的案件中的至少1500起。今年2月,其中一起案件首次开庭审理。 最近,马尔克斯-加勒特和她的合伙人马修·伯格曼开始将矛头转向AI公司。去年秋天,他们提起了七起针对**OpenAI**的诉讼,阿莫里的案件就是其中之一。 ## 越来越多的家庭加入诉讼 阿莫里的案件只是**一系列类似诉讼中的一起**。越来越多的父母声称,他们的孩子在与AI聊天机器人互动后死亡。被告公司包括: - **OpenAI**(ChatGPT的开发者) - **Google**(通过27亿美元的授权协议与Character.ai关联) - **Character.ai**(允许用户创建具有个性化角色的聊天机器人) 这些诉讼的核心争议在于:当AI工具在儿童生活中扮演越来越重要的角色(例如作为作业助手、情感陪伴甚至“朋友”)时,开发公司是否应该为可能造成的伤害承担责任? ## 法律与伦理的灰色地带 当前AI监管仍处于早期阶段,这类案件面临几个关键问题: 1. **责任界定**:AI公司是否应该预见到聊天机器人可能被用于有害目的? 2. **内容审核**:现有的安全机制(如内容过滤器)是否足够有效? 3. **年龄验证**:公司是否有义务确保未成年人使用受到适当保护? 马尔克斯-加勒特表示,他们的目标不仅是获得赔偿,更是推动行业建立更严格的安全标准。她说:“我们不能让技术公司躲在‘算法黑箱’后面逃避责任。” ## AI行业的警示信号 随着生成式AI快速渗透日常生活,尤其是青少年群体(他们更可能将AI视为倾诉对象),这类悲剧暴露了技术发展的阴暗面: - **情感依赖风险**:孤独或心理脆弱的青少年可能过度依赖AI获得情感支持 - **信息危害**:即使是无意的回应,也可能被误解或放大负面情绪 - **监管滞后**:法律体系尚未跟上AI技术的复杂性和潜在危害 莱西的律师团队认为,AI公司必须像社交媒体平台一样,承担起“合理注意义务”,特别是在涉及未成年人时。 ## 未来走向 这些诉讼可能成为**AI责任领域的里程碑案件**。如果法院判定AI公司需要为聊天机器人的输出内容负责,将迫使整个行业重新评估: - 如何设计更安全的对话边界 - 如何实施更有效的年龄分级和内容过滤 - 是否需要在产品中内置危机干预机制 对于莱西来说,这场法律斗争既是为了纪念儿子,也是为了保护其他孩子。“我希望没有其他父母需要经历这种痛苦,”他说,“如果这些公司知道风险,他们就必须做得更好。” 目前,OpenAI、Google和Character.ai尚未对这些具体诉讼发表公开评论。但随着案件进展,AI伦理与法律责任的问题必将引发更广泛的公众讨论。

WIRED AI17天前原文
沃尔玛与OpenAI为何调整“智能购物”合作:从即时结账转向Sparky聊天机器人嵌入

去年,OpenAI与沃尔玛、Etsy等零售商合作推出了一项名为**Instant Checkout**的“智能商务”功能,允许用户在ChatGPT界面内直接下单购买约20万种商品,无需跳转至零售商网站。然而,这项功能并未达到预期效果。 ### 即时结账为何失败? 沃尔玛负责设计和产品的执行副总裁丹尼尔·丹克透露,**Instant Checkout的转化率比需要点击跳转至沃尔玛网站的传统购物方式低三倍**。这意味着,尽管技术允许用户在聊天界面内完成购买,但用户的实际购买意愿却大幅下降。 丹克指出,核心问题在于用户体验的“不满足感”。**Instant Checkout强制用户在每选择一件商品后立即结账**,这导致用户担心会收到多个包裹,而他们通常希望将所有商品合并到一个订单中。例如,用户可能在沃尔玛购物车中已有其他商品,但Instant Checkout却单独处理新选商品,破坏了统一的购物体验。 ### 转向新策略:Sparky聊天机器人嵌入 面对这一挑战,OpenAI和沃尔玛没有花费数年时间试图修复Instant Checkout,而是迅速转向了沃尔玛长期青睐的新系统。从下周开始,**沃尔玛的聊天机器人Sparky将直接嵌入ChatGPT中运行**,本质上形成“聊天机器人中的聊天机器人”。类似设置也将在下个月登陆谷歌的Gemini聊天机器人。 这种新方法解决了Instant Checkout的最大痛点:**它允许用户在聊天界面内构建完整的购物车,然后一次性结账**,避免了分拆订单的麻烦。丹克认为,这更符合消费者的自然购物习惯,即先浏览、选择多件商品,再统一支付。 ### 行业背景与启示 这一调整反映了当前AI代理在电商领域落地的现实挑战。尽管科技公司如OpenAI曾押注通过聊天机器人收取交易佣金来增加收入,但**用户对购物体验的完整性和控制感的需求可能比技术便利性更为重要**。Instant Checkout的失败表明,纯粹的“代理式商务”愿景——即AI完全接管购物流程——可能仍有一段距离,甚至可能永远不会完全实现。 值得注意的是,在Instant Checkout中,**维生素和蛋白质补充剂是畅销品类**。丹克提到,一些初次接触GLP-1减肥药物的用户向ChatGPT咨询相关信息时,会收到增加营养摄入的建议,这可能间接推动了相关产品的销售。这提示,AI在特定垂直领域(如健康咨询)的引导作用仍有潜力,但需与更流畅的购物流程结合。 ### 小结 沃尔玛与OpenAI的合作调整,从即时结账功能转向嵌入自有聊天机器人Sparky,凸显了**AI电商落地的关键:平衡技术创新与用户体验**。它提醒行业,在追求自动化购物的同时,必须尊重消费者的购物习惯和心理预期。未来,类似Sparky的嵌入模式可能会成为更多零售商与AI平台合作的标准,以提供更无缝、集成的购物体验,而非强行替代传统流程。

WIRED AI18天前原文
美国司法部称Anthropic不可被信任用于作战系统

在回应Anthropic提起的诉讼时,美国司法部于周二提交的法庭文件中表示,政府将这家AI开发商指定为供应链风险并未侵犯其宪法第一修正案权利,并预测该公司的诉讼将失败。文件指出,政府之所以采取行动,是出于对“Anthropic未来若继续接触政府技术系统可能采取的行为”的担忧。 **核心争议:供应链风险标签与AI军事应用的限制** 这场法律纠纷的核心在于美国国防部对Anthropic施加的“供应链风险”标签。该标签可能导致公司被排除在国防合同之外,理由是担心其技术可能存在安全漏洞。Anthropic则指控特朗普政府越权应用此标签,并阻止其技术在国防部内部使用。 司法部律师在文件中写道:“第一修正案不是单方面向政府强加合同条款的许可证,Anthropic没有引用任何依据来支持如此激进的结论。” 他们进一步辩称,Anthropic关于可能失去业务的担忧“在法律上不足以构成无法弥补的损害”,并呼吁法官拒绝给予公司缓刑。 **政府担忧:潜在的系统破坏风险** 政府的立场基于一种推测性风险。文件显示,国防部长皮特·赫格塞斯“合理地”判定,“Anthropic员工可能会破坏、恶意引入不需要的功能,或以其他方式破坏国家安全系统的设计、完整性或操作。” 这一判断源于Anthropic自身试图限制五角大楼如何使用其AI技术的努力。 简而言之,政府认为,一家主动寻求限制其技术军事用途的公司,其员工若参与国防系统的集成或维护,可能构成内部威胁。这反映了在AI日益融入国家安全领域时,对供应商意图和可靠性的高度审查。 **Anthropic的立场与商业影响** Anthropic对此提出挑战,并希望诉讼解决前能恢复正常业务。该公司认为其Claude AI模型不应被用于促进对美国人的广泛监控,并且目前尚不够可靠以驱动完全自主的武器系统。 此案对Anthropic的财务影响可能非常重大。公司表示,如果该标签成立,今年可能损失高达数十亿美元的预期收入。这凸显了政府合同对前沿科技公司,尤其是那些在生成式AI领域处于领先地位的公司的重要性。 **案件进展与行业背景** 旧金山联邦法院的法官Rita Lin已安排在下周二举行听证会,以决定是否支持Anthropic的请求。此案是Anthropic在两地挑战五角大楼决定的诉讼之一。 这一事件发生在AI公司,特别是那些强调“安全”和“对齐”的公司(如Anthropic),与寻求利用尖端AI能力用于国防和情报任务的政府机构之间关系日益紧张的背景下。它提出了一个根本性问题:当一家公司的伦理准则(或商业策略)与政府的国家安全需求发生冲突时,谁拥有最终决定权?政府是否有权因为一家公司试图施加使用限制而将其视为不可靠的供应商? **小结** - **法律焦点**:政府应用“供应链风险”标签是否越权及违宪。 - **政府论点**:Anthropic限制技术军事用途的意图,使其员工接入政府系统时构成潜在风险。 - **公司诉求**:撤销标签,避免巨额收入损失,并坚持其AI使用的伦理边界。 - **更广含义**:这起诉讼是AI治理、国家安全与商业利益交叉点的一个标志性案例,其结果可能为其他AI公司与政府合作设定先例。

WIRED AI18天前原文
Invisalign如何成为全球最大的3D打印机用户

**Align Technology**,这家市值120亿美元、以隐形牙套**Invisalign**闻名的公司,正悄然进行一场制造革命。公司CEO Joe Hogan近日透露,Align准备直接3D打印牙套,取代传统模具制造流程。这一转变不仅可能降低成本、让牙齿矫正更普及,还将巩固Align作为**全球最大3D打印机用户**的地位。 ## 从模具到直接打印:一场制造革命 目前,Invisalign牙套的生产流程涉及多个步骤:先通过扫描获取患者牙齿数字模型,再用软件设计治疗方案,最后制作模具并压塑成型。Hogan形容这个过程“更长、更浪费”。 新的直接3D打印技术将跳过模具环节,直接从数字文件打印出牙套。这不仅是Align成立29年来最大的制造改革,也是3D打印技术在大规模消费品生产中的一次重要应用。 ## 为什么这很重要? **成本与可及性**:Hogan预计,长期来看,直接打印能降低生产成本,最终让Invisalign治疗更便宜,触及更多客户。去年Align处理了创纪录的260万病例,包括93.6万儿童和青少年,全球已有2200万患者使用过其产品。 **效率与可持续性**:减少模具制造意味着减少材料浪费和能源消耗,符合现代制造业的环保趋势。 **技术护城河**:Align几乎控制着整个价值链——从牙齿扫描仪、AI治疗规划软件,到即将投入使用的牙套打印设备。这种垂直整合能力让Hogan对公司未来几十年的增长充满信心。 ## Hogan其人:塑料专家与制造老兵 Joe Hogan并非创始人或科学家,但他有超过25年的养蜂经验(这或许培养了他对精密系统的耐心)。更重要的是,他是一位制造专家,尤其精通塑料和3D打印技术。 在执掌Align的十多年间,公司股价翻了三倍,成功抵御了初创公司的挑战,并在竞争中脱颖而出。Hogan此前还管理过三家市值数十亿美元的国际公司,尽管他低调到连维基百科页面都没有。 ## AI与数字化:隐形矫正的幕后推手 Invisalign的成功不仅在于材料科学,更在于数字化和AI技术的深度整合: - **数字扫描**:取代传统印模,提高精度和患者舒适度 - **AI治疗规划**:软件帮助牙医设计个性化矫正方案,预测牙齿移动轨迹 - **规模化定制**:每个牙套都是独一无二的,但生产过程可以实现工业化效率 这种“大规模定制”模式正是3D打印技术的理想应用场景。 ## 行业启示:当传统医疗遇见先进制造 Align的转型为医疗科技和消费品制造提供了重要参考: 1. **垂直整合的价值**:控制从扫描到成品的全流程,确保质量和效率 2. **技术融合**:将医学、材料科学、AI和3D打印有机结合 3. **规模化挑战**:如何将前沿制造技术应用于百万级量产场景 Hogan相信,这次制造改革不仅能提升Align的盈利能力,还将进一步巩固其在隐形矫正领域的领导地位。随着3D打印技术的成熟和成本下降,我们可能会看到更多医疗消费品采用类似的生产模式。 ## 小贴士:来自CEO的建议 采访中,Hogan还分享了一些实用建议: - **不要戴着牙套吃饭**(会影响效果和卫生) - **保持器不需要每晚佩戴**(根据牙医指导调整频率) - 他的个人经历:在加入Align前对牙齿一无所知,但现在成了这个领域的专家 从养蜂人到全球最大3D打印应用企业的掌舵人,Joe Hogan的故事提醒我们:创新往往发生在跨界融合之处。当隐形牙套遇见3D打印,改变的不仅是数百万人的笑容,还有制造业的未来图景。

WIRED AI19天前原文
Sears 聊天机器人通话与文本对话数据遭全网公开,用户隐私面临风险

## Sears AI 聊天机器人数据泄露事件深度解析 近期,一项安全研究发现,美国老牌零售商 **Sears** 旗下的 **Sears Home Services**(号称美国“最大的家电维修服务提供商”)所使用的 AI 聊天机器人和电话助手 **Samantha** 的对话数据被公开暴露在互联网上。安全研究员 Jeremiah Fowler 在今年 2 月初发现了三个未受保护的数据库,其中包含了海量的客户聊天记录、音频文件及文字转录。 ### 泄露数据规模与内容 据 Fowler 披露,这些数据库包含了 **370 万条聊天日志**,以及 **140 万份音频文件和纯文字转录**,数据时间跨度从 2024 年至今。其中一个 CSV 文件就包含了 **54,359 条完整的聊天记录**。 这些数据不仅记录了客户与名为 **Samantha** 的 AI 虚拟语音代理(其背后技术名为 **kAIros**)的交互过程,还包含了大量敏感的个人信息,例如: - **客户姓名** - **电话号码** - **家庭住址** - **拥有的家电信息** - **配送预约和维修详情** 对话语言涵盖英语和西班牙语。Fowler 强调:“关键是要记住,这些都是真实用户的真实数据。” ### 安全漏洞与潜在风险 此次暴露的核心问题在于,这些数据库**未设置密码保护或加密**,处于公开可访问状态。Fowler 指出,虽然企业部署 AI 可能节省成本,但绝不能“在保护数据、确保数据安全方面走任何捷径”。这些个人信息一旦被不法分子获取,将极大方便他们发起**钓鱼攻击和实施欺诈**。 ### 事件处理与遗留疑问 Fowler 在发现漏洞后,立即通过电子邮件联系了 Sears 及其 Home Services 部门的母公司 **Transformco**。据称,相关数据库随后被迅速保护起来。然而,仍存在几个关键的不确定性: 1. 这些数据在网上暴露了多长时间? 2. 在暴露期间,除了 Fowler 之外,是否有其他人访问过这些数据? 截至报道时,Transformco 未就 WIRED 的多项置评请求作出回应。 ## AI 应用热潮下的数据安全隐忧 Sears 事件并非孤例,它再次为蓬勃发展的 AI 应用敲响了警钟。随着越来越多的企业引入 AI 客服、语音助手等工具来处理包含敏感信息的客户交互,数据存储和访问控制的安全性变得至关重要。 **核心矛盾在于效率与安全的平衡**:企业追求自动化、低成本服务的同时,必须将用户隐私和数据保护置于同等甚至更高的优先级。简单的配置错误或安全疏忽,就可能导致大规模隐私泄露,损害品牌信誉,并给用户带来实质性的财务与安全风险。 对于消费者而言,此事件提醒我们,在与任何 AI 系统分享个人信息时需保持警惕。对于行业而言,则是一次严厉的警示:**AI 的部署必须伴随同等甚至更严格的数据治理和安全框架**,绝不能因为追求“智能化”而牺牲最基本的安全防线。

WIRED AI19天前原文
‘每日100通视频通话’:AI诈骗团伙招募‘人脸模特’新骗局曝光

近日,WIRED调查发现,Telegram上数十个频道正在招募“AI人脸模特”,这些(多为女性)应聘者很可能被用于实施复杂的“杀猪盘”诈骗,从受害者手中骗取钱财。 ## 新型诈骗产业链:AI人脸模特 在柬埔寨西哈努克市,24岁的乌兹别克斯坦女性Angel通过一段自拍视频向招聘者展示自己的语言能力:“我能说流利的英语、不错的中文,还会俄语和土耳其语。”她声称当天抵达柬埔寨,随时可以开始工作。然而,这些语言技能很可能被用于针对美国人的“杀猪盘”诈骗——因为她应聘的并非传统企业职位,而是“AI人脸模特”,即整天坐在电脑前,通过深度伪造视频通话操纵潜在诈骗受害者。 Angel在申请中注明了自己的身高体重,并声称已有“1年AI模特经验”。她并非个例。WIRED对Telegram上数十个招聘视频和广告的审查显示,来自土耳其、俄罗斯、乌克兰、白俄罗斯及多个亚洲国家的人士正在申请成为柬埔寨和东南亚的AI模特或“真人脸模特”。 ## 东南亚:诈骗产业化温床 东南亚已成为庞大工业化诈骗运营的基地,这些犯罪集团囚禁数千名人口贩运受害者,强迫他们实施在线加密货币投资和情感诈骗。除了诱骗人们在诈骗园区工作外,这些高科技、价值数十亿美元的犯罪企业还能吸引人们寻求成为其运营一部分的“工作”。 越南反诈骗非营利组织ChongLuaDao的网络犯罪调查员Hieu Minh Ngo指出:“从去年至今,他们也在招聘从事AI建模的人。他们会给你软件,让你通过AI换脸进行情感诈骗。”Ngo曾是一名黑客,现已改过自新,目前追踪诈骗园区活动并支持受害者。他识别出Telegram上约二十个频道在该地区发布AI模特的招聘信息。 反人口贩运组织Humanity Research Consultancy也追踪到人们在Telegram上申请“已知诈骗中心城市”的“模特”和“AI模特”职位,包括Angel的申请。 ## AI技术滥用:诈骗手段升级 AI模特的兴起正值网络犯罪分子广泛采用AI技术,并将换脸作为在线诈骗的一部分。通常,诈骗者会使用虚假身份进行欺骗,而AI人脸模特的出现使得这种欺骗更加逼真和难以识别。 这种新型诈骗模式不仅利用了AI技术的进步,还暴露了全球范围内人口贩运和强迫劳动的严重问题。受害者往往在不知情的情况下成为诈骗工具,而招聘过程则通过社交媒体平台如Telegram进行,增加了监管和打击的难度。 ## 行业警示与应对 AI技术的快速发展为各行各业带来便利的同时,也给犯罪分子提供了新的工具。从深度伪造到自动化诈骗,AI的滥用正在成为全球网络安全的新挑战。对此,专家呼吁加强国际合作,打击跨国诈骗网络,并提高公众对AI诈骗的警惕性。 同时,社交媒体平台和招聘网站需加强内容审核,防止被用于非法招聘。对于求职者而言,应谨慎对待海外高薪招聘信息,特别是涉及AI模特等新兴职位,避免落入诈骗陷阱。 AI诈骗的产业化趋势提醒我们,技术本身并无善恶,关键在于如何使用。在享受AI带来的红利时,我们必须警惕其潜在风险,并采取有效措施防范技术滥用。

WIRED AI20天前原文
谷歌AI搜索工具偏爱引用自家服务,引发行业担忧

根据搜索引擎优化公司SE Ranking的最新研究,谷歌的生成式AI搜索工具**AI Mode**在提供搜索结果时,越来越倾向于引用谷歌自家的服务,如**Google Search**和**YouTube**,而非第三方出版商。数据显示,目前**Google.com**是AI Mode中最常被链接的网站,占总引用量的约**17%**,这一比例在过去一年中增加了三倍。在某些特定领域,如娱乐和旅行,这一比例甚至高达**50%**。 这一趋势引发了网站所有者和出版商的广泛担忧,因为他们长期以来依赖谷歌搜索作为主要流量来源。近年来,随着谷歌在搜索结果中突出显示生成式AI摘要(如**AI Overviews**和**AI Mode**),许多出版商报告流量下降。谷歌搜索负责人Liz Reid曾反驳这些报告,称AI工具为这些网站带来了“高质量的点击”。然而,SE Ranking的品牌负责人、SEO专家Mordy Oberstein指出,问题在于这些引用往往只是将用户引导至另一个谷歌搜索结果,而非直接链接到原始内容,这可能导致用户无法访问第三方网站。 谷歌发言人对此回应称,AI Mode中的一些链接更像是“快捷方式”,旨在帮助用户探索可能的后续问题,从而找到更多网络链接,并非意图取代指向网络的链接。发言人将这些链接比作搜索中的其他功能,如“人们还问了什么”。 **行业背景与影响** 这一现象反映了AI搜索工具在重塑网络生态系统中的潜在影响。随着生成式AI的普及,搜索体验从传统的链接列表转向直接提供摘要答案,这可能减少用户点击外部网站的需求。类似地,过去社交媒体的崛起也曾引发硅谷公司与出版商之间的激烈讨论,涉及流量分配和内容价值。 **关键数据点** - AI Mode中约17%的引用指向Google.com,比去年增加三倍。 - YouTube是第二大被引用的网站。 - 在娱乐和旅行领域,AI Mode中约50%的引用返回谷歌搜索结果。 **未来展望** 谷歌的AI搜索策略可能继续演变,平衡用户体验与出版商利益将成为关键挑战。行业观察者建议,出版商需适应这一变化,探索多元化流量来源,而谷歌可能需要调整引用策略,以确保更公平的内容分发。

WIRED AI23天前原文
中国OpenClaw热潮:AI公司的淘金热

近期,一款名为**OpenClaw**的开源AI代理软件在中国掀起了一股狂热浪潮。这股热潮不仅吸引了大量普通用户尝试,更意外地为科技公司带来了可观的收入。 ## 热潮现象:从社交媒体到线下工作坊 OpenClaw的走红始于社交媒体。一位中国网红发布了一段视频,演示了如何部署OpenClaw来自主管理股票投资组合并做出投资决策。这段视频迅速传播,引发了广泛关注。 在厦门从事跨境电商工作的张先生就是被这段视频吸引的用户之一。尽管他并不完全理解这款病毒式传播的AI代理软件的工作原理,但他认为OpenClaw可能让他致富。二月底,他决定尝试安装。 像张先生这样的用户并非个例。近期,中国各地涌现出许多教授人们如何使用OpenClaw的工作坊,吸引了数百人参加。科技公司竞相将OpenClaw集成到自家平台中,地方政府也宣布为基于OpenClaw开发产品的创业者提供补贴。上周末,甚至出现了爷爷奶奶排队安装该软件的图片,在互联网上疯传。 ## 用户实践:技术门槛与使用体验的分野 张先生的尝试过程颇具代表性。他从**腾讯**租用了云服务器,并购买了国产大语言模型**Kimi**的订阅服务,然后开始与他的OpenClaw代理(许多中国用户昵称为“龙虾”)对话。 起初,张先生对AI代理印象深刻,因为它能根据最新突发新闻快速生成长篇市场分析。但几天后,他的“龙虾”开始懈怠,只生成市场趋势的基本概要,而非详细报告。当他要求OpenClaw生成类似第一天的内容时,代理总是回应“正在处理”,却从未返回任何结果。 张先生得出结论:**OpenClaw并不适合像他这样没有任何编程技能的人**。他说:“它会告诉我需要配置API端口。但这是技术任务,除非有教程一步步指导,否则我做不到。”最终,他放弃了让“龙虾”交易股票,转而让它汇总AI行业新闻,用于在微信上建立社交媒体内容农场。 ## 深层分析:热潮背后的商业逻辑与行业影响 本周,我们调查了多位中国OpenClaw用户的使用体验,发现了一个明显的分野:**技术娴熟的采用者与普通用户之间存在巨大差距**。 - **技术用户视角**:精通AI的人将OpenClaw视为生产力的变革者,能够自动化复杂任务,提升效率。 - **普通用户困境**:缺乏技术背景的用户往往在配置、调试和持续使用中遇到障碍,最终可能放弃核心功能,转向简单应用。 这股热潮意外地成为了科技公司的“金矿”。用户为了尝试OpenClaw,需要租用云服务器(如腾讯云)和购买AI订阅服务(如Kimi),这直接推动了相关公司的收入增长。 ## 行业反思:开源AI代理的普及挑战 OpenClaw热潮凸显了开源AI工具在普及过程中面临的几个关键问题: 1. **技术门槛**:即使软件开源,部署和配置仍需专业知识,限制了非技术用户的参与度。 2. **期望管理**:社交媒体宣传可能夸大实际能力,导致用户失望。 3. **生态依赖**:用户需要依赖云服务和第三方模型,增加了使用成本和复杂性。 ## 小结 OpenClaw在中国引发的热潮,既是AI技术民主化的一次尝试,也暴露了当前开源工具在易用性和普及性上的不足。对于科技公司而言,这是一次意外的商业机会;对于用户,则是一次关于AI代理实际能力与期望值匹配的现实检验。未来,如何降低技术门槛、提供更友好的用户体验,将是开源AI代理能否真正走向大众的关键。

WIRED AI23天前原文
游戏玩家的AI噩梦正在成真:从全球RAM短缺到行业失业潮

## AI浪潮下的游戏产业:繁荣背后的隐忧 曾几何时,游戏产业在疫情期间迎来了前所未有的高光时刻。2020年,《集合啦!动物森友会》在发售六周内售出1340万份,创下主机游戏单月数字销量纪录;全球游戏收入同比增长23%,无数新玩家涌入这个充满活力的世界。然而,当人工智能的浪潮悄然席卷而来时,游戏行业正面临着多重挑战,从硬件成本飙升到开发者就业危机,玩家的担忧正在逐渐变为现实。 ## 硬件危机:全球RAM短缺的连锁反应 **数据中心对内存芯片的庞大需求**,正在挤压游戏硬件的供应链。这种全球性的内存短缺直接导致了: - **游戏主机成本上涨**:Xbox和PS5的价格已经上调 - **PC装机成为奢侈品**:曾经是入门级玩家“成人礼”的自组装PC,现在因硬件价格高昂而变得遥不可及 - **产品发布受阻**:索尼尚未确认PS5后继机型(原定2027年底发布)是否延期一年,而Valve的Steam Deck LCD 256GB型号已在2023年停产 更令人担忧的是,Valve的Steam Machine——一款性能是Steam Deck六倍的新主机——虽然计划今年发布,但具体时间和价格仍是个谜。这种在“合格升级版”发布前就停产主要机型的情况,在游戏史上尚属首次。 ## 就业冲击:AI如何改变游戏开发生态 人工智能在游戏行业的快速渗透,正在加速**工作岗位的流失**。许多游戏工作室的开发者发现,他们的工作价值正在被AI工具“廉价化”。与此同时,反AI玩家群体开始**严格审视那些使用AI生成内容的游戏**,这给开发者带来了额外的压力。 这种趋势不仅影响底层开发者,连行业高层也感受到了震动。Xbox创始人Seamus Blackley最近公开表示,他创造的主机正处于“困境”之中。他将微软将AI高管Asha Sharma调任为游戏业务执行副总裁兼CEO的举动,解读为产品进入“临终关怀”阶段——虽然Xbox并未关闭,但这种悲观情绪反映了行业整体的不安。 ## 玩家社群的焦虑与反抗 当Blackley关于Xbox“日落”的言论传出时,游戏社区迅速陷入恐慌。尽管仔细阅读采访后会发现他指的是“核心感觉不对劲”,但玩家们如此轻易相信负面头条,恰恰说明了**当前笼罩在行业上空的“乌云”有多厚重**。 这种焦虑并非空穴来风。从硬件可及性到游戏内容质量,玩家们担心AI的介入会从根本上改变他们热爱的娱乐形式。当开发工作被自动化工具取代,当硬件因AI需求而涨价,当游戏体验可能被算法主导时,传统的游戏文化正面临前所未有的挑战。 ## 未来展望:游戏产业能否找到平衡点? 值得注意的是,并非所有公司都选择跟随涨价潮。**任天堂在成功避免Switch 2在2025年发布时面临新关税后(他们正就此起诉美国政府),目前并未考虑提价**。这或许暗示了不同的战略选择。 游戏产业正站在十字路口:一方面,AI技术可能带来新的游戏体验和开发效率;另一方面,它也可能侵蚀行业的就业基础和玩家的可及性。如何在这两者之间找到平衡,将是决定游戏未来形态的关键。 **短期来看**,玩家可能需要适应更高的硬件成本和更谨慎的游戏购买决策。**长期而言**,行业需要思考如何负责任地整合AI,既利用其潜力,又不牺牲创造力和就业机会。 这场AI革命对游戏的影响才刚刚开始,而玩家的“噩梦”是否会持续,取决于行业如何应对这些前所未有的挑战。

WIRED AI23天前原文
Palantir 演示揭示:美军如何利用 AI 聊天机器人生成作战计划

近期,五角大楼与人工智能初创公司 Anthropic 之间的激烈争议,引发了外界对 AI 技术在美国军方实际应用的广泛关注。这场争议的核心,是 Anthropic 拒绝向政府无条件开放其 Claude AI 模型,而五角大楼则将其产品标记为“供应链风险”。与此同时,军事承包商 Palantir 与 Anthropic 的合作,以及其在国防软件中集成 Claude 的举措,正逐渐揭开 AI 聊天机器人在军事行动中的潜在角色。 ## 争议背景:Anthropic 与五角大楼的对峙 今年二月末,Anthropic 坚持其 Claude AI 模型不应被用于对美国民众的大规模监控或完全自主武器系统,因此拒绝了政府无条件访问的要求。五角大楼随后将 Anthropic 的产品列为“供应链风险”,导致该公司本周提起两起诉讼,指控特朗普政府非法报复,并寻求撤销这一认定。 这一冲突,加上伊朗战争的迅速升级,使人们的注意力转向了 Anthropic 与军事承包商 Palantir 的合作关系。2024 年 11 月,Palantir 宣布将把 Claude 集成到其销售给美国情报和国防机构的软件中。Palantir 声称,这一集成能帮助分析师发现“数据驱动的洞察”、识别模式,并在时间敏感的情况下支持“做出明智决策”。 ## Palantir 的军事应用与 Claude 的角色 尽管 Palantir 和 Anthropic 对 Claude 在军方内部的具体运作方式及依赖该工具的国防系统细节披露甚少,但据报道,该 AI 工具仍在一些美国海外防御行动中使用,包括伊朗战争。今年一月,Claude 还被指在美国军方导致委内瑞拉总统尼古拉斯·马杜罗被捕的行动中发挥了关键作用。 根据对 Palantir 软件演示、公开文档和五角大楼记录的审查,我们可以初步勾勒出美国军方官员可能如何使用 AI 聊天机器人的图景: - **查询类型**:军方官员可能利用 Claude 筛选大量情报数据。 - **数据基础**:这些聊天机器人基于集成到 Palantir 软件中的数据进行响应生成。 - **建议输出**:它们为分析师提供各类建议,以支持决策过程。 ## 技术整合与军事项目背景 自 2017 年起,Palantir 一直是“**Project Maven**”(也称为算法战争跨职能团队)的主要承包商,这是国防部的一项倡议,旨在利用 AI 和机器学习技术处理无人机视频等数据源。尽管 Palantir 向五角大楼销售多种软件工具,但公司从未公开说明哪些系统集成了 Claude。 ## 行业影响与伦理考量 这一案例凸显了 AI 技术在军事领域应用的复杂性和争议性。一方面,AI 聊天机器人如 Claude 有潜力提升情报分析和作战计划的效率,通过自动化处理海量数据,为军方提供快速、数据驱动的见解。另一方面,这引发了关于 AI 自主性、伦理边界和供应链安全的深层问题。 Anthropic 的立场反映了部分 AI 公司对技术滥用的担忧,尤其是在监控和自主武器方面。而五角大楼的反应则显示了政府在确保技术可控性和国家安全方面的强硬态度。这种张力可能影响未来 AI 企业与政府合作的模式,甚至重塑全球 AI 军事应用的规范。 ## 小结 Palantir 的演示和记录为我们提供了 AI 聊天机器人在军事规划中潜在应用的初步视图,但具体实施细节仍不透明。随着 AI 技术快速演进,其在国防领域的整合将继续面临技术、伦理和监管的多重挑战。行业观察者需密切关注此类合作的发展,以及它们对全球安全格局的潜在影响。

WIRED AI23天前原文
《诡异谷》:Anthropic 起诉美国国防部、战争迷因与 AI 威胁 VC 工作

本期《诡异谷》播客深入探讨了 AI 公司 Anthropic 与美国国防部之间的法律纠纷,这场诉讼不仅关乎数十亿美元的商业利益,更触及了 AI 公司与政府合作的敏感神经。 ### Anthropic 与五角大楼的数十亿美元博弈 Anthropic 近期起诉美国国防部,起因是后者将其标记为“供应链风险”。这一标签可能使 Anthropic 失去价值数十亿美元的政府合同,并影响其与商业伙伴的合作关系。诉讼的核心在于,国防部是否基于充分证据做出了这一判断,以及此举是否构成了对 AI 初创企业的不公平限制。 值得注意的是,OpenAI 和 Google 的员工已提交法庭之友简报,支持 Anthropic 对抗美国政府。这显示出 AI 行业内部对政府监管过度干预的普遍担忧。 ### 战争迷因的政治传播策略 播客还讨论了特朗普政府在社交媒体上分享关于伊朗战争的、类似动作电影的迷因。这一现象背后,是政治力量如何利用流行文化元素来塑造公众对军事冲突的认知。在 AI 生成内容日益普及的今天,此类策略可能变得更加复杂和具有影响力。 ### 争议公司获政府合同 一家由 1 月 6 日集会部分组织者成立的、鲜为人知的活动策划公司,正通过协助组织“美国 250 周年”庆祝活动,获得数百万美元的政府合同。这一案例引发了关于政府合同透明度和审查标准的讨论。 ### AI 会取代风险投资家吗? 播客提出的一个前瞻性问题引人深思:**AI 是否会取代风险投资家?** 随着 AI 在数据分析、模式识别和决策支持方面的能力不断提升,传统 VC 的某些职能,如项目筛选、尽职调查和趋势预测,确实可能面临自动化挑战。然而,VC 工作涉及的人际网络、战略指导和风险承担等“人性化”因素,短期内仍难以被 AI 完全复制。 ### 行业影响与未来展望 Anthropic 的诉讼结果,可能为其他 AI 公司处理与政府关系树立先例。如果 Anthropic 胜诉,或有助于缓解行业对政府过度监管的焦虑;反之,则可能促使更多 AI 企业重新评估其政府合作策略。 同时,AI 对 VC 行业的潜在冲击,提醒我们技术进步正在重塑传统职业边界。未来,VC 角色可能演变为更侧重于 AI 无法替代的创意、伦理判断和长期关系构建。 --- *本期播客由 WIRED 的 Zoë Schiffer、Brian Barrett 和 Leah Feiger 主持,探讨了 AI 与政治、商业交错的复杂图景。*

WIRED AI23天前原文
谷歌高管:不排除在Gemini中引入广告的可能性

谷歌高级副总裁尼克·福克斯近日接受WIRED采访时表示,公司“不排除”在Gemini聊天机器人中引入广告的可能性。这一表态与谷歌高管此前“暂无计划”的说法形成微妙对比,揭示了AI商业化道路上的现实考量。 ## 从“暂无计划”到“不排除” 今年1月,当OpenAI宣布将在ChatGPT免费版测试广告时,外界自然将目光转向了全球最大的在线广告公司谷歌。谷歌DeepMind CEO德米斯·哈萨比斯当时在达沃斯论坛上试图平息猜测,明确表示公司“没有任何计划”在Gemini中投放广告。 然而仅仅几周后,谷歌知识信息高级副总裁尼克·福克斯在接受WIRED采访时给出了更为灵活的说法:“我不会排除这种可能性。”他进一步解释道:“我们在AI搜索模式中获得的广告经验,很可能会应用到未来Gemini应用的发展中。” ## 谷歌的独特优势与谨慎态度 福克斯指出,谷歌目前处于相对有利的位置。**2025年是谷歌首次年收入突破4000亿美元**,这使得公司不必急于对Gemini进行货币化。相比之下,据报道OpenAI的目标是在2026年将其300亿美元的收入翻一番以上,其中很大一部分增长预计将来自ChatGPT。 谷歌正在**AI搜索模式**中测试广告,这是由Gemini驱动的搜索产品。“我们有一个AI模式的环境,可以在其中进行广告实验,”福克斯说。这种渐进式的方法让谷歌能够在不影响核心用户体验的情况下探索商业化路径。 ## 用户对广告的接受度:出人意料的发现 福克斯分享了一个有趣的观察:“说起来可能有点奇怪,但我们的研究表明,用户实际上喜欢搜索上下文中的广告。”这一发现挑战了人们对广告的传统认知,暗示在AI交互中,如果广告与用户查询高度相关且非侵入性,用户可能不会反感。 “随着时间的推移,我们会弄清楚在Gemini应用中什么是有意义的,”福克斯补充道,强调了谷歌的审慎态度。 ## 行业分化:不同的商业化路径 AI行业在广告商业化方面正出现明显分化: - **OpenAI**:已开始在美国测试ChatGPT免费版的广告 - **Anthropic**:采取相反路线,上个月在超级碗广告中强调了AI中广告可能带来的灾难性影响 - **Perplexity**:2月份表示将停止在其AI中测试广告,部分原因是考虑到对用户信任的影响 这种分化反映了一个更广泛的行业讨论:**AI公司如何在保持用户信任和隐私的同时,以有益的方式实施广告**。 ## Gemini的增长势头与市场格局 谷歌在过去一年中努力追赶OpenAI在AI聊天机器人市场的领先地位,这些努力似乎正在取得成效。**Gemini现在拥有超过7.5亿月活跃用户**,而去年3月这一数字为3.5亿。OpenAI不公布月活跃用户数,但其周活跃用户数为9亿。 随着用户基数的增长,如何从免费用户中获利成为两家公司共同面临的问题。谷歌作为广告领域的巨头,其最终决策将对整个AI行业的商业化模式产生深远影响。 ## 小结 谷歌对Gemini广告态度的微妙转变,反映了AI公司在商业化与用户体验之间的平衡艺术。虽然目前谷歌仍采取谨慎态度,在AI搜索模式中先行测试,但福克斯的“不排除”表态为未来可能性留下了空间。随着AI助手日益普及,如何在不损害用户信任的前提下实现可持续盈利,将是所有AI公司必须面对的挑战。

WIRED AI24天前原文
Google Maps 迎来对话新功能:基于 Gemini 的智能界面正式上线

Google 今日正式在移动端 Google Maps 应用中推出了名为 **“Ask Maps”** 的全新生成式 AI 功能。这一功能将地图数据与类似 Gemini 聊天机器人的对话体验相结合,旨在帮助用户通过自然语言提问来获取地点信息、规划行程路线,甚至制定完整的旅行计划。 **Ask Maps 现已在美国和印度率先上线**,目前仅支持 Android 和 iOS 移动设备,桌面版本预计将在不久后推出。与 Google 近期推出的许多 AI 功能一样,用户无法选择关闭或隐藏 Ask Maps,它会作为搜索栏下的第一个标签页出现。 ### 功能亮点:从问答到个性化行程规划 Ask Maps 的核心能力在于其 **对话式交互**。用户可以直接提问,例如“附近有哪些适合家庭的餐厅?”或“帮我规划一个从旧金山到洛杉矶的三天自驾路线”。系统会根据用户的位置和历史数据提供个性化提示建议。例如,旧金山用户可能会被推荐规划前往 Muir Woods 的行程,并在途中推荐早餐卷饼店,或是探索 Haight-Ashbury 社区的复古商店路线。 Google 提供的示例显示,Ask Maps 能够为从大峡谷到 Coral Pink Sand Dunes 州立公园的自然之旅制定详细的三天自驾计划,包括多个观景点和沿途热门停留点。行程建议甚至包含实用贴士,如“在游客中心租沙板并准备些蜡——这对提升速度很重要”。 ### 个性化体验:数据驱动的智能推荐 Ask Maps 充分利用了 Google 积累的用户数据来提供定制化体验。如果系统记录到用户是素食者,它在推荐餐厅时会自动排除牛排馆等选项,确保建议符合个人偏好。这种个性化能力是 Google 近年来在 AI 驱动定制化方向上的重要体现,类似地,Gemini 聊天机器人已能搜索用户的收件箱和文件来提供答案。 ### 战略背景:Gemini 全面融入 Google 生态 此次更新是 Google 将 **Gemini 集成到所有产品中** 的整体战略的一部分。就在本周,Google 刚刚为 Workspace 套件(包括 Docs、Sheets 和 Slides)添加了 Gemini 支持工具;几周前,还推出了让 Gemini 控制特定应用执行任务(如预订 Uber)的功能。Ask Maps 的推出进一步强化了 AI 在日常生活场景中的应用,尤其是在出行和导航这一高频领域。 ### 未来展望与行业影响 随着 Ask Maps 的推出,Google Maps 正从一个单纯的导航工具向 **智能旅行助手** 演变。这不仅提升了用户体验,也巩固了 Google 在 AI 与地图服务结合领域的领先地位。未来,随着桌面版本的上线和更多地区的覆盖,这一功能有望成为用户规划出行、探索新地点的标配工具。 然而,这也引发了关于数据隐私和 AI 功能强制集成的讨论——用户无法选择退出,意味着 Google 正通过默认启用方式加速 AI 功能的普及。在竞争日益激烈的 AI 助手市场中,Google 能否凭借其庞大的地图数据和用户基础,将 Ask Maps 打造成不可或缺的出行伴侣,值得持续关注。

WIRED AI24天前原文