SheepNav

AI 资讯

每日聚合最新人工智能动态

来源:The Verge清除筛选 ×

据《纽约时报》、NBC News和The Information等多家媒体报道,Meta正在全公司范围内裁员数百人。此次裁员波及多个团队,包括招聘、社交媒体和销售部门,以及负责开发智能眼镜和虚拟现实头显的**Reality Labs**部门。Meta发言人Tracy Clayton在一份电子邮件声明中表示:“Meta的团队会定期重组或实施变革,以确保他们处于实现目标的最佳位置。在可能的情况下,我们正在为可能受影响的员工寻找其他机会。”Clayton拒绝透露具体受影响的人数。截至2025年12月,Meta拥有近79,000名员工。 **裁员背后的战略转向** 此次裁员并非孤立事件,而是Meta近期一系列战略调整的一部分。公司正逐步远离其“元宇宙”的命名初衷,将更多资源投入到人工智能领域。据报道,Meta计划投入高达**1350亿美元**用于AI数据中心建设,并与Arm达成协议,在其数据中心中使用Arm的首款CPU。 **Reality Labs的持续收缩** 作为Meta元宇宙战略的核心部门,Reality Labs近期经历了多次裁员和业务调整。今年1月,该部门已裁员至少1,000人,并关闭了三个VR工作室,取消了面向工作的元宇宙平台,停止了VR健身应用Supernatural的新内容开发。2月,Meta曾宣布将关闭其3D社交平台Horizon Worlds的VR版本,但几周后又撤销了这一决定,表示该平台“在可预见的未来”仍可供下载。 **AI投资与业务重组** Meta的裁员行动与其在AI领域的巨额投资形成鲜明对比。公司正将资金和人力资源重新分配到AI数据中心、大语言模型开发等关键领域,以应对与OpenAI、Google等科技巨头的竞争。这种“裁员+投资”的模式反映了科技行业在AI浪潮下的普遍趋势:企业必须优化现有业务结构,集中资源抢占技术制高点。 **行业影响与未来展望** Meta的裁员举措可能引发连锁反应,影响其他科技公司的招聘和投资策略。随着AI技术日益成熟,企业需要平衡短期盈利与长期创新,而裁员往往是这一过程中的必要调整。对于Meta而言,能否在AI领域取得突破,将决定其未来在科技行业的竞争地位。 **小结** Meta此次裁员数百人,同时加大对AI的投资,标志着公司战略重心从元宇宙向人工智能的显著转移。这一调整既反映了行业趋势,也凸显了Meta在激烈竞争中的自我革新。未来,Meta的AI布局能否带来预期回报,仍有待观察。

The Verge10天前原文

在乔什·达马罗(Josh D'Amaro)接任迪士尼CEO不到一周的时间里,公司两项雄心勃勃的未来计划已接连遭遇打击。这不仅为迪士尼的转型之路蒙上阴影,也反映出当前AI与元宇宙领域投资热潮背后的现实挑战。 ## 两大合作计划同时受阻 **OpenAI关闭Sora图像生成项目**:就在几个月前,迪士尼高调宣布与OpenAI达成一项价值**10亿美元**的合作,计划将Sora技术整合到Disney+流媒体平台中。这项合作的核心设想是允许用户生成AI内容并直接发布到Disney+上,旨在为平台注入新的互动元素。然而,OpenAI近日突然决定关闭Sora项目,使得这项备受瞩目的合作前景变得极不确定。 **Epic Games大规模裁员**:与此同时,迪士尼的另一项重大投资也面临考验。迪士尼曾与《堡垒之夜》开发商Epic Games达成一项**15亿美元**的投资协议,共同构建元宇宙体验。但近期Epic Games宣布裁员1000人,且关于这项元宇宙合作的具体进展几乎没有任何公开消息,令人对项目的实际推进情况产生疑虑。 ## 合作破裂的多重影响 ### 对迪士尼战略的冲击 迪士尼这两项合作原本被视作公司在数字娱乐前沿领域的关键布局。与OpenAI的合作尤其具有象征意义: - **技术合法性背书**:迪士尼作为全球最大的娱乐公司之一,其采用Sora技术本可为生成式AI在主流娱乐应用中的可行性提供重要背书 - **资本与流量注入**:10亿美元的合作不仅为OpenAI带来巨额资金,还可能通过Disney+的数亿用户为AI生成内容开辟全新分发渠道 - **品牌形象塑造**:迪士尼可借此将自己包装为AI技术应用的“先驱者”,向投资者展示其把握科技趋势的能力 然而,随着Sora项目的关闭,这些预期收益已基本落空。更微妙的是,OpenAI近期因协助五角大楼进行大规模监控而备受批评,迪士尼此时与之切割损失,也带有规避品牌声誉风险的考量。 ### 对行业生态的警示 迪士尼的遭遇并非孤立事件,它反映了当前AI与元宇宙投资热潮中几个普遍存在的问题: 1. **技术成熟度与商业化落地之间的鸿沟**:Sora虽展示出令人印象深刻的图像生成能力,但距离“可用于制作工作室认可的娱乐内容”仍有相当距离。许多AI项目在实验室演示阶段表现惊艳,却难以满足大规模商业应用对稳定性、版权合规和内容质量的要求 2. **资本追捧与实际价值创造的不匹配**:巨额投资协议容易制造市场兴奋点,但最终能否产出可持续的商业价值才是关键。迪士尼与Epic的元宇宙合作至今缺乏实质性进展披露,正是这种“雷声大雨点小”现象的体现 3. **用户接受度的现实考验**:即便技术可行,用户是否愿意在Disney+上观看“AI生成的内容洪流”(文中称为“AI slop”)作为订阅理由?这始终是个悬而未决的问题 ## 未来可能性与行业观察 尽管当前形势不利,但迪士尼仍有可能调整策略继续推进相关计划: - **寻找替代技术方案**:迪士尼可能转向其他AI图像生成平台或自研解决方案,继续探索AI内容在流媒体中的应用 - **重新定义元宇宙合作**:与Epic Games的合作可能以更务实、小规模的方式推进,而非最初设想的宏大元宇宙蓝图 - **聚焦核心娱乐体验**:迪士尼可能会将更多资源重新投入到传统优势领域——高质量影视内容制作,而非过度追逐尚未成熟的技术风口 ## 小结 迪士尼在元宇宙和生成式AI领域的双重受挫,为整个娱乐科技行业敲响了警钟。它提醒我们: - **技术炒作周期与商业现实之间存在显著时滞**,企业战略需要更多耐心与务实评估 - **合作伙伴的稳定性与行业地位同样重要**,技术初创公司的战略调整可能随时影响大型企业的布局 - **最终决定技术应用成败的仍是终端用户体验与内容质量**,而非单纯的技术新颖性 达马罗CEO上任伊始即面临如此挑战,其如何调整迪士尼的科技投资策略,将直接影响这家娱乐巨头在未来十年的竞争格局。而对于整个行业而言,迪士尼的案例或许标志着AI与元宇宙投资正从“狂热追捧期”进入“理性评估期”。

The Verge10天前原文

## 一场“监视”失败的科技政治实验 2026年3月,预测市场平台**Polymarket**在华盛顿特区开设了一家名为“Situation Room”(局势室)的临时酒吧。这家酒吧的核心概念是:在一个布满电视屏幕的墙壁上“监视局势”,为政治爱好者和科技圈内人提供一个独特的社交空间。然而,开业当天,这个创意就遭遇了技术故障——作为酒吧核心卖点的“监视屏幕墙”未能正常工作,导致酒吧在晚上9点就提前关闭。 ### 科技与政治的交叉点 Polymarket本身是一个基于区块链的预测市场平台,允许用户对政治、体育等事件的结果进行投注。开设“Situation Room”酒吧,可以看作是其品牌从线上向线下延伸的一次尝试,旨在吸引华盛顿的政治精英和科技从业者。酒吧选址在华盛顿的Mount Vernon Triangle,目标客群显然是那些对政治和科技双重热衷的“内部人士”。 然而,这次尝试暴露了科技公司在落地实体体验时面临的挑战。**技术故障**——屏幕无法正常工作——直接击中了酒吧的核心价值主张。据报道,即便到了周六下午,屏幕问题仍未完全解决,Polymarket不得不通过提供免费香槟向客人致歉。 ### 活动实况:一场普通的社交聚会? 尽管酒吧以“监视局势”为噱头,但实际体验似乎并未达到预期。一位现场参与者描述,酒吧里挤满了“仍戴着工作证、背着背包的年轻专业人士”,氛围“与任何其他工作交流或欢乐时光活动没有太大区别”。除了一个爵士乐队、一个发光的巨型地球仪和一块可用的电视屏幕(被描述为“一张看起来像沙狐球桌、实则是供人俯视的屏幕的长桌”),现场缺乏独特的沉浸式体验。 Polymarket的增长负责人Josh Tucker被发现在VIP区的户外露台,但由于下雨,该区域也显得冷清。这暗示了活动在吸引力和执行上可能存在落差。 ### 行业背景:AI政策与科技游说 值得注意的是,酒吧开业当天,白宫发布了**国家AI法案框架**,旨在推动国会通过全面的AI监管立法。这一事件与Polymarket酒吧的开幕同时发生,突显了华盛顿当前科技政策讨论的热度。科技公司正积极游说以影响立法进程,而像Polymarket这样的平台,其业务模式本身就与预测政治结果相关,自然更关注政策动向。 此外,文章还提到了“Project 2025 splinter group”与AI行业及风投公司a16z的对立,这进一步揭示了科技政治生态中的复杂博弈。在这种背景下,“Situation Room”酒吧的尝试,或许可视为科技公司试图以更轻松的方式介入政治话语的一种策略,尽管其执行效果不尽如人意。 ### 启示与反思 Polymarket的这次实验提醒我们: - **概念与执行的差距**:创新的想法需要可靠的技术支持。当核心体验依赖于技术设备时,任何故障都可能导致整体失败。 - **线下体验的挑战**:科技公司跨界实体运营,需应对物流、技术和现场管理等复杂因素,这并非其传统优势领域。 - **政治与科技的融合**:在华盛顿这样的政策中心,科技公司正探索多种方式参与公共讨论,从游说到社交活动,但如何有效且可持续地实现这一目标,仍需摸索。 总之,“Situation Room”酒吧的短暂运营,不仅是一次营销活动,更反映了当前科技行业在政治影响力扩张中的尝试与困境。在AI监管等重大政策议题升温的当下,这类实验或许会越来越多,但成功与否,将取决于更多细节的打磨与资源的投入。

The Verge10天前原文

Reddit 正在采取新措施来识别平台上的机器人账户,这一举措可能要求部分用户通过指纹扫描或提交身份证等方式来验证其人类身份。根据 Reddit CEO Steve Huffman 在周三的帖子中所述,公司将引入一个针对注册为机器人的账户的标签系统,并对表现出“自动化”或“可疑行为”的账户进行人类验证。Huffman 强调,这种验证将“很少见,且不适用于大多数用户”,旨在平衡平台安全与用户体验。 ## 新措施的核心内容 Reddit 的新策略包括两个主要方面: - **机器人账户标签系统**:开发者可以注册自动化账户,这些账户将获得一个“**[APP]**”标签,以明确标识其机器人性质。这有助于用户区分人类和自动化互动,提升透明度。 - **可疑行为验证机制**:对于未标签但表现出可疑行为的账户,Reddit 可能会要求其进行人类验证。验证方法包括指纹扫描、PIN 码输入或使用第三方生物识别服务(如 Sam Altman 支持的 **World ID**,它通过眼球扫描球来验证人类身份)。Huffman 提到,第三方身份证验证服务是“最不安全、最不私密且最不受欢迎”的选项,但英国和澳大利亚已要求支持此类验证。 ## 背景与动机 这一举措并非突如其来。去年,Reddit 已开始测试品牌和个人用户的账户验证。今年 2 月,Huffman 在给股东的信中暗示将推出机器人验证系统,并探讨了使用 Face ID 等生物识别技术的可能性。此举反映了 Reddit 在 AI 技术快速发展的背景下,应对自动化账户泛滥的迫切需求。随着生成式 AI 工具的普及,机器人账户可能更易模拟人类行为,扰乱社区讨论、传播虚假信息或操纵舆论。 ## 对用户和平台的影响 Huffman 表示,验证请求将“很少见”,主要针对自动化或可疑账户,以避免对普通用户造成干扰。无法通过验证的账户可能会受到限制,但具体限制措施尚未详细说明。从积极角度看,这有助于维护 Reddit 社区的诚信,减少垃圾信息和恶意行为。然而,它也引发了隐私担忧——生物识别数据的使用可能涉及敏感信息,Reddit 需确保验证过程的安全性和匿名性。Huffman 强调,公司正在探索方法,在不实际识别个人身份的情况下验证人类身份,例如通过 passkey 检查。 ## AI 行业背景下的意义 Reddit 的行动是更广泛 AI 治理趋势的一部分。随着 AI 模型能力提升,区分人类和机器人在线互动变得日益复杂。其他社交平台如 X(前 Twitter)和 Facebook 也在加强机器人检测,但 Reddit 的标签系统结合生物识别验证,显示出更主动的应对策略。这可能会为行业树立新标准,推动更严格的验证机制。同时,它也提醒我们,在享受 AI 带来的便利时,必须关注其潜在滥用风险。 ## 未来展望 Reddit 的这一更新预计将逐步推出,具体时间表未在帖子中提及。用户应关注官方公告,了解验证流程的细节。如果成功,这一系统可能被其他平台借鉴,共同构建更安全的在线环境。但挑战依然存在:如何精准识别可疑行为而不误伤人类用户?如何平衡安全与隐私?Reddit 的实践将提供宝贵经验。 总之,Reddit 的新措施是应对 AI 时代挑战的重要一步,旨在保护社区免受机器人侵扰,同时尽可能减少对用户的干扰。随着技术演进,我们期待看到更多创新解决方案,以维护数字空间的真实性与信任。

The Verge11天前原文

## Google Lyria 3 Pro:AI 音乐创作迈入“完整歌曲”时代 Google 近日宣布,其音乐生成 AI 模型 **Lyria 3 Pro** 的能力得到显著提升,单曲生成时长从原先的 **30 秒** 大幅扩展至 **三分钟**。这一变化不仅意味着 AI 音乐创作从“片段”走向“完整歌曲”,也标志着 Google 在生成式音频领域的战略布局进一步深化。 ### 核心升级:时长与可控性双重突破 Lyria 3 Pro 最直观的改进是 **时长限制的解除**。此前,Lyria 模型仅能生成 30 秒的音频片段,这在创作完整音乐作品时显得捉襟见肘。如今,三分钟的时长足以覆盖大多数流行歌曲的结构,为用户提供了更完整的创作体验。 更重要的是,新版本引入了 **更精细的提示控制**。用户现在可以指定歌曲的特定部分,如 **前奏、副歌、桥段** 等,从而对整体编排拥有更高的话语权。这降低了 AI 音乐的随机性,让创作过程更接近传统音乐制作中的“编曲”思维。 ### 工作流程与竞品对比 在功能上,Lyria 3 Pro 与当前热门的音乐生成工具(如 **Suno** 和 **Udio**)类似:用户通过描述情绪、风格或乐器配置来生成音乐。此外,它还能根据文字提示生成歌词,甚至参考图片或视频内容进行创作。 然而,Google 的真正优势在于其 **生态整合能力**。 ### 多平台集成:降低使用门槛 Lyria 3 Pro 并非孤立的产品,而是被深度嵌入 Google 的多个产品线中: - **Gemini**:用户可直接在 Gemini 对话界面中创建音乐,无需下载独立应用。 - **Vertex AI**:面向企业客户,提供可定制的 AI 解决方案。 - **Google AI Studio 与 Gemini API**:为开发者提供模型接入能力。 - **Google Vids**:面向办公场景,帮助用户快速生成视频配乐。 - **ProducerAI**:Google 近期收购的音乐生成平台,将直接受益于时长的扩展。 这种“无处不在”的集成策略,显著降低了 AI 音乐创作的技术门槛,使其从专业工具向大众化应用迈进。 ### 行业影响与潜在争议 三分钟的生成能力,尤其是与 **ProducerAI**(Suno 的直接竞争对手)的结合,很可能重塑 AI 音乐市场的竞争格局。完整歌曲的生成能力,将吸引更多内容创作者、营销人员和独立音乐人尝试使用。 但随之而来的,是 **版权与模仿问题** 的加剧。当 AI 能生成结构完整、时长足够的歌曲时,其模仿特定艺术家风格或无意中侵权现有作品的风险也随之升高。 对此,Google 在官方声明中试图缓解外界担忧: - **明确表示“Lyria 3 和 Gemini 不会模仿艺术家”**,并解释若提示中提及创作者姓名,模型仅会将其视为“广泛灵感来源”。 - 采用 **内容比对技术**,检查输出是否与现有作品冲突。 - 嵌入 **无声的 SynthID 水印**,以标识内容为 AI 生成,便于溯源。 ### 小结:AI 音乐正从“玩具”走向“工具” Lyria 3 Pro 的升级,不仅是技术参数的提升,更反映了 AI 音乐生成领域的整体趋势:**从生成短片段转向支持完整作品创作,从黑盒式输出转向可控性更强的交互设计,从独立工具转向生态化集成**。 尽管版权与伦理挑战依然存在,但更长的时长、更精细的控制以及更低的使用门槛,无疑将推动 AI 音乐在娱乐、教育、营销等场景的落地。对于创作者而言,这或许意味着一个新的“副驾驶”已准备就绪——它不会取代灵感,但能大幅加速从灵感到成品的旅程。

The Verge11天前原文

## 立法行动:将AI伦理承诺变为法律约束 美国参议院民主党人正采取行动,将AI公司**Anthropic**在自主武器和大规模监控方面的“红线”政策**写入法律**。这一举措标志着AI伦理与国家安全之间的冲突已从商业谈判扩展至国会立法层面。 ### 立法背景:Anthropic与五角大楼的对抗升级 本月早些时候,特朗普政府将Anthropic列入“供应链风险”黑名单,原因是该公司对军方使用其AI模型设定了限制。Anthropic随后提起诉讼,指控政府侵犯其宪法权利。该公司坚持要求五角大楼避免将其产品用于**完全自主武器**和**国内大规模监控**,这与主要竞争对手OpenAI签署的协议形成鲜明对比。 ### 立法内容:两位参议员的提案 1. **参议员亚当·希夫(Adam Schiff,民主党-加州)**:正在起草一项新法案,旨在“编纂”Anthropic的红线政策,确保在生死攸关的问题上由**人类做出最终决定**。希夫表示,该法案的目标是防止AI被用于“某些非法目的”。 2. **参议员埃莉萨·斯洛特金(Elissa Slotkin,民主党-密歇根州)**:最近提出了《AI护栏法案》(AI Guardrails Act),旨在限制国防部使用AI进行**美国国内大规模监控**以及**无需人类干预的自主致命武器**的能力。 ### 立法动机:不信任与伦理共识 希夫在采访中明确表达了对五角大楼和AI公司CEO承诺的不信任:“看到五角大楼因为Anthropic坚持大多数美国人都同意的政策而针对它,我感到震惊。他们试图摧毁这家公司、摧毁AI领域的杰出领导者,这是一种敌对、专制的行为。” 他进一步指出,这种打压将**损害美国在AI领域的领导地位**,而Anthropic正是该领域的佼佼者之一。 ### 行业影响:AI伦理的法律化趋势 这一立法努力反映了AI行业的一个关键趋势:**企业自设的伦理准则正逐渐被纳入法律框架**。Anthropic的红线政策——禁止其技术用于自主武器和大规模监控——原本是公司内部的道德承诺,现在可能通过国会立法获得法律效力。 ### 潜在挑战与不确定性 - **立法进程**:希夫的法案仍在起草阶段,具体条款尚未公布。 - **政治环境**:在特朗普政府与AI公司的紧张关系下,此类法案能否获得足够支持仍不确定。 - **司法结果**:Anthropic的诉讼仍在进行中,法院是否会阻止政府将其列为供应链风险的决定,将影响后续立法氛围。 ### 小结:AI治理的新篇章 参议院民主党人的立法尝试标志着AI治理进入新阶段:不再仅仅依赖企业的自我约束或行政部门的临时协议,而是寻求通过**国会立法建立持久、可执行的法律标准**。无论这些法案最终能否通过,它们都凸显了AI技术在军事和监控应用中引发的深刻伦理与政策辩论,以及立法者在塑造AI未来中的关键角色。

The Verge11天前原文

据《华尔街日报》报道,Meta CEO 马克·扎克伯格、Nvidia CEO 黄仁勋、Oracle 执行董事长兼 CTO 拉里·埃里森以及 Google 联合创始人谢尔盖·布林,将成为美国总统科学和技术顾问委员会(PCAST)的首批四位成员。该委员会将就人工智能政策、经济、教育及国家安全等议题向特朗普总统提供建议。 ### 顾问团构成与职责 PCAST 初始将设 13 名成员,未来可能扩展至 24 人。特朗普的 **AI 与加密货币事务负责人大卫·萨克斯** 及白宫科技顾问 **迈克尔·克拉齐奥斯** 将共同担任委员会联席主席。根据白宫今年 1 月的公告,PCAST 的职责是“就涉及科学、技术、教育和创新政策的事务向总统提供建议”,并“为总统提供制定与美国经济、美国工人、国家安全和国土安全等相关公共政策所需的科学和技术信息”。 ### 成员背景与行业关联 首批四位成员中,**扎克伯格** 与 **黄仁勋** 与 AI 产业关联尤为紧密: - **扎克伯格** 领导的 Meta 正深陷平台儿童安全法律纠纷,且公司此前曾向特朗普捐款。 - **黄仁勋** 执掌的 Nvidia 是 AI 算力芯片的核心供应商,其技术直接影响全球 AI 发展进程。 - **埃里森** 的 Oracle 在今年初特朗普推动的 TikTok 剥离交易中扮演了技术骨干角色。 - **布林** 作为 Google 联合创始人,虽已淡出日常运营,但其在科技界的影响力仍不容小觑。 值得注意的是,扎克伯格与布林均出席了特朗普 2025 年的就职典礼,显示出与本届政府已有的互动基础。 ### 政治与产业的双重考量 特朗普在首个任期内也曾设立类似顾问团,但当时并未吸纳如此多科技巨头高管。此次重组,尤其是纳入多位与 AI 紧密相关的领袖,或与特朗普过去一年推动 **阻止各州自行监管 AI** 的政策方向相呼应。通过将产业核心人物纳入顾问体系,政府有望在制定国家层面 AI 政策时,更直接地获取行业洞察,平衡创新激励与风险管控。 ### 潜在影响与观察点 1. **政策倾斜风险**:企业领袖进入顾问团可能引发外界对政策过度向特定企业或行业倾斜的担忧。 2. **监管协调**:联邦与州级 AI 监管的冲突如何化解,将是委员会面临的关键挑战。 3. **全球竞争**:在美中科技竞争背景下,委员会的建议可能影响美国在 AI 领域的战略布局。 PCAST 的成立标志着美国科技政策咨询机制的一次重要调整,其后续动向值得持续关注。

The Verge11天前原文

## Anthropic发布Claude Code“自动模式”:在AI自主性与安全控制间寻找平衡 AI安全研究公司Anthropic近日为其编程工具**Claude Code**推出了全新的“自动模式”(auto mode)。这一功能旨在解决AI代理在自主执行任务时可能带来的安全风险,为开发者提供介于“过度干预”和“危险自主”之间的第三种选择。 ### 功能定位:安全与效率的折中方案 Claude Code本身允许AI代表用户执行操作,这种自主性虽然能提升编程效率,但也伴随着显著风险。模型可能在未经用户明确同意的情况下执行危险操作,例如: - **删除重要文件** - **发送敏感数据** - **执行恶意代码或隐藏指令** “自动模式”的设计初衷正是为了缓解这些担忧。该功能会在潜在危险操作执行前进行**标记和阻止**,同时给予AI代理重新尝试或请求用户干预的机会。Anthropic将其描述为“氛围编程者”(vibe coders)的更安全替代方案,避免了要么需要持续手动监督、要么赋予模型过高自主权的两难选择。 ### 当前状态与使用建议 目前,“自动模式”仅作为**研究预览版**向Team计划用户开放。Anthropic表示,将在“未来几天内”将访问权限扩展至企业用户和API用户。 值得注意的是,公司明确警告该工具仍处于**实验阶段**,并“不能完全消除”风险。官方建议开发者在“隔离环境”中使用此功能,以最大限度地控制潜在影响。 ### 行业背景:AI安全与自主性的永恒博弈 Anthropic此举反映了AI行业一个日益突出的核心矛盾:如何在赋予AI系统足够自主性以提升生产力的同时,确保其行为安全、可控且符合人类意图。随着代码生成、自动化任务执行等AI应用场景的普及,模型“越权”操作的风险正从理论担忧转变为实际挑战。 “自动模式”的推出可以视为一种**渐进式安全策略**——它没有完全禁止AI的自主行动,而是通过实时监控和干预机制,在风险发生前设置安全网。这种思路与Anthropic一贯强调的“可解释AI”和“对齐研究”一脉相承,即在技术能力提升的同时,同步构建相应的安全护栏。 ### 潜在影响与未来展望 对于开发者而言,如果“自动模式”能有效平衡效率与安全,它可能成为AI辅助编程工作流中的标准配置。然而,其实用性最终取决于风险检测的准确性和干预机制的流畅度——过多的误报会干扰工作,而漏报则可能导致安全事故。 从更广的视角看,此类功能的发展也预示着AI工具将越来越多地内置“安全层”,这不仅是技术选择,也可能逐渐成为行业规范甚至监管要求。Anthropic此次更新,或许只是AI安全基础设施漫长演进中的一小步,但其指向的问题——如何让强大的AI系统既聪明又可靠——将是整个领域持续探索的课题。

The Verge11天前原文

## OpenAI 宣布关闭 Sora,迪士尼合作终止 2026年3月24日,OpenAI 在周二下午正式宣布 **“我们将告别 Sora”**。这款在2024年底推出的视频生成工具,曾因与迪士尼达成一项价值 **10亿美元** 的巨额授权协议而备受瞩目,但如今却突然走向终结。 ### 发生了什么? 根据《华尔街日报》的提前报道,OpenAI 首席执行官 **Sam Altman** 已通知员工,**Sora 应用(类似 TikTok 的形态)及其面向开发者的 API 访问都将被停用**。此前曾有传言称 Sora 的功能可能会被整合进 ChatGPT,但 OpenAI 明确表示 **“没有计划”** 这样做。 随之而来的是与迪士尼合作的终止。《好莱坞报道者》指出,迪士尼在2025年12月宣布的协议——包括投资10亿美元、授权其角色在 Sora 中使用,并将 AI 生成的视频引入 Disney+ 流媒体平台——也将 **“随之结束”**。 ### 为什么突然放弃? OpenAI 尚未公开解释这一决策背后的原因,但近期的一些迹象或许能提供线索: - **战略重心转移**:几个月前,Altman 曾因 ChatGPT 相对于 Google Gemini 的 **“可能落后”** 而宣布进入 **“红色警戒”** 状态。这表明公司可能正在重新评估资源分配,以应对日益激烈的市场竞争。 - **聚焦核心产品**:上周《华尔街日报》报道称,OpenAI 正在开发一款 **ChatGPT 桌面“超级应用”**,旨在简化其产品线,围绕 **Codex** 和 AI 浏览器进行整合。OpenAI 应用业务首席执行官 **Fidji Simo** 在推特上评论道:“公司会经历探索阶段和重新聚焦阶段;两者都至关重要。但当新的赌注开始见效时——就像我们现在在 Codex 上看到的那样——加倍投入并避免分心就非常重要。很高兴我们抓住了这个时机。” - **Sora 的定位模糊**:作为一款独立的视频生成应用,Sora 可能未能达到预期的用户增长或商业化目标,尤其是在与迪士尼的合作尚未全面落地的情况下。 ### 对行业意味着什么? Sora 的关闭不仅是 OpenAI 产品线的一次重大调整,也反映了 AI 视频生成领域面临的挑战: - **技术成熟度与市场需求**:尽管 AI 视频生成在技术上取得了突破,但大规模商业应用仍存在障碍,如内容质量、版权问题(迪士尼角色授权即是一例)和用户接受度。 - **资源竞争加剧**:在 AI 模型“军备竞赛”中,公司必须权衡长期探索与短期盈利。OpenAI 选择将资源集中于 **Codex 和 ChatGPT** 等核心产品,可能意味着其认为这些领域更具战略价值。 - **合作模式的不确定性**:与迪士尼这样的娱乐巨头合作,本被视为 AI 技术落地的重要范例,但突然终止也提醒行业,**高调的合作协议并不总能转化为可持续的业务**。 ### 用户和开发者怎么办? OpenAI 在公告中感谢了 Sora 的创作者和社区,并表示将 **“很快分享更多信息,包括应用和 API 的时间表,以及保存用户作品的细节”**。对于依赖 Sora API 的开发者来说,这无疑是一次打击,需要寻找替代方案或调整产品方向。 ### 小结 OpenAI 放弃 Sora 和迪士尼合作,标志着一个 **“探索阶段”的结束** 和 **“重新聚焦”的开始**。在 AI 竞争白热化的背景下,即使是明星产品也可能因战略调整而让路。这一事件凸显了 AI 公司面临的平衡难题:如何在创新探索与商业化务实之间找到最佳路径。对于行业而言,它提醒我们,**技术的炫目并不等同于市场的成功**,而资源集中往往是应对挑战的关键策略。

The Verge11天前原文

## Arm 历史性转变:从 IP 授权到自研芯片 在长达数十年的商业模式中,Arm 一直以授权其芯片设计 IP 给其他公司而闻名,自身并不直接生产芯片。然而,这一格局在近期被打破。这家英国芯片设计公司正式宣布,将推出其历史上首款自行设计和生产的 CPU——**Arm AGI CPU**。这标志着 Arm 战略的一次重大转变,从纯粹的 IP 供应商,转向了更具垂直整合能力的芯片供应商。 ## 产品核心:专为 AI 推理设计的 Arm AGI CPU 这款名为 **Arm AGI CPU** 的芯片,其设计目标明确指向了当前 AI 浪潮中的核心环节之一:**推理(Inference)**。推理是指 AI 模型在训练完成后,实际运行并处理用户请求的阶段。随着 AI 代理(AI agents)等应用的普及,能够持续生成并处理海量并发任务的推理需求正急剧增长。 根据 Arm 公布的信息,这款芯片在性能上颇具亮点: - **核心数量**:每颗 CPU 最多可集成 **136 个核心**。 - **能效比**:Arm 声称其 **每瓦性能是传统 x86 CPU 的两倍**。这一优势主要得益于 Arm 架构长期以来在能效方面的固有设计优势。 - **平台与扩展**:芯片基于 **Neoverse 平台** 构建,该平台也被 AWS Graviton、Nvidia Vera 和微软等公司的 AI 芯片所采用。在服务器层面,一个风冷服务器机架可容纳多达 **64 颗** 这样的 CPU,展现了强大的集群扩展能力。 - **优化方向**:除了能效,该设计还旨在**减少内存瓶颈**,这对于处理数据密集型的 AI 推理任务至关重要。 ## 关键客户与产业动态:Meta 成为首发合作伙伴 此次发布最引人注目的信息之一是首位客户的身份:**Meta(Facebook 母公司)**。Meta 不仅是这款芯片的“首发用户”,更被官方称为 **“主导合作伙伴和共同开发者”**。双方计划合作开发“多代”数据中心 CPU。 这一合作对 Meta 而言意义重大。据报道,Meta 在自研 AI 芯片的道路上曾遭遇挑战。与 Arm 的合作,为其数据中心提供了除 Nvidia、AMD 等现有供应商之外的另一个关键硬件选项,有助于构建更多元化、可能更具成本效益的 AI 算力基础设施。 ## 市场反响与竞争格局 Arm 此次进军自研芯片市场,在业内激起了涟漪。包括 **亚马逊 AWS、微软、谷歌、Marvell、英伟达(Nvidia)、三星** 在内的多家 Arm 客户都向此次发布表示了祝贺。这反映出 Arm 在生态中的深厚根基,其新业务可能与传统授权业务并存甚至形成协同。 然而,并非所有合作伙伴都送上祝福。**高通(Qualcomm)** 的缺席尤为显眼。去年秋天,高通在与 Arm 关于授权协议条款的法律诉讼中曾宣称取得“完全胜利”。此次高通未出现在祝贺名单中,暗示两者之间的商业关系可能依然紧张。 ## 战略意图:瞄准“造芯难”的企业 Arm 云与 AI 业务负责人 Mohamed Awad 向 CNBC 透露了公司的战略考量:Arm 旨在为那些 **无力承担自研处理器高昂成本的公司** 提供一个可行的选项。在 AI 芯片竞赛白热化的今天,除了谷歌、亚马逊、微软等科技巨头,许多公司确实缺乏足够的资金、人才和时间来自研专用芯片。Arm 凭借其设计经验和生态优势,直接提供成品芯片,正好切入这一市场空白。 除了 Meta,其他已排队等候的客户名单也颇具分量,包括 **Cerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP、SK Telecom** 等。这显示了市场对多元化、高效能 AI 算力解决方案的旺盛需求。 ## 小结:AI 芯片战局的新变量 Arm 推出首款自研 CPU 并携手 Meta,为本就激烈的 **AI 芯片竞赛** 增添了新的变数。这不仅是 Arm 公司自身商业模式的突破,也反映了 AI 基础设施市场正在向更加专业化、多元化和注重能效的方向演进。对于 Meta 等大型科技公司而言,减少对单一供应商(如英伟达)的依赖、优化总体拥有成本(TCO)是持续的战略目标。Arm AGI CPU 凭借其宣称的卓越能效比,有望在数据中心推理场景中成为一股不可忽视的力量。不过,具体的财务条款、Meta 的采购规模以及芯片在实际大规模部署中的表现,仍有待后续观察。

The Verge11天前原文

随着AI购物功能成为科技巨头的新战场,谷歌与OpenAI正通过不同策略争夺这一市场。谷歌近期宣布与**Gap集团**合作,允许其**Gemini AI助手**直接为用户购买旗下品牌(包括Gap、Old Navy、Banana Republic和Athleta)的服装。这一功能基于谷歌的**通用商务协议(UCP)**,用户可通过Gemini浏览商品并使用Google Pay完成支付,而Gap负责物流配送。此前,谷歌已与沃尔玛、塔吉特等零售商达成类似合作,旨在通过AI助手简化购物流程。 与此同时,OpenAI却在调整其购物策略。据报道,该公司已放弃几个月前在ChatGPT中推出的内置结账功能,原因是销售表现“令人失望”。相反,OpenAI计划转向与零售商合作,在ChatGPT内推出品牌专属应用,并专注于改进商品展示方式,例如引入**视觉搜索功能**,让用户能更直观地浏览产品。 **AI购物的兴起与挑战** 零售商正寻求超越传统搜索引擎的新渠道来推广商品,AI助手被视为潜在入口。然而,用户是否愿意通过聊天机器人购物仍存疑问。一方面,AI能提供个性化推荐并简化流程;另一方面,消费者可能更习惯直接访问电商平台或应用。 **技术路径的分歧** - **谷歌**:通过UCP协议整合多零售商,打造通用购物助手,强调无缝结账体验。 - **OpenAI**:从内置结账转向平台化合作,侧重内容展示与品牌定制化。 这场竞争不仅关乎技术能力,更涉及用户习惯、商业生态与数据隐私的平衡。未来,AI购物能否成为主流,或将取决于谁能更精准地解决真实消费痛点。

The Verge11天前原文

## Anthropic 推出 Claude 电脑自主控制功能:AI 助手迈向“实体操作”新阶段 AI 公司 Anthropic 近日宣布,为其 Claude 模型的 **Code** 和 **Cowork** AI 工具推出了一项突破性更新:这些 AI 助手现在能够**自主控制用户的电脑**,执行包括打开文件、使用浏览器和应用程序、运行开发工具等一系列任务。这项功能目前以“研究预览”形式向 **Claude Pro** 和 **Max** 订阅用户开放,但**暂时仅限于 macOS 设备**。 ### 功能如何运作? 根据 Anthropic 的公告,这项新功能旨在实现“零设置”的自动化操作。其核心机制是: - **权限先行**:Claude 在执行任何电脑操作前,都会**明确请求用户的许可**,确保控制权始终在用户手中。 - **双管齐下的执行方式**: 1. **优先连接器**:对于 Slack、Google Workspace 等已支持集成的服务,Claude 会优先通过这些专用连接器高效完成任务。 2. **直接界面控制**:当没有现成连接器时,Claude 会转而**直接控制你的浏览器、鼠标、键盘和显示器**,通过模拟人类操作(如探索、滚动、点击)来达成目标。 - **跨设备协同**:用户需要在支持的 macOS 设备上运行 Claude 桌面应用,并将其与 Claude 手机应用配对。这使得用户即使不在电脑旁,也能通过手机指派任务给桌面端的 Claude 执行。 ### 技术背景与战略意图 此次更新并非凭空而来。它建立在 **2024 年 Claude 3.5 Sonnet 模型引入的自主能力**之上,但将这种能力从纯粹的对话与代码生成,扩展到了能够**与物理计算机界面进行交互的“AI 代理”**层面。这标志着 Anthropic 在推动 AI 从“思考与建议”走向“感知与执行”的路径上迈出了关键一步。 在 AI 助手竞争日益激烈的当下(如与 ChatGPT、Gemini 的竞争),Anthropic 此举意在强化 Claude 在**开发者生产力**和**复杂工作流自动化**场景下的独特价值。Code 和 Cowork 工具本就是为编程和协作场景设计,赋予它们直接操作电脑的能力,理论上可以无缝衔接代码编写、环境配置、测试运行、文档查找等一连串动作,极大提升效率。 ### 当前局限与未来展望 Anthropic 坦诚地指出了该预览功能的局限性: - **平台限制**:目前仅支持 macOS,Windows 和 Linux 用户还需等待。 - **性能瓶颈**:通过屏幕操作的方式比直接 API 集成**速度更慢**,且**复杂的任务有时需要重试**才能成功。 - **“早期分享”模式**:Anthropic 明确表示,他们“提前分享此功能是因为想了解它在哪些地方有效,在哪些地方不足”。这符合其一贯的审慎研究风格,旨在通过真实用户反馈来迭代改进,而非急于推出一个不成熟的产品。 这项功能与 Anthropic 近期推出的 **Dispatch**(跨设备任务分派)功能结合使用时效果尤佳,构成了一个从移动端发起、在桌面端自动执行的远程工作闭环。 ### 行业意义与潜在影响 Claude 获得电脑控制权,是 AI 向“具身智能”(Embodied AI)或至少是“数字环境具身”方向演进的一个显著信号。它不再仅仅是一个回答问题的聊天窗口,而是变成了一个可以主动在用户数字工作空间中“动手”的智能体。 这引发了关于**效率与安全**的经典权衡: - **效率提升**:对于开发者、研究人员、内容创作者等专业人士,一个能自动处理繁琐、重复电脑操作的 AI 助手无疑是强大的生产力倍增器。 - **安全与隐私考量**:尽管有明确的权限请求机制,但允许 AI 直接操控核心生产工具(电脑),必然会对安全架构、隐私保护、操作审计提出更高要求。Anthropic 选择以研究预览形式、在有限平台推出,正是为了在可控范围内探索这些边界。 **小结**:Anthropic 此次更新,将 Claude 从“顾问”角色部分转向了“执行者”角色。虽然目前仍处于受限的研究预览阶段,且存在速度慢、平台窄等缺点,但它清晰地指向了 AI 助手发展的下一个前沿——深度融入并自动化用户的数字工作流。其成功与否,将取决于 Anthropic 能否在提升自动化能力的同时,构建起足够坚固的安全与信任屏障。

The Verge12天前原文

Google 最近为其发布六个月的 Pixel 10 手机推出了两支新广告,但它们的传达效果可能并不如预期。第一支广告“With 100x Zoom”似乎暗示,如果度假租赁公司对酒店房间的景色撒谎,你也应该对朋友和家人撒谎。广告描述澄清了 Google 的意图:即使承诺的壮丽景色实际上在数英里之外,现在你也可以通过缩放功能拍出看起来身临其境的照片。广告还承认,所展示的内容是“模拟的”、“用于说明目的”,并使用了“额外硬件”。 第二支广告“Moving on”则从一部被抛弃的手机的视角出发,讲述了一段情感化的独白,内容涉及用户与新手机的互动,让人联想到电视剧《安眠书店》中 Joe Goldberg 的声音,引发了对 AI 监控的联想。 这些广告反映了 Google 在营销 Pixel 10 时面临的挑战:如何在强调 AI 功能(如缩放和智能特性)的同时,避免传达误导或令人不安的信息。在当前 AI 技术快速发展的背景下,科技公司的广告策略需要更加谨慎,以确保信息透明和用户信任。 从行业角度看,这提醒我们,AI 驱动的产品营销不仅要展示技术优势,还要考虑伦理和社会影响,避免引发公众对隐私或真实性的担忧。Google 的这次尝试或许是一个警示,未来类似广告可能需要更清晰的沟通和更负责任的呈现方式。

The Verge12天前原文

在近期Lex Fridman的播客节目中,英伟达(Nvidia)CEO黄仁勋(Jensen Huang)抛出了一枚重磅炸弹:“我认为我们已经实现了AGI(通用人工智能)。”这一言论迅速引发了科技圈的广泛讨论,但随后他又似乎对自己的说法有所保留。 ### AGI的定义之争 AGI,即通用人工智能,是一个长期以来定义模糊、充满争议的术语。它通常指在认知能力上达到或超越人类水平的AI系统。近年来,随着AI技术的飞速发展,关于AGI的讨论日益激烈,科技领袖、从业者和公众都参与其中。有趣的是,近几个月来,不少科技巨头开始有意与“AGI”这个标签保持距离,转而创造一些他们认为“不那么夸张、更有用、定义更清晰”的新术语——尽管这些新词本质上与AGI的含义大同小异。 此外,AGI的定义并非只是学术争论,它已成为大型商业合同中的关键条款。例如,在**OpenAI与微软**等公司的高额合作协议中,涉及AGI的条款可能直接关系到巨额资金的归属,凸显了其现实商业价值。 ### 黄仁勋的“AGI时刻”与后续修正 在播客中,主持人Lex Fridman将AGI定义为一种能够“基本上胜任你的工作”的AI系统,具体来说,就是能够创建、发展并运营一家价值超过**10亿美元**的成功科技公司。当他问黄仁勋认为AGI何时会成为现实(是5年、10年、15年还是20年)时,黄仁勋给出了一个令人惊讶的回答:“我认为就是现在。我认为我们已经实现了AGI。” Fridman当即回应:“你这句话会让很多人兴奋起来。” 黄仁勋随后以开源AI智能体平台**OpenClaw**及其病毒式传播的成功为例进行阐述。他表示,人们正在使用各自的AI智能体完成各种任务,并且“如果出现某种社交现象,或者有人创建了一个数字影响者……或某种社交应用,比如喂养你的电子宠物之类的,然后它突然意外地大获成功,我也不会感到惊讶。” 然而,话锋一转,黄仁勋似乎又对自己的激进论断进行了“降温”。他补充道:“很多人使用(这些AI智能体)几个月后,热度就逐渐消退了。现在,指望10万个这样的智能体去创建另一个英伟达,概率是零。” ### 行业背景与深层含义 黄仁勋这番看似矛盾的表态,恰恰反映了当前AI行业在AGI问题上的复杂心态。一方面,以**英伟达**为代表的硬件巨头是AI算力浪潮的最大受益者,其CEO有动力为行业前景描绘激动人心的图景,提振市场信心。另一方面,AGI的实现意味着AI能力质的飞跃,涉及巨大的伦理、安全和社会影响,任何过于绝对的宣称都可能引发不必要的争议或监管关注。黄仁勋先抛出“已实现AGI”的惊人观点吸引眼球,再用具体案例和概率论进行限定,这种策略既保持了话题热度,又为自己留下了回旋余地。 从更广的视角看,这场讨论也揭示了AI发展中的一个核心矛盾:技术能力的快速进步与“智能”本质定义之间的脱节。当AI能在特定任务(如编程、内容生成)上表现出色,甚至组合完成复杂项目时,我们是否就应称之为“通用”智能?还是说,真正的AGI需要具备人类般的意识、理解和创造力?黄仁勋提到的OpenClaw案例,或许展示了**AI智能体**在工具化、场景化应用上的潜力,但距离他口中“创建价值10亿美元公司”的AGI标准,显然还有很长的路要走。 ### 小结 黄仁勋关于AGI的言论,更像是一次精心策划的行业喊话,而非严谨的科学论断。它成功地将公众视线再次聚焦于AI发展的终极目标,同时也提醒我们,在狂热的技术叙事中保持审慎思考的必要性。AGI的实现之路,注定伴随着定义的重塑、能力的验证与边界的探索,而不仅仅是某位CEO的一句话。

The Verge12天前原文

## 一场关于AI“冒充”与“归属”的激烈对话 近日,《The Verge》主编Nilay Patel在其播客节目《Decoder》中,与**Superhuman**(前身为Grammarly)的CEO **Shishir Mehrotra**进行了一场备受关注的访谈。这场对话的背景,源于去年八月Grammarly推出的一项名为**Expert Review**的功能。该功能允许用户获得由AI克隆的“专家”提供的写作建议,而《The Verge》及其他媒体的记者们发现,这些所谓的“专家”名单中,竟然包括他们自己——包括主持人Nilay Patel本人。 ### 争议的引爆点:未经许可的AI克隆 **Expert Review**功能的推出,在媒体圈引发了轩然大波。核心争议在于: - **未经授权**:Superhuman/Grammarly在未征得任何记者或创作者明确许可的情况下,使用了他们的姓名和身份来创建AI驱动的“专家”角色。 - **引发众怒**:许多记者对此感到愤怒,认为这是对其身份和声誉的滥用。 - **法律行动**:知名调查记者**Julia Angwin**因此提起了集体诉讼,将争议推向了法律层面。 面对舆论压力和法律风险,Superhuman的应对措施经历了两个阶段: 1. 最初提供了基于电子邮件的**退出机制**。 2. 最终**完全下架了Expert Review功能**。 CEO Shishir Mehrotra也为此公开道歉。然而,这场风波留下的核心问题远未解决。 ### 专访焦点:AI时代的归属与冒充界限 在访谈中,Nilay Patel与Shishir Mehrotra的讨论多次陷入紧张气氛。双方的核心分歧点在于:**如何界定AI技术对个人身份的使用,是“归属”(attribution)还是“冒充”(impersonation)?** 以及,**AI公司究竟对内容创作者负有何种责任?** - **Shishir Mehrotra的观点**:作为前YouTube首席产品官和Spotify董事会成员,他试图从平台和产品经理的角度解释决策过程,并再次为事件道歉。他可能探讨了AI功能设计的初衷与现实中创作者感受之间的落差。 - **Nilay Patel的追问**:作为直接“被冒充”的当事人之一,Patel的提问尖锐而直接,聚焦于AI公司决策的透明度、对创作者权益的尊重,以及更广泛的——**AI技术给软件、平台和创意产业带来的“掠夺性”(extractive)感受**。 ### 超越个案:AI行业的普遍挑战 这场对话虽然源于一个具体的产品功能失误,但其揭示的问题具有行业普遍性: - **伦理与许可的缺失**:在急于推出AI新功能的竞争中,许多公司可能忽略了最基本的伦理审查和授权流程。使用真人身份(尤其是公众人物)训练或表征AI,应获得何种程度的同意? - **创作者权益的模糊地带**:在AI生成内容(AIGC)爆发的时代,原创者的姓名、风格、观点被算法学习和模仿时,其权益边界在哪里?现行的版权和人格权法律框架面临挑战。 - **信任与品牌危机**:对于Superhuman(Grammarly)这样以“辅助创作”为核心产品的公司,伤害创作者信任的行为,对其品牌声誉的打击是巨大的。如何重建信任是后续关键。 ### 小结:一次必要的“对峙” 这次访谈的价值在于,它并非一次简单的危机公关回应,而是一次**CEO与直接受影响的用户(兼媒体监督者)之间的正面“对峙”**。Shishir Mehrotra选择出席并坚持完成访谈,本身就需要勇气。对话中的紧张感,恰恰反映了当前AI技术与社会、与个体碰撞中最真实的矛盾。 事件表明,AI公司不能仅仅关注技术实现和用户体验,还必须将**伦理考量、创作者关系和合规流程**前置。在AI能力日益强大的背景下,明确“归属”与“冒充”的界限,建立尊重创作者的行业规范,已成为整个行业无法回避的紧迫课题。否则,类似的争议和法律纠纷只会越来越多。

The Verge13天前原文

## AI网红经济迈入“颁奖季” 继AI选美大赛和AI音乐比赛后,生成式AI领域又迎来了一个标志性事件——**“年度AI人格”奖项**。这项由生成式AI工作室OpenArt与AI创作者平台Fanvue联合主办、AI语音公司ElevenLabs支持的竞赛,标志着AI网红经济正从“新奇玩意儿”向一个严肃且利润丰厚的产业转型。 ## 奖项详情与评选标准 竞赛于3月23日启动,为期一个月,总奖金池为**2万美元**,将分配给总冠军及五个细分类别:健身、生活方式、喜剧、音乐与舞蹈娱乐、以及虚构卡通/动漫/奇幻人格。获奖者将在5月的一场被誉为“AI人格奥斯卡”的活动中受到表彰。 参赛者需在OpenArt平台上开发自己的AI网红,并通过网站提交申请,需提供TikTok、X、YouTube和Instagram等社交媒体的账号信息、角色背后的故事、创作动机以及任何品牌合作细节。 评审团阵容包括13次艾美奖得主喜剧编剧Gil Rief、西班牙AI模特Aitana Lopez的创作者,以及AI生成福音歌手Solomon Ray背后的MAGA说唱歌手Christopher “Topher” Townsend。 根据评审简报,参赛者将根据四个标准评分: - **质量**:包括可靠地与粉丝互动、在社交渠道上保持一致的视觉形象,以及准确的细节(如“正确的手指和拇指数量”)。 - **社交影响力**:衡量其在社交媒体上的覆盖范围和参与度。 - **品牌吸引力**:评估其商业合作潜力和市场价值。 - **灵感来源**:强调角色背后需有“真实的叙事”。 ## 产业背景与深层意义 这项竞赛不仅是一场娱乐活动,更反映了AI网红经济的成熟化趋势。从早期的实验性项目到如今有组织、有资金支持的奖项,AI网红正逐渐脱离“技术演示”的范畴,成为具有独立商业价值的数字实体。 **“真实的叙事”** 这一评选标准尤其值得玩味——它暗示着,成功的AI网红不再仅仅是视觉或听觉的合成产物,而是需要具备连贯的背景故事和人格特质,以建立与受众的情感连接。这与传统网红经济的逻辑一脉相承,但实现手段完全依赖于生成式AI技术。 同时,**“正确的手指数量”** 这类细节要求,暴露出当前AI生成内容仍面临的挑战:尽管技术飞速进步,但在一致性、物理合理性和细微之处仍可能出现瑕疵。奖项通过设立明确标准,间接推动了行业在技术精度上的自我完善。 ## 谁可以参与? 竞赛向所有创作者开放,无论是已有成熟AI网红作品的资深人士,还是刚刚入门的新手。这种包容性表明,主办方希望挖掘更多样化的创意,并降低行业准入门槛,从而激发更广泛的创新。 ## 小结 “年度AI人格”奖项的出现,是AI网红经济进入新阶段的信号。它不再满足于制造话题,而是试图建立一套评价体系,将技术能力、叙事技巧和商业潜力整合在一起。随着更多资源注入和公众关注度提升,AI网红有望从边缘走向主流,成为数字内容生态中不可忽视的一环。然而,这也带来了新的问题:当AI人格开始争夺奖项和商业合同,它们将如何影响真实创作者的生存空间?又该如何界定这些虚拟实体的法律和伦理地位?这些问题,或许比奖项本身更值得行业深思。

The Verge13天前原文

近期,备受期待的开放世界游戏《赤色沙漠》在发布后引发了玩家和评论界的双重关注。一方面,游戏评价褒贬不一;另一方面,更引人争议的是,玩家在最终版本中发现了疑似AI生成的美术素材。面对质疑,开发商近日正式承认,在游戏开发过程中确实使用了AI生成的艺术内容,但强调这些内容原本计划在发布前被替换。 ## 事件回顾:从质疑到道歉 《赤色沙漠》是一款由韩国开发商Pearl Abyss打造的大型多人在线角色扮演游戏(MMORPG),自公布以来就因其宏大的世界观和精美的画面备受期待。然而,游戏发售后,细心的玩家在Reddit等社区论坛上指出,部分游戏内的纹理、图标或环境细节看起来“粗糙”或“不自然”,具有典型AI生成图像的特征——如逻辑混乱的细节、重复的图案或缺乏艺术一致性。 面对社区日益增长的质疑,开发商在社交媒体平台X上发布了一份声明,正式回应此事。声明中,公司承认在开发过程中使用了AI生成的美术资产,但解释称这些内容原本是作为“占位符”或概念草图使用,计划在最终版本中被专业美术师创作的内容所取代。然而,由于开发流程中的疏忽,部分AI内容意外留在了发售版本中。 ## 开发商的补救措施与行业反思 为挽回玩家信任,开发商宣布正在进行一项“全面审查”,以识别并替换游戏中所有AI生成的内容。公司同时为两件事道歉:一是AI内容出现在最终产品中,二是在开发阶段未就AI的使用进行更透明的沟通。声明中写道:“我们本应更清楚地披露我们对AI的使用。” 这一事件并非孤例。近年来,生成式AI在游戏行业的应用已成为一个极具争议的话题。随着Midjourney、Stable Diffusion等工具的普及,许多大型工作室开始尝试将AI用于概念设计、纹理生成甚至角色创建,以加速开发流程、降低成本。然而,这一趋势也遭到了不少独立开发者和小型团队的抵制,他们公开宣称自己的游戏“不含AI”,以强调对传统艺术创作和人类创造力的尊重。 ## AI美术的伦理与质量困境 《赤色沙漠》事件凸显了AI在游戏开发中面临的几个核心挑战: * **透明度问题**:玩家和社区是否有权知道游戏内容是否由AI生成?缺乏披露可能损害信任。 * **质量控制**:AI生成的内容在细节一致性、艺术意图和整体质量上可能难以达到专业美术师的水平,匆忙集成可能导致产品观感下降。 * **工作流程整合**:如何将AI工具有效、负责任地整合到现有开发管线中,避免“占位符”意外流入最终产品,是许多团队需要解决的工程管理问题。 * **创意与伦理平衡**:使用AI是创新的助力,还是对艺术创作的稀释?行业仍在寻找平衡点。 ## 对《赤色沙漠》未来的影响 目前,开发商承诺的“全面审查”正在进行中,预计将通过后续更新补丁移除或替换有问题的资产。这一事件无疑给游戏的声誉蒙上了一层阴影,尤其是在首发评价本就不甚理想的情况下。能否及时、彻底地修复问题,并重建与玩家社区的沟通桥梁,将直接影响游戏的长远运营和玩家留存。 从更广的视角看,《赤色沙漠》的案例为整个游戏行业敲响了警钟:在拥抱AI技术提升效率的同时,必须建立更严格的品控流程、更透明的沟通策略,以及更明确的伦理准则。否则,类似的“AI泄露”事件可能不仅损害单个产品的口碑,还会加剧玩家对AI生成内容的普遍不信任感。 未来,我们或许会看到更多工作室制定明确的AI使用政策,并在游戏 credits 或宣传材料中主动披露AI的参与程度,以应对日益增长的消费者知情权需求。

The Verge13天前原文

## 马斯克宣布建造Terafab芯片工厂:AI与太空竞赛的新棋局 埃隆·马斯克近日宣布,计划在德克萨斯州奥斯汀建造一座名为**Terafab**的芯片制造工厂,该工厂将由**特斯拉**和**SpaceX**联合运营。这一举措旨在为马斯克旗下公司的机器人、人工智能以及太空数据中心大规模生产芯片,以应对当前AI行业蓬勃发展带来的芯片供应压力。 ### 为何需要Terafab? 马斯克与其他科技高管一样,对芯片行业能否跟上AI爆炸式增长的需求表示担忧。随着生成式AI、自动驾驶和太空计算等领域的快速发展,高性能芯片已成为战略资源。Terafab的目标是生产能够支持**每年高达200吉瓦**的地球计算能力和**高达1太瓦**的太空计算能力的芯片,这直接服务于特斯拉的自动驾驶系统、SpaceX的星链网络以及xAI等AI项目。 ### 挑战与不确定性 然而,建造芯片制造工厂绝非易事。它需要**数十亿美元的投资**、**多年时间**以及高度专业化的设备。更关键的是,马斯克本人**没有半导体生产背景**,且过往在目标和时间表上常有“过度承诺”的记录。正如彭博社所指出的,这一计划目前缺乏明确的时间线——马斯克未透露工厂何时投产,也未说明何时能实现上述计算能力目标。 ### 行业背景与意义 在全球芯片短缺和地缘政治紧张的背景下,科技巨头自建芯片产能已成为趋势。从苹果的M系列芯片到谷歌的TPU,垂直整合能更好地控制供应链、优化性能并降低成本。Terafab若成功,将强化马斯克在AI和太空领域的自主权,减少对外部供应商(如台积电、英伟达)的依赖。 ### 关键问题待解 - **资金与合作伙伴**:数十亿美元的资金从何而来?是否会引入外部投资者或政府补贴? - **技术路线**:工厂将采用哪种制程工艺(如3纳米、5纳米)?是否专注于特定芯片类型(如AI加速器)? - **产能规划**:如何平衡特斯拉、SpaceX及其他内部需求与潜在的外部客户? ### 小结 Terafab计划是马斯克在AI和太空战略上的重要一步,但它的实现面临技术、资金和时间上的多重挑战。在缺乏具体时间表和详细路线图的情况下,这一“宏伟计划”能否落地,仍需观察。对于AI行业而言,这反映了头部玩家对芯片自主可控的迫切需求,也可能在未来重塑供应链格局。

The Verge14天前原文

在今年的GDC游戏开发者大会上,AI技术几乎渗透到了每个角落。从展台上各大厂商展示的生成式AI工具——能够创建AI驱动的NPC,甚至仅通过聊天框就能生成完整游戏,到腾讯AI工具生成的像素艺术奇幻世界演示,再到Razer展示的用于QA测试的AI助手,AI的身影无处不在。然而,一个引人深思的现象是:在开发者们实际制作的项目中,AI却几乎被完全排除在外。 ## 展台上的AI热潮与开发者的冷遇 记者在GDC现场体验了**腾讯AI工具生成的像素艺术奇幻世界**,并观看了**Razer的AI QA助手**如何自动记录射击游戏中的问题。Google DeepMind研究人员关于“可玩AI生成空间”的演讲更是座无虚席。这些展示描绘了一个AI赋能游戏开发的未来图景。 但与此形成鲜明对比的是,记者采访的众多开发者——尤其是独立游戏开发者——几乎一致表示不会在自己的项目中使用AI技术。《The Melty Way》的开发者Gabriel Paquette的观点颇具代表性:“我认为人类思维是如此美妙,为什么不使用它呢?” ## 开发者为何对AI说“不”? 开发者们拒绝AI的主要原因集中在以下几个方面: * **对“人性化”创作价值的坚守**:许多开发者认为,使用AI会削弱游戏开发中的人文元素和艺术表达。游戏不仅是技术产品,更是创作者思想、情感和独特视角的载体。 * **对质量与“AI糟粕”的担忧**:近期**英伟达DLSS 5技术**在公开演示中,为知名游戏角色添加了被批评为“AI糟粕”般的面部效果,这一事件加剧了开发者,特别是小型独立团队,对AI生成内容质量的疑虑。他们担心AI工具可能产出低质量、缺乏灵魂的内容,损害游戏的整体体验和艺术性。 * **行业内的负面情绪增长**:这一现象并非孤立。根据近期的一项GDC调查,认为“生成式AI对游戏产业产生负面影响”的受访者比例已从2024年的18%、2025年的30%,**攀升至2026年的52%**。这反映出行业内部对AI技术应用的矛盾心理正在加剧。 ## 市场反应与“AI-Free”标签 部分独立开发者已经开始主动强调其游戏为“**AI-Free**”(无AI),以此作为吸引特定玩家群体的卖点。这暗示着在玩家社区中,可能也存在对AI生成内容的抵触情绪,开发者们敏锐地捕捉到了这一市场信号。 ## 分析与展望:AI在游戏产业的真实位置 当前GDC呈现的图景揭示了AI技术在游戏行业的一种“结构性错位”: * **工具层火热,创作层谨慎**:AI作为辅助工具(如QA测试、概念生成、资产创建加速)在厂商端被大力推广,但在核心创意和内容生产环节,开发者们持保留态度。 * **效率与艺术的拉锯**:AI承诺的是开发效率的提升和成本的降低,而开发者们担忧的是艺术完整性和创作独特性的丧失。这场关于“工具理性”与“创作感性”的博弈仍在持续。 * **未来路径:融合而非替代**:短期内,AI可能更广泛应用于游戏开发的边缘环节或特定类型的内容生成(如部分场景、道具)。但要进入游戏叙事的核心,AI技术仍需在理解情感、叙事连贯性和艺术风格一致性上取得突破,并赢得创作者社区的信任。 **小结**:GDC 2026如同一面镜子,映照出AI与游戏产业关系的现状与张力。一边是技术供应商描绘的效率革命,另一边是创作者对人文价值的坚守。AI无疑正在改变游戏开发的工作流程,但它能否真正融入游戏的“灵魂”,仍取决于技术如何更好地服务于而非取代人类的创造力。这场对话才刚刚开始。

The Verge14天前原文

当OpenAI在2024年首次向公众发布其文本到视频生成式AI模型Sora时,导演瓦莱丽·维奇(Valerie Veatch)和许多人一样,被这项技术所吸引。尽管她并不完全理解其背后的原理,但她对它能做什么感到好奇,并看到其他艺术家正在建立在线社区来分享他们的新AI创作。 然而,维奇很快发现,这项技术常常在没有明确提示的情况下,生成充满种族主义和性别歧视的图像。更令她不安的是,她周围那些AI爱好者似乎对此毫不在意。这种怪异的状况不仅让她远离了早期的生成式AI实验,更促使她拍摄了纪录片《机器中的幽灵》(Ghost in the Machine)。 ## 从好奇到警惕:一位导演的AI觉醒 维奇最初被生成式AI吸引,是希望借此与创意社群连接。但当她深入其中,看到的却是技术不加掩饰地输出偏见内容。她指出,许多AI爱好者对这种现象视而不见,甚至将其合理化,这让她感到震惊。这种“集体盲视”促使她追问:为什么AI会这样工作?它的根源是什么? ## 揭开“人工智能”的营销面纱 在与记者的视频通话中,维奇直言不讳地批评了行业对“人工智能”这一概念的刻意模糊化。她说:“为了使用‘人工智能’这个词,我们必须知道这他妈到底是什么意思。事实是,它没有任何意义;它一直是一个营销术语,完全具有误导性。” 她认为,这种模糊性让公众难以理解技术的本质,也掩盖了其背后可能存在的伦理问题。 ## 追溯历史:种族科学与AI的隐秘联系 《机器中的幽灵》没有聚焦于生成式AI加速主义者所鼓吹的、遥不可及的社会效益,而是深入挖掘了这项技术的历史根源,试图解释它为何以当前的方式运作。 影片揭示了一个关键论点:**现代生成式AI的发展,其思想基础部分植根于历史上的种族科学(race science)和优生学(eugenics)思潮**。这些思潮试图通过数据分类、优化和筛选来定义“理想”的人类特质,而今天的AI系统,在数据训练、模式识别乃至内容生成上,都不自觉地继承了类似的逻辑框架——尽管表现形式更为隐蔽和技术化。 ## 行业炒作与公众认知的脱节 维奇希望通过这部纪录片,记录生成式AI的起源,让人们对当前所处的“行业炒作狂热周期”有一个清晰的认识。她指出,在技术光环和营销话术的包裹下,公众往往只看到AI的“创造力”,却忽略了其训练数据中可能固化并放大的社会偏见,以及背后可能存在的危险思想遗产。 ## 启示:我们需要怎样的AI对话? 维奇的探索提醒我们,对生成式AI的讨论不能仅停留在“它能做什么”的功能层面,更需要深入“它为什么这样做”的历史与伦理层面。当技术以“智能”和“创新”之名快速推进时,批判性地审视其思想源流、数据构成和输出影响,变得尤为重要。 **《机器中的幽灵》的价值,或许就在于它撕开了技术中立的神话,迫使观众面对一个 uncomfortable truth:我们正在饮用的生成式AI“迷魂汤”,其配方中可能混合着一些我们不愿承认的历史毒素。** 要真正负责任地发展AI,或许首先需要诚实面对它的全部过去。

The Verge15天前原文