SheepNav

AI 资讯

每日聚合最新人工智能动态

来源:The Verge清除筛选 ×

## AI音乐:艺术革命还是行业威胁? 人工智能已渗透到音乐产业的每一个角落——从采样素材的获取、demo录制,到数字专辑内页的生成和播放列表的构建。然而,这场技术浪潮也伴随着技术挑战、法律纠纷和激烈的伦理辩论。许多人担心,海量的AI生成内容会淹没职业音乐人的生存空间。这究竟是艺术创作的新形式,还是仅仅是算法的输出? ### 技术突破与行业动态 近期,AI音乐领域迎来了一系列重要进展: - **Suno发布v5.5重大更新**:这一版本不再仅仅追求音质保真度和人声自然度,而是将重点转向用户控制。新功能包括: - **Voices(声音定制)**:用户可以用自己的声音训练人声模型,上传清唱音频、带伴奏的完整曲目,或直接通过手机/电脑麦克风录制。录制质量越高,所需数据量越少。为防止声音盗用,Suno要求用户朗读验证短语,但这一措施可能被现有的名人声音AI模型绕过。 - **My Taste(我的品味)**:允许用户根据个人音乐偏好定制生成风格。 - **Custom Models(自定义模型)**:提供更深入的模型个性化选项。 - **Bandcamp成为首个禁止AI内容的主流音乐平台**:这一决定反映了部分平台对AI生成音乐的谨慎态度。 - **音乐人对AI克隆声音的抵制情绪高涨**:有报道指出,音乐人已对AI声音克隆感到极度不满。 - **AI乡村音乐即将爆发**:特定音乐流派可能成为AI创作的下一个热点。 ### 法律与伦理困境 AI音乐引发的版权问题日益尖锐。当AI生成的艺术家获得唱片合约时,版权归属将变得极其复杂。音乐产业目前似乎采取了一种“不问不说”的策略——许多艺术家私下使用AI进行编曲实验、demo制作或采样创作,但不愿公开承认。 ### 公众认知与技术局限 调查显示,**97%的人难以准确识别AI音乐**,但这未必是坏事,说明AI生成音乐在听觉上已接近人类作品。然而,技术上的进步并未完全解决“灵魂缺失”的问题。有评论指出,**Suno的升级版AI音乐生成器虽然技术令人印象深刻,但作品仍缺乏情感深度**。 ### 核心争议:什么是“真正的主动创作”? 行业内外正在激烈辩论:仅仅输入AI提示词是否能算作“真正的主动”音乐创作?这触及了艺术创作的本质问题。如果创作过程过度依赖算法,人类艺术家的角色和价值将如何重新定义? ### 未来展望 AI音乐的发展势不可挡,但它的未来将取决于技术、法律、伦理和艺术价值的多方博弈。音乐产业已全面投入AI怀抱,但如何平衡创新与保护、效率与艺术,将是所有参与者必须面对的长期课题。

The Verge6天前原文

在 Atmosphere 大会上,Bluesky 的前 CEO Jay Graber 和 CTO Paul Frazee 正式发布了 **Attie**——一款基于 Anthropic 的 Claude 模型、构建在 Bluesky 底层 **AT Protocol(atproto)** 之上的 AI 助手。这款应用的核心功能是让用户通过自然语言指令,创建完全个性化的信息流算法。 ## 从自然语言到定制算法 Attie 允许用户用简单的自然语言描述来定义自己想要看到的内容。例如,你可以输入“关于民间传说、神话和传统音乐,尤其是凯尔特传统的帖子”,Attie 就会基于此生成一个定制化的信息流。这标志着算法控制权从平台向用户的重大转移——用户不再被动接受平台推荐的“热门”或“趋势”内容,而是能主动塑造符合个人兴趣的阅读环境。 目前,这些定制信息流将首先在独立的 Attie 应用中体验。但团队计划未来将其整合到 Bluesky 客户端以及其他基于 atproto 的应用中,让个性化体验覆盖更广泛的生态。 ## 超越信息流:通往“无代码”应用开发 然而,定制信息流只是 Attie 野心的起点。根据 Graber 在博客中的阐述,Attie 的终极目标是让用户能够利用它来 **“vibe code”**(通过自然语言交互生成代码)自己的应用程序,直接构建在 AT Protocol 之上。 Graber 指出,AT Protocol 的设计初衷是让“任何人”都能在其上构建他们想象中的任何应用,但过去,“任何人”实际上意味着“任何会写代码的人”。如今,**Agentic coding tools(智能体编码工具)** 的出现正在改变这一局面。Attie 结合了 Claude 的强大理解和生成能力,以及 AT Protocol 作为开放数据层所提供的清晰、定义良好的应用架构(schema),使其成为理想的编码智能体平台。 这意味着,未来即使没有任何编程经验的普通用户,也有可能通过向 Attie 描述想法,来创建功能性的社交应用或工具,真正实现开放协议对“所有人”的开放。 ## 行业背景与意义 Attie 的发布发生在 AI 深度融入社交产品、以及“算法主权”讨论日益热烈的背景下。 * **对抗算法黑箱**:主流社交平台算法的不透明和可能的偏见一直备受诟病。Attie 将算法构建过程透明化、可干预化,代表了用户夺回信息自主权的一种技术路径。 * **AI 作为创造工具**:它不仅是内容过滤器,更是创造工具。将大语言模型(LLM)与结构化的开放协议(atproto)结合,为“无代码/低代码”开发开辟了新场景,降低了应用创新的门槛。 * **开放生态的助推器**:对于 Bluesky 和 AT Protocol 生态而言,Attie 可能成为一个强大的增长引擎。它通过降低使用和开发门槛,有望吸引更多非技术用户和创作者加入,丰富整个生态的应用多样性。 ## 当前状态与展望 Attie 目前处于 **封闭测试(closed beta)** 阶段,感兴趣的用户可以前往其官网 attie.ai 加入等待列表。 从定制信息流到“vibe code”生成完整应用,Attie 描绘了一个由用户意图驱动、AI 作为实现媒介的未来软件图景。它不仅是 Bluesky 生态中的一个新应用,更是一次关于如何利用 AI 和开放协议重塑人机交互、内容消费乃至软件创造方式的实验。如果其愿景得以实现,我们或许将见证一个更加个性化、民主化的社交网络与应用开发时代的到来。

The Verge6天前原文

## Suno v5.5:从“更好听”到“更像我”的AI音乐进化 AI音乐生成平台 Suno 近日发布了其迄今为止最重要的更新之一——**v5.5 版本**。与此前专注于提升音质保真度和人声自然度的迭代不同,v5.5 的核心主题是 **“赋予用户更多控制权”**,标志着AI音乐生成从追求通用质量向深度个性化定制的战略转变。 ### 三大新功能:声音、品味与专属模型 本次更新引入了三个关键功能:**Voices(声音)**、**My Taste(我的品味)** 和 **Custom Models(自定义模型)**。 * **Voices(声音)**:这是 Suno 官方表示用户呼声最高的功能。它允许用户用自己的声音训练人声模型。用户可以通过多种方式提供声音样本:上传纯净的无伴奏人声(acapella)、已完成的带伴奏曲目,或者直接用手机或笔记本电脑的麦克风录制演唱。Suno 指出,录音质量越高、越清晰,所需的数据量就越少。 * **安全验证**:为防止声音盗用,Suno 要求用户在训练时朗读一个验证短语。不过,文章也提到,利用现有的名人声音AI模型或许有可能绕过此验证。 * **应用场景**:训练完成后,用户就能让“AI版的自己”在用户上传的音乐或AI生成的伴奏上演唱。 * **Custom Models(自定义模型)**:此功能让用户能够用自己的音乐作品训练 Suno。用户需要从自己的作品库中上传至少六首曲目,并为这个自定义模型命名。之后,在使用 v5.5 生成音乐时,就可以调用这个专属模型来引导AI的创作方向,使其产出更符合用户个人风格的作品。 * **My Taste(我的品味)**:这是一个渐进学习的功能。系统会分析用户长期使用中反复选择的**音乐流派、情绪氛围和参考艺术家**,并逐渐掌握其偏好。当用户使用“魔法棒”(magic wand)功能自动生成音乐风格时,系统便会应用这些学习到的品味,使产出更贴合用户的口味。 ### 功能权限与行业意义 值得注意的是,**My Taste 功能将向所有用户开放**,而 **Voices 和 Custom Models 则仅限于 Pro(专业版)和 Premier(高级版)订阅用户**使用。这种分级策略既降低了大众用户的体验门槛,又为深度创作者和专业人士提供了高价值的付费动力。 从行业背景看,Suno v5.5 的发布是AI生成内容(AIGC)领域竞争白热化的一个缩影。当文本、图像生成的模型在通用能力上逐渐趋同,**个性化、可控性和版权归属**成为新的竞争高地。Suno 此举不仅回应了用户对“独一无二”音乐内容的渴望,也试图在创作者经济中占据更有利的位置——让AI成为放大个人创作特色的工具,而非替代品。 ### 潜在挑战与未来展望 当然,新功能也带来了新的挑战。**声音克隆的安全与伦理问题**首当其冲,尽管有验证机制,但如何有效防止恶意滥用仍需持续关注。此外,**自定义模型对训练数据(个人作品)的质量和数量提出了要求**,这可能会将部分业余爱好者挡在门外。 总体而言,Suno v5.5 的更新是一次重要的产品方向校准。它不再仅仅满足于“做出好听的AI音乐”,而是致力于帮助用户“做出带有自己印记的AI音乐”。这或许预示着,下一阶段AI音乐工具的竞争,将围绕如何更好地服务于个体表达与创意身份而展开。

The Verge7天前原文

在AI生成内容泛滥的今天,TikTok作为全球领先的短视频平台,曾推出政策要求广告商披露AI生成内容,以提升透明度。然而,现实情况却令人失望。作者Jess Weatherbed在个人体验中发现,尽管花费大量时间审视广告中的“AI痕迹”,却难以确认其是否由生成式AI工具制作。更关键的是,她连续数周未看到任何广告带有TikTok政策要求的AI披露标签,这直接暴露了政策执行上的漏洞。 **以三星为例的典型案例** 三星近期在推广Galaxy S26 Ultra隐私显示功能时,在YouTube上发布的视频明确在折叠描述中标注使用了AI工具生成。然而,同一促销活动的广告在TikTok上却毫无AI使用提示。即使是非广告性质的常规视频,在三星TikTok账户上也缺乏此类披露,这与YouTube上的做法形成鲜明对比。这种不一致性不仅误导用户,也削弱了平台政策的公信力。 **行业背景与矛盾点** 值得注意的是,三星和TikTok都是**内容真实性倡议(Content Authenticity Initiative, CAI)**的成员,该组织旨在通过推广**C2PA(内容来源和真实性联盟)**标准,实现内容真实性和透明度的“可扩展和可访问”。这意味着两家公司在理论上应共享AI内容标签化的理念。但三星在TikTok上未标注AI生成内容的行为,显然与这一承诺背道而驰,揭示了企业“说一套做一套”的普遍问题。 **为什么这很重要?** - **用户信任危机**:AI生成广告可能涉及虚假宣传或误导性内容,缺乏披露会侵蚀用户对平台和品牌的信任。 - **政策失效风险**:如果大公司如三星都能规避标签要求,TikTok的政策可能沦为纸上谈兵,影响整个行业自律努力。 - **透明度悖论**:企业一边加入透明度倡议,一边在实际操作中忽视披露,凸显了AI伦理实践中的执行差距。 **展望与挑战** 随着生成式AI在广告中的广泛应用,平台和广告商需加强自律与监管。TikTok可能需要更严格的审核机制或技术工具来强制执行标签政策,否则其透明度承诺将难以兑现。用户也应保持警惕,但最终责任在于那些“知情却不告知”的参与者。

The Verge7天前原文

## OpenAI战略大转向:放弃Sora视频生成项目 2026年3月28日,OpenAI宣布了一系列重大调整:**终止视频生成应用Sora的开发**、取消ChatGPT中的视频生成计划、结束与迪士尼的10亿美元合作、调整高管职责,并完成新一轮100亿美元的融资,使其最新一轮融资总额超过1200亿美元。这一系列动作背后,是OpenAI在盈利压力下的战略收缩。 ### 算力成本与商业回报不成比例 Sora自推出以来,占用了**大量计算资源**,但未能带来相应的财务回报。行业消息人士透露,Sora在视频生成模型竞争中已**落后于对手**。在AI视频生成领域,创新速度快、选择众多,导致技术护城河薄弱,用户很容易在不同模型间切换。如果某个模型在特定领域不是顶尖的,就很难获得大规模用户。 ### 竞争加剧与投资者压力 OpenAI正面临来自Anthropic和Google的激烈竞争,同时投资者对其盈利能力的质疑日益增加。公司高管似乎一致认为需要调整方向。OpenAI的AGI部署首席执行官Fidji Simo(此前担任应用部门CEO)近期对员工表示:“我们不能因为分心于次要任务而错过这个关键时刻。我们必须专注于提升生产力,尤其是在商业方面。” 这意味着OpenAI将放弃像Sora这样的项目,并据报道降低对ChatGPT“成人模式”等探索性功能的优先级。 ### Sora的短暂遗产:真实性的信任危机 尽管Sora生命周期短暂,但它留下了一个重要遗产:**加剧了公众对判断内容真实性的信任危机**。随着AI生成视频技术的普及,区分真实与伪造内容变得更加困难,这可能对社会产生深远影响。 ### OpenAI的未来聚焦:盈利与核心生产力 OpenAI目前正疯狂寻求盈利,或至少减少亏损。公司战略重心已转向**提升商业生产力**,而非分散资源于非核心项目。新一轮融资将用于支持这一转型,但具体如何实现盈利仍面临挑战。 **关键点总结:** - **算力成本过高**:Sora消耗大量资源但回报不足。 - **竞争劣势**:在视频生成领域落后于竞争对手。 - **投资者压力**:需在1200亿美元融资后证明盈利能力。 - **战略调整**:聚焦核心生产力,放弃非优先项目。 - **社会影响**:AI视频技术加剧真实性判断难题。 OpenAI的这一决策反映了AI行业从技术探索向商业化落地的转变,也凸显了在激烈竞争中资源分配的重要性。

The Verge8天前原文

随着AI技术的飞速发展,大规模数据中心已成为科技公司实现AI梦想的物理基石。然而,这些能源密集型服务器的快速扩张,正引发全球范围内关于其对电网、电费、社区及环境影响的多重冲突。 ## 数据中心的能源消耗:从自愿报告到强制披露的转变 近期,美国参议员伊丽莎白·沃伦(民主党-马萨诸塞州)和乔什·霍利(共和党-密苏里州)向能源信息管理局(EIA)致信,呼吁建立**强制性年度报告制度**,要求数据中心公开其能源使用数据。这一举措旨在为电网规划提供准确信息,并监督七家科技公司履行其在本月初签署的“费率支付者保护承诺”。 与此同时,EIA宣布在德克萨斯州、华盛顿州、北弗吉尼亚州和华盛顿特区启动一项**自愿试点项目**,评估数据中心的能源使用情况。参议员们的要求显然更为广泛和严格,强调必须通过强制性报告来全面掌握数据中心的能源消耗。 ## 地缘政治风险:伊朗冲突如何影响数据中心与电力成本 地缘政治动荡同样对数据中心构成威胁。随着特朗普政府对伊朗发动战争,石油和天然气价格持续上涨,这直接影响到数据中心的运营成本。大西洋理事会全球能源中心的研究与项目主任里德·布莱克莫尔指出,尽管初期希望冲突影响短暂,但局势的复杂性意味着数据中心可能面临长期的能源供应不稳定和成本波动风险。 霍尔木兹海峡作为全球20%能源贸易的通道,其战略重要性在冲突中凸显。任何中断都可能进一步推高能源价格,加剧数据中心行业的压力。 ## 全球冲突:从太空计划到法律诉讼 数据中心的扩张不仅限于地面。一些公司甚至提出**将数据中心发射到太空**的雄心计划,试图规避地球上的能源和环境限制。然而,这类方案同样面临技术可行性和成本效益的质疑。 另一方面,数据中心引发的污染问题已导致多起法律诉讼。社区和环保组织指控数据中心运营导致空气和水污染,加剧了当地环境负担。这些法律战凸显了数据中心在追求技术进步的同时,必须平衡社会责任和可持续发展。 ## 行业反思:AI繁荣背后的能源代价 AI的快速发展离不开海量计算资源,而数据中心正是这些资源的集中体现。然而,其能源密集型特性使得数据中心成为**全球能源消耗和碳排放的重要来源**。随着AI模型规模不断扩大,训练和推理所需的算力呈指数级增长,这进一步加剧了能源需求。 科技公司面临两难选择:一方面需要扩张数据中心以支持AI创新,另一方面必须应对能源成本上升、电网压力增大以及环保法规收紧的挑战。解决方案可能包括投资可再生能源、提高服务器能效,或探索分布式计算等替代方案。 ## 未来展望:可持续AI之路 数据中心的能源问题并非无解。通过技术创新和政策引导,行业可以朝着更可持续的方向发展。例如: - **采用更高效的冷却技术**,降低能源消耗 - **整合可再生能源**,如太阳能和风能 - **推动边缘计算**,减少对集中式数据中心的依赖 - **加强行业自律**,通过透明报告提升公众信任 最终,AI的未来不仅取决于算法突破,更在于其物理基础设施能否在能源、环境和社会责任之间找到平衡点。

The Verge8天前原文

在经历了长达数周的僵持后,AI公司Anthropic在与美国国防部的法律纠纷中取得了一项关键进展。加州北区地方法院法官Rita F. Lin批准了Anthropic的初步禁令请求,暂时阻止了国防部将其列入政府黑名单的决定。法官在裁决中明确指出,国防部将Anthropic列为供应链风险,是因为其“通过媒体展现的敌对态度”,并称此举是“典型的非法第一修正案报复行为”。 ## 案件核心:言论自由与国家安全 这场法律纠纷的核心,是**第一修正案权利**与**国家安全考量**之间的冲突。根据法官Lin在裁决中的描述,国防部的记录显示,其将Anthropic指定为供应链风险,直接原因是该公司“通过媒体展现的敌对态度”。法官认为,因Anthropic通过公开渠道对政府合同立场提出质疑而对其进行惩罚,构成了对宪法第一修正案所保障的言论自由权利的非法报复。 ## Anthropic的立场与争议焦点 Anthropic的立场在其AI产品**Claude**的使用限制上体现得尤为明显。该公司公开表示,其AI技术**不应被用于自主致命武器和国内大规模监控**。如果政府希望使用其技术,必须同意不将这些技术用于上述目的。这一立场直接挑战了国防部在军事AI应用上的决策权。 法官Lin在周二的听证会上也指出了这一争议的本质:“一方面,Anthropic声称其AI产品Claude不适合用于自主致命武器和国内大规模监控……另一方面,国防部则认为,军事指挥官必须决定其AI可以做什么。”她同时强调,她的角色并非裁决这场辩论中谁对谁错,而是审查政府的行为是否符合法律。 ## 初步禁令的意义与后续影响 初步禁令的批准,意味着在案件最终裁决(可能需要数周甚至数月)之前,国防部不得执行对Anthropic的黑名单决定。这为Anthropic争取了宝贵的时间,并可能对其商业运营、客户关系及合作伙伴网络起到保护作用。 Anthropic发言人Danielle Cohen在周四的声明中表示:“我们感谢法院迅速采取行动,并很高兴他们认同Anthropic在案情上很可能取得成功。虽然此案对于保护Anthropic、我们的客户和合作伙伴是必要的,但我们的重点仍然是富有成效地与政府合作,确保所有美国人都能从安全、可靠的AI中受益。” ## 行业背景与深远影响 此案发生在全球AI监管与伦理讨论日益激烈的背景下。Anthropic作为一家以“安全”为核心原则的AI公司,其与政府机构的公开对峙,凸显了**科技公司价值观**与**国家机构战略需求**之间可能存在的深刻分歧。 * **为行业树立先例**:此案的最终结果,可能为其他AI公司在面对政府压力时如何捍卫自身原则(尤其是涉及伦理限制和公开批评的权利)提供法律参考。 * **影响政府与科技公司关系**:它考验着美国政府如何在推进AI军事应用的同时,处理与那些对技术用途有严格自我约束的领先科技公司的关系。 * **引发公众讨论**:案件将AI伦理、武器化、监控与言论自由等敏感议题置于公众视野,可能引发更广泛的社会与政策辩论。 法官Lin的裁决暂时为Anthropic提供了喘息空间,但案件远未结束。它不仅是Anthropic与国防部之间的法律战,更是一场关于AI时代权力边界、企业社会责任与宪法权利的重要博弈。最终裁决将如何平衡国家安全利益与企业的言论自由及伦理自主权,值得持续关注。

The Verge9天前原文

**大卫·萨克斯**,这位曾作为硅谷在白宫内部主要倡导者、并主导多项激进AI政策倡议的风险投资家和科技亿万富翁,于近日宣布不再担任**白宫AI与加密货币沙皇**一职。这一变动标志着特朗普政府在人工智能治理架构上的又一次调整。 ### 身份转变:从“特殊政府雇员”到顾问委员会联席主席 萨克斯此前以**特殊政府雇员**身份任职,这一身份允许他同时兼顾私营部门工作和政府职务,但任期不得超过130天。然而,他在被任命一年多后仍在任,曾引发外界对其任职期限的疑问。在接受彭博电视采访时,萨克斯解释称自己“已用完这段时间”,因此不再具备特殊政府雇员身份,自然也不再担任总统的AI与加密货币特别顾问。 取而代之的是,他将把精力转向**共同主持总统科技顾问委员会**。该委员会旨在就广泛的科技议题向总统和白宫提供研究与建议。萨克斯明确表示,新角色不会涉及与联邦政府机构的协调工作,核心任务是“研究问题、提出建议”。 ### 背景与影响:硅谷与白宫的连接纽带 萨克斯在2024年曾为特朗普举办大型硅谷筹款活动,这使他成为连接科技界与特朗普政府的关键人物。作为AI与加密货币沙皇,他直接参与了多项**激进AI政策倡议**的制定,被视为特朗普政府推动AI发展与应用的核心架构师之一。 他的离任正值白宫近期宣布多项PCAST新任命之际,包括马克·扎克伯格、马克·安德森、黄仁勋和谢尔盖·布林等科技高管。迈克尔·克拉齐奥斯,白宫科技政策办公室主任,也将共同主持该委员会。这一系列变动显示,特朗普政府正试图通过吸纳更多科技领袖进入顾问层,来强化其在AI等前沿科技领域的政策咨询网络。 ### 行业观察:AI治理的持续演变 萨克斯的角色调整,反映了美国AI治理体系的动态性。从直接参与政策制定的“沙皇”,转向提供宏观建议的顾问委员会,这种转变可能意味着: - **咨询架构的拓宽**:萨克斯本人提到,新角色让他能就“更广泛的科技议题”提出建议,而不仅限于AI和加密货币。 - **政策执行与建议的分离**:顾问委员会更侧重于研究与建议,而非直接协调或执行,这或许是为了在保持科技界影响力的同时,厘清政策制定与咨询的边界。 - **硅谷影响力的延续**:尽管职务形式变化,但萨克斯及新加入的科技高管们仍在PCAST中扮演重要角色,表明硅谷对白宫科技政策的影响渠道依然存在。 目前,白宫尚未就此变动发表进一步评论。萨克斯的离任与新任命,是否会改变特朗普政府AI政策的走向,仍有待观察。但可以肯定的是,在AI技术快速演进、全球竞争加剧的背景下,美国政府的科技治理架构仍在不断调整与试错中。

The Verge9天前原文

继Anthropic为Claude推出类似功能后,谷歌Gemini也于近日在桌面端推出了**“导入记忆”**和**“导入聊天历史”**两项新功能,旨在帮助用户快速将现有AI助手的个性化数据迁移至Gemini平台。这一举措不仅简化了用户切换AI工具的成本,也反映出AI行业在提升用户体验和生态互操作性方面的新趋势。 ## 功能详解:如何实现数据迁移 **“导入记忆”功能**的操作流程相当直观:用户只需从Gemini界面复制系统提供的提示词模板,粘贴到他们正在使用的其他AI助手(如ChatGPT、Claude等)中;待原AI生成包含用户偏好、习惯等个性化信息的文本输出后,用户再将这段文本粘贴回Gemini。通过这种方式,Gemini便能快速“理解”用户的基本背景和需求,无需从头开始建立认知。 **“导入聊天历史”功能**则支持更完整的数据迁移。用户可向原AI平台申请导出全部聊天记录(通常以.zip压缩包形式,最大支持5GB),然后直接上传至Gemini。上传后,用户可以在Gemini中无缝继续之前的对话,仿佛从未更换过助手。导入的聊天记录支持精细管理——用户既可以在左侧菜单的“聊天”选项中删除特定历史,也可以在设置页面移除整个.zip文件导入。 ## 行业背景:AI竞争的下一战场 谷歌此次更新并非孤立事件。本月初,Anthropic刚为Claude优化了类似的数据迁移工具,而谷歌紧随其后推出功能更全面的解决方案,凸显出**个性化数据可移植性**正成为AI助手竞争的新焦点。随着用户与AI交互的深入,聊天历史、偏好设置等数据积累日益成为使用粘性的关键。降低迁移门槛,本质上是平台在争夺用户时主动“拆除壁垒”,这或许预示着AI服务将从功能竞争转向生态友好度竞争。 值得注意的是,谷歌同步将Gemini中的“过往聊天”更名为**“记忆”**,这一术语变化强化了AI对用户长期认知的定位,与导入功能形成概念呼应。 ## 适用范围与限制 目前,**“导入记忆”和“导入聊天历史”功能仅面向桌面端的免费及付费个人用户开放**,企业版、教育版及18岁以下账户暂不可用。这一定位表明谷歌优先优化消费级用户体验,而商业场景的数据迁移可能涉及更复杂的合规与集成需求。 ## 对用户意味着什么? - **切换成本大幅降低**:用户不再需要在新AI助手前重复自我介绍或重新训练偏好,提升了工具选择的自由度。 - **数据控制权增强**:导出、导入、删除的完整链路让用户更清晰地掌控自己的交互数据。 - **行业互操作性萌芽**:尽管目前仍需手动操作,但标准化数据迁移流程的出现,为未来跨平台数据互通奠定了基础。 ## 小结 谷歌Gemini的导入功能虽是一个产品细节更新,却折射出AI行业的重要转向:当基础模型能力逐渐趋同,**用户体验、数据便携性和生态开放度**将成为差异化竞争的关键。用户能否自由携带“记忆”迁移,或许会成为衡量AI服务成熟度的新标尺。

The Verge9天前原文

据彭博社报道,苹果计划在iOS 27更新中引入一项名为“扩展”的新功能,允许用户选择将Siri与第三方AI聊天机器人(如Google Gemini、Anthropic Claude等)连接。这一变化标志着苹果在AI助手领域的战略调整,从封闭生态转向更开放的集成模式。 ## 核心功能:Siri的“扩展”系统 报道指出,苹果正在开发一个名为“扩展”的新系统。用户可以在iPhone、iPad和Mac上启用或禁用他们希望与Siri连接的聊天机器人。这些第三方机器人将通过App Store下载,类似于Siri目前与OpenAI ChatGPT的集成方式。这意味着用户未来可能通过Siri直接调用Gemini或Claude来获取回复,而不仅仅是依赖苹果内置的AI能力。 ## 背景与战略意义 这一举措并非孤立事件。苹果在AI领域面临激烈竞争,Siri长期以来被批评在智能性和功能性上落后于ChatGPT、Gemini等竞争对手。今年1月,苹果已宣布与Google合作,利用Gemini技术升级Siri。本周还有报道称,该合作还包括苹果使用Gemini训练更小型的AI模型。 苹果的转向反映了行业趋势:**大型科技公司正从“单打独斗”转向“生态整合”**。通过开放Siri接口,苹果既能弥补自身AI模型的不足,又能为用户提供更多选择,同时保持对App Store分发渠道的控制。 ## 与独立Siri应用的关联 值得注意的是,这些集成预计也将适用于苹果计划推出的**独立Siri应用**。该应用旨在让AI升级版的Siri能够跨应用执行操作,代表用户完成任务。如果“扩展”功能与之结合,用户可能通过一个统一的Siri界面,灵活调用不同AI模型处理各类需求——例如用Claude进行创意写作,用Gemini处理事实查询。 ## 行业影响与未来展望 - **用户受益**:消费者将获得更强大、更多样化的AI助手体验,不再受限于单一供应商的技术。 - **开发者机会**:AI公司可通过App Store触达苹果庞大用户群,但需遵守苹果的审核与集成规范。 - **竞争格局**:这可能加剧AI助手市场的竞争,推动各厂商在性能、隐私和用户体验上不断创新。 苹果预计在6月8日开始的全球开发者大会上公布其操作系统的最新版本,届时可能会正式披露“扩展”功能的细节。如果实现,这将是Siri自2011年推出以来最重大的架构变革之一,标志着苹果在AI时代采取更开放、协作的策略。

The Verge9天前原文

苹果最近在Apple Music中推出了AI驱动的歌单生成器**Playlist Playground**的测试版,用户可以通过文字提示来创建个性化歌单。然而,根据《The Verge》编辑Terrence O'Brien的实际测试,这一功能的表现令人失望,不仅无法准确理解音乐类型、年代等基本要素,甚至在简单的地理常识上都频频出错。 ## 测试案例:从黑金属到儿童友好嘻哈 O'Brien首先尝试了一个相对小众但明确的提示:“**Atmospheric instrumental black metal to write to**”(适合写作的氛围器乐黑金属)。结果,Apple Music返回的歌单中包含了三首带人声的金属歌曲、一段田野录音、一首氛围电子乐和一首厄运爵士乐——这与“器乐黑金属”的要求相去甚远。相比之下,YouTube Music的AI歌单生成器在同样提示下,直到第五首才出现带歌词的曲目,整体表现明显更优。 随后,O'Brien又测试了更具体的提示:“**modern ambient black metal from the American South**”(来自美国南部的现代氛围黑金属)。苹果只找到了三首可能符合的歌曲,其中一首来自南达科他州的乐队Woman is the Earth——而南达科他州并不属于美国南部。这暴露了AI在理解地理概念上的严重缺陷。 为了验证是否只是黑金属这类小众音乐的问题,O'Brien转向了更主流的类型:“**kid-friendly modern hip hop**”(儿童友好的现代嘻哈)。结果同样令人啼笑皆非: - 第一首是Kendrick Lamar的“DNA”的审查版,虽然歌词被处理过,但内容本身并不适合儿童。 - 第二首是Kid Capri于1998年发行的“We’re Unified”的审查版,这显然不符合“现代”的定义。 - 在生成的16首歌曲中,有6首超过15年历史,3首超过25年历史。 - 最离谱的是包含了Chicken P的“ABC”,这首歌列举了歌手睡过的所有女性名字,歌词内容完全不适合儿童。 ## AI音乐推荐的核心挑战 Playlist Playground的失败并非偶然,它反映了当前AI在音乐理解领域的普遍困境: 1. **语义理解的局限性**:AI可能通过关键词匹配(如“metal”、“hip hop”)来筛选歌曲,但无法深入理解“氛围”、“器乐”、“现代”、“儿童友好”等复杂概念的组合与语境。 2. **数据与标签的依赖**:AI严重依赖歌曲的元数据(如流派、年代、地区标签),如果这些标签不准确或不完整,输出结果就会失真。小众音乐或跨流派作品尤其容易出错。 3. **常识与逻辑的缺失**:将南达科他州误认为美国南部,或把1998年的歌曲归类为“现代”,说明AI缺乏基本的地理和历史常识,这在处理需要上下文理解的提示时是致命弱点。 ## 行业背景与竞争态势 苹果并非唯一尝试AI歌单生成的玩家。YouTube Music、Spotify等平台都已推出类似功能,但效果参差不齐。整体而言,AI音乐推荐仍处于早期阶段,面临以下挑战: - **个性化与准确性的平衡**:过于宽泛的推荐可能无法满足细分需求,而过于严格的过滤又可能限制探索性。 - **文化与时事的敏感性**:音乐与时代、地域、文化紧密相关,AI需要动态更新知识库以适应变化。 - **用户体验的落差**:当AI无法理解用户意图时,容易产生“智能智障”的体验,反而降低用户信任度。 ## 小结:AI音乐之路任重道远 Playlist Playground的糟糕表现提醒我们,AI在创意和娱乐领域的应用仍充满挑战。音乐不仅是数据的集合,更是情感、文化和语境的产物。苹果作为科技巨头,在AI布局上显然还有很长的路要走——从基础语义理解到常识推理,都需要更深入的优化。对于用户而言,在享受AI便利的同时,或许也该保持一份合理的期待:当前的AI歌单生成器,更像是一个有趣的实验,而非可靠的音乐伙伴。

The Verge9天前原文

谷歌近日宣布,其基于语音和摄像头的AI搜索功能**Search Live**正在全球范围内大幅扩展。这项功能现已支持**数十种语言**,并可在**超过200个国家和地区**使用,标志着谷歌在实时、多模态AI搜索领域的又一重要进展。 ## 功能核心:Gemini 3.1 Flash Live 模型驱动 此次全球扩张的核心驱动力是谷歌新推出的**Gemini 3.1 Flash Live**音频专用AI模型。谷歌强调,该模型具有“**天生多语言**”的特性,这使其能够流畅处理不同语言的语音查询。除了语言能力的提升,新模型还带来了**响应速度的优化**,并承诺提供“**更自然、更直观的对话体验**”。 ## Search Live 是什么?如何使用? **Search Live**允许用户通过手机的**摄像头和语音**进行搜索。例如,你可以将手机摄像头对准一个书架,然后直接问:“这个书架怎么安装?”AI助手会通过**音频**给出回答,同时提供它在网络上找到的相关信息链接。这项功能于去年九月在美国广泛推出,如今正走向全球。 用户可以通过以下方式体验Search Live: * 在Android或iOS设备上打开**Google应用**,点击搜索栏下方的“**Live**”按钮。 * 通过**Google Lens**功能访问。 ## 扩展背景与行业意义 谷歌此次大规模扩展Search Live,是其将AI深度融入核心搜索体验战略的一部分。在AI助手竞争日益激烈的背景下(如OpenAI的ChatGPT、微软的Copilot等),谷歌正通过**多模态交互**(语音+视觉)和**实时响应**来强化其搜索护城河。将AI能力直接整合到用户最熟悉的搜索场景中,是提升实用性和用户粘性的关键举措。 ## 同步更新:iOS版翻译应用获实时翻译功能 除了Search Live的扩展,谷歌还宣布将**Translate应用**的实时翻译功能引入iOS平台。这意味着iPhone用户现在也能使用该应用实时捕捉语音并**通过耳机听到翻译**。此功能还扩展到了更多地区,包括德国、西班牙、法国、尼日利亚、意大利、英国、日本、孟加拉国和泰国。 ## 小结 谷歌正加速其AI产品的全球化部署。通过**Gemini 3.1 Flash Live模型**赋能,**Search Live**在语言支持、响应速度和对话自然度上得到提升,覆盖范围大幅增加。同时,**Translate应用**的实时翻译功能登陆iOS并扩展至更多国家,共同构成了谷歌在**实时AI交互和多语言服务**领域的一次重要推进。这反映了科技巨头在让AI助手变得更普适、更无缝融入日常生活方面的持续努力。

The Verge9天前原文

根据美国联邦通信委员会(FCC)近期公布的文件,Meta 与其硬件合作伙伴 EssilorLuxottica 正准备推出新一代的 Ray-Ban AI 智能眼镜。两款新机型代号为 **Ray-Ban Meta ‘Scriber’** 和 **Ray-Ban Meta ‘Blazer’**,其中 Blazer 型号还将提供常规和大号两种尺寸。 ## 关键信息与推测 FCC 文件显示,这两款设备已被列为生产单元,这通常意味着产品已接近量产阶段。回顾历史,Meta 在 2023 年底发布第二代 Ray-Ban 眼镜时,也是在设备通过 FCC 认证后约一个多月正式亮相。因此,外界普遍预期新品可能很快面世。 尽管 FCC 文件因保密要求进行了大量删减,但其中仍透露出一些值得关注的细节: * **型号编号跃升**:新眼镜的型号编号为 **RW7001**(Scriber)和 **RW7002**(Blazer)。这与当前在售的第一代(RW4002 等)和第二代(RW4014 等)Ray-Ban Meta 眼镜的编号序列(RW4000 系列)相比,出现了大幅跨越。这种跳跃通常暗示着一次**重大的硬件升级**,例如可能搭载了全新的、性能更强的处理芯片,以更好地支持本地 AI 计算和更复杂的多媒体功能。 * **支持 Wi-Fi 6 UNII-4 频段**:文件确认新款眼镜将支持 **Wi-Fi 6 UNII-4 频段**。这一技术升级能带来更可靠的高速数据传输,对于需要稳定高带宽的应用场景至关重要,例如: * **高质量直播**:提升第一人称视角视频直播的流畅度和画质。 * **增强型 AI 功能**:为更复杂、响应更快的实时 AI 交互(如视觉识别、环境感知、多模态 AI 助手)提供数据传输保障。 * **配件延续**:测试文件中提到了充电盒,表明新款 Ray-Ban 很可能延续便携充电的设计,方便用户外出使用。 ## AI 穿戴设备的新篇章 Meta 持续迭代其 Ray-Ban AI 眼镜,反映了科技巨头在 **“环境计算”** 和 **“AI 硬件化”** 赛道上的坚定投入。智能眼镜被视为继智能手机之后,下一个重要的个人计算平台入口。其核心价值在于提供一种**无感化、全天候的 AI 伴随体验**。 从第一代主打拍照和音频,到第二代集成 Meta AI 语音助手并开放多模态功能,Ray-Ban Meta 眼镜一直在探索如何将 AI 自然地融入日常生活。此次硬件层面的显著升级(如推测的新芯片和增强的无线连接),预示着 Meta 可能正在为其眼镜装备更强大的“感官”和“大脑”,以支持: * **更复杂的实时视觉理解**。 * **更低延迟的语音交互**。 * **更丰富的 AR 信息叠加体验**(尽管当前型号 AR 功能有限)。 ## 市场展望与挑战 智能眼镜市场仍处于早期培育阶段,面临**电池续航、隐私顾虑、实用场景定义和时尚外观平衡**等多重挑战。Meta 与全球领先的眼镜制造商 EssilorLuxottica 合作,在时尚感和光学品质上具有先天优势。若此次硬件升级能显著提升 AI 功能的响应速度和实用性,或许能进一步推动这类设备从“科技爱好者玩具”向“大众实用工具”演进。 目前,关于这两款新眼镜的具体外观设计、定价、AI 功能的具体增强细节以及确切的发布日期,仍有待 Meta 官方正式公布。但 FCC 的认证无疑是一个明确的信号:Meta 在 AI 硬件化的道路上正在加速。

The Verge9天前原文

维基百科上周更新了编辑指南,明确禁止编辑者使用人工智能(AI)撰写或重写文章。这一政策调整主要针对英文版维基百科,旨在应对AI生成内容频繁违反维基百科核心内容政策的问题。 ## 政策核心:禁止生成,允许辅助 根据新规定,编辑者**不得使用大型语言模型(LLM)直接创作或大幅改写文章内容**。维基百科社区指出,AI生成的文章往往存在事实不准确、缺乏可靠来源、带有偏见或宣传性内容等问题,这与维基百科坚持的**中立性、可验证性和非原创研究**三大核心原则相冲突。 不过,新政策并未完全封杀AI工具。编辑者仍可在以下两种场景中使用AI: 1. **基础文案编辑建议**:允许使用AI对已有文本进行语法修正、句式调整等基础编辑,但前提是AI“不引入自身的内容”。 2. **跨语言翻译辅助**:编辑者可用AI将其他语言版本的维基百科文章翻译成英文,但必须对源语言有足够了解,以核实翻译的准确性。 ## 背景:AI“垃圾内容”的持续困扰 维基百科编辑社区与AI生成内容的斗争已持续数月。此前,社区已推出“快速删除”机制,用于清理低质量的AI文章,并成立了“**WikiProject AI Cleanup**”专项小组,专门识别和清理AI生成内容。 此次政策更新由编辑者Chaotic Enby提议,经过社区长时间讨论后,以“压倒性支持”获得通过。新规旨在“针对LLM使用中明显存在的问题,同时为合理的用途留出空间”。 ## 执行挑战:如何区分AI与人类写作? 维基百科也意识到,单纯依靠写作风格或语言特征来判断内容是否由AI生成可能存在误判。新指南特别提醒,有些人“可能拥有与LLM相似的写作风格”,因此编辑者在限制他人编辑权限时,不能仅凭“风格或语言迹象”,而应重点考察文本是否符合核心内容政策,以及该编辑者近期的编辑记录。 ## 行业启示:AI工具在知识生产中的边界 维基百科的这一决定,反映了当前AI技术在知识性、事实性内容创作中的局限性。尽管AI在信息处理、语言转换方面展现出强大能力,但其在**事实核查、来源可信度判断、中立立场保持**等关键环节仍存在明显缺陷。 对于其他依赖用户生成内容的平台而言,维基百科的案例提供了一个重要参考:如何在利用AI提升效率的同时,确保内容质量与平台核心价值不受侵蚀。未来,更精细的AI使用规范、更有效的内容审核机制,将成为知识类平台必须面对的课题。

The Verge9天前原文

## 两党联手,数据中心能耗透明度成焦点 美国参议员伊丽莎白·沃伦(民主党-马萨诸塞州)和乔什·霍利(共和党-密苏里州)于3月26日向美国能源信息署(EIA)发送了一封联名信,要求该机构收集并公开数据中心的“全面年度能源使用披露”信息。这一举措标志着两党在应对数据中心能耗问题上的罕见合作,旨在通过强制报告制度,为电网规划和能源政策提供关键数据支持。 ### 背景:数据中心能耗激增引发担忧 随着人工智能、云计算和数字服务的爆炸式增长,数据中心的电力需求急剧上升。据行业估计,全球数据中心的用电量已占全球总用电量的约1-2%,且这一比例还在持续攀升。在美国,数据中心密集的地区如北弗吉尼亚、德克萨斯和华盛顿州,已面临电网压力增大和电价上涨的挑战。此前,EIA已宣布在德克萨斯、华盛顿、北弗吉尼亚和华盛顿特区启动一项自愿试点项目,评估数据中心能源使用情况,但沃伦和霍利的信件呼吁更广泛的强制性报告,以确保数据的全面性和准确性。 ### 政策动向:从自愿到强制的转变 沃伦和霍利在信中强调,强制性年度报告对于“准确的电网规划”至关重要,并能监督七家科技公司遵守本月早些时候签署的“费率支付者保护承诺”。这七家公司承诺在数据中心扩张时考虑对电网和社区的影响,但缺乏公开数据使得监督难以落实。 此外,近期多项立法提案反映了政策层面对数据中心能耗的关注: - 参议员伯尼·桑德斯(独立-佛蒙特州)和众议员亚历山德里娅·奥卡西奥-科尔特斯(民主党-纽约州)提出了一项法案,建议暂停数据中心建设。 - 霍利和布卢门撒尔(民主党-康涅狄格州)在2月提出法案,旨在减缓数据中心导致的电价上涨。 - 纽约州等地方层面也在考虑类似措施,如一项提案要求暂停新数据中心建设三年。 这些动向表明,数据中心能耗问题已从行业自律转向政府监管,可能影响未来科技基础设施的布局和投资。 ### 行业影响:科技公司面临新挑战 强制性能源披露要求若实施,将对亚马逊、谷歌、微软等大型科技公司产生直接影响。这些公司运营着全球大部分数据中心,但长期以来,其具体能耗数据往往不透明,导致公众和监管机构难以评估其对环境和电网的真实影响。公开数据可能带来以下变化: - **提升透明度**:帮助社区和决策者了解数据中心的能源足迹,推动更可持续的扩张策略。 - **促进创新**:激励公司投资于可再生能源和高效冷却技术,以降低能耗和成本。 - **增加合规成本**:企业需投入资源进行数据收集和报告,可能影响运营效率。 ### 未来展望:平衡发展与可持续性 数据中心作为数字经济的基石,其增长不可避免,但如何在支持技术创新与保障能源安全之间取得平衡,已成为全球性议题。沃伦和霍利的提案是这一趋势的缩影,它可能推动美国建立更系统的能源监控体系,为其他国家和地区提供参考。 然而,政策落地仍面临挑战,包括如何定义报告标准、确保数据准确性,以及避免过度监管抑制创新。随着AI和云服务的持续扩张,数据中心能耗问题只会更加突出,透明化报告或将成为行业新常态。

The Verge9天前原文

## Webtoon 推出 AI 翻译工具,打破漫画创作的语言壁垒 全球领先的数字漫画平台 **Webtoon** 近日宣布,将对其用户上传漫画平台 **Canvas** 进行重大升级,核心举措之一是引入 **AI 驱动的翻译工具**,旨在帮助独立创作者跨越语言障碍,将作品推向更广泛的国际受众。这一系列更新预计于今年春季开始测试,夏季全面铺开,标志着 AI 技术在内容创作与分发领域的应用正从文本、图像向更复杂的叙事媒介渗透。 ### AI 本地化:七种语言一键转换 根据 Webtoon 公布的计划,Canvas 平台的创作者很快将能使用一项可选的 AI 翻译功能,将漫画脚本自动本地化为 **英语、西班牙语、法语、印尼语、泰语、繁体中文和德语** 七种语言。该工具的测试版将首先面向英语用户开放,随后推广至其他市场。 Webtoon 总裁 **Yongsoo Kim** 在接受采访时强调,长期以来,语言障碍和分发难题限制了创作者的触达范围。“借助这些工具,我们希望帮助创作者接触到世界各地的读者,同时让他们保持作品的完整创意控制权。” Kim 表示,新功能的核心目标是简化创作者的工作流程,让他们能更专注于内容本身,而非繁琐的翻译与本地化事务。 ### 平台升级:数据分析与盈利模式双管齐下 除了 AI 翻译工具,Webtoon 还同步推出了多项 Canvas 平台更新: - **增强型数据看板**:提供更深入的系列表现洞察、读者分析以及社区互动管理工具,帮助创作者精准把握受众偏好。 - **广告收益共享计划扩展**:该计划将向所有使用 Canvas 支持语言创作的创作者开放,意味着更多独立画手有机会通过平台广告获得直接收入。 这些改动共同指向一个清晰的目标——帮助创作者“扩大受众、构建粉丝社群并从作品中获得更多收益”。Kim 指出,Webtoon 关注的重点是协助创作者克服传统分发渠道中常见的挑战,例如跨国运营的高成本与复杂流程。 ### AI 赋能创作:行业趋势与潜在影响 Webtoon 此举并非孤立事件,而是 AI 在娱乐内容产业加速落地的一个缩影。随着生成式 AI 在文本、图像处理方面日益成熟,其应用场景正从辅助创作(如脚本生成、角色设计)延伸至 **内容本地化与全球化分发** 环节。对于漫画这类高度依赖视觉叙事且受众分布全球的媒介,AI 翻译工具能显著降低多语言版本的制作门槛与时间成本。 然而,这也引发了一些行业思考:AI 翻译能否准确传达漫画中的文化梗、情感 nuance 和艺术风格?Webtoon 将工具设为“可选”,或许正是为了平衡效率与创作自主性。从长远看,这类工具若成熟,可能重塑漫画产业的国际协作模式,让中小创作者也能轻松触及海外市场,加剧内容全球化竞争。 ### 小结:平台、创作者与读者的三赢尝试 Webtoon 的 Canvas 升级是一次典型的 **平台赋能创作者** 案例,通过 AI 工具与数据分析降低创作与运营门槛,同时扩展盈利渠道。对于创作者,这意味着更低的国际化成本与更清晰的受众洞察;对于读者,则有望接触到更多元、更即时的全球漫画内容。尽管 AI 翻译的质量与文化适配性仍需实践检验,但这一方向无疑为数字内容产业的全球化探索提供了新思路。

The Verge9天前原文

## 欧盟AI监管新动向:时间表调整与内容禁令 欧洲议会近日通过投票,决定推迟《欧盟人工智能法案》(EU AI Act)中多项关键条款的生效时间,同时支持在法案修订中加入对“裸体生成”应用(nudify apps)的禁令。这一系列措施以压倒性多数获得通过,标志着欧盟在AI监管领域正面临执行挑战与伦理争议的双重压力。 ### 关键条款生效时间大幅延后 根据投票结果,多项原本定于**2026年8月**生效的合规要求将被推迟: * **高风险AI系统**:被认定为对健康、安全或基本权利构成“严重风险”的AI系统,其开发者的合规截止日期将推迟至**2027年12月**。 * **特定行业AI系统**:涉及玩具、医疗器械等已有行业特定安全规则的AI系统,合规期限更长,拟议截止日期为**2028年8月**。 * **AI生成内容水印**:要求提供商为AI生成内容添加水印的规则,也将推迟至**2026年11月**生效。 这些延期反映出欧盟立法机构与产业界在落实这部全球首个综合性AI法规时遇到的现实困难。企业,尤其是那些开发高风险AI技术的公司,获得了更长的准备和调整时间。 ### 针对“裸体生成”应用的禁令提案 除了时间表调整,议会还支持在修订后的AI法案中加入对**“裸体生成”应用**的禁令。这类应用通常利用AI技术生成或修改人物的裸体图像,常涉及深度伪造(deepfake)和未经同意的色情内容。 提案的细节尚未明确,但附带了一项重要说明:禁令**“不适用于具备有效安全措施、能阻止用户创建此类图像的AI系统”**。这表明立法意图并非一刀切地禁止相关技术,而是旨在打击滥用行为,同时为负责任的技术开发留出空间。 这一禁令提案的直接背景是**今年早些时候X平台上Grok生成的性化深度伪造内容泛滥所引发的广泛公愤**。事件凸显了AI技术被滥用于制造非自愿色情内容的严重社会危害,促使欧盟立法者考虑采取更严厉的内容管控措施。 ### 监管路径的不确定性与后续步骤 此次投票也延长了在欧洲运营的AI企业面临的**监管不确定性**。此前,欧盟已因未能按时发布关键指导文件以及修改法律部分内容而导致进程延误。 目前尚不清楚这些拟议的变更能否在原定的8月生效日期前完成立法程序,因为欧洲议会**不能单方面修改欧盟法律**。接下来,议会必须与由27个成员国部长组成的**欧洲理事会**就法案的最终文本进行谈判。 ### 对AI行业的影响与观察 此次调整传递出几个关键信号: 1. **务实与灵活**:欧盟在坚持其AI监管高标准的同时,展现出对产业合规现实挑战的理解,通过推迟生效日期避免“硬着陆”,给予企业缓冲期。 2. **伦理边界强化**:针对“裸体生成”应用的禁令意向,表明欧盟将AI的伦理风险,特别是涉及个人尊严、隐私和同意的内容滥用,置于监管的核心关切位置。这可能会为全球其他地区的AI内容治理提供参考。 3. **执行复杂性**:从时间表延期到仍需进行的机构间谈判,都揭示了将一部宏大的框架性法律转化为可执行细则的复杂性。企业需要持续关注谈判进展和最终落地条款。 总体而言,欧盟正在其AI治理的雄心与落地执行的现实之间寻找平衡。如何在促进创新与防范风险、设定明确规则与保持法律灵活性之间取得平衡,将是未来谈判的关键看点。对于全球AI生态而言,欧盟的这一系列动作将继续是观察AI政策风向的重要窗口。

The Verge9天前原文

## OpenAI 暂停“成人模式”开发,情色聊天机器人计划被无限期搁置 据《金融时报》报道,OpenAI 已决定无限期搁置为 ChatGPT 开发“成人模式”(即情色聊天机器人)的计划。这是该公司在近期宣布暂停文本转视频平台 **Sora** 后,又一次调整产品路线,旨在将资源重新聚焦于核心业务。 ### 内部与外部压力共同作用 这一决定并非偶然。消息指出,OpenAI 内部员工和外部投资者均对这一计划表达了强烈担忧。主要顾虑集中在: - **社会影响风险**:性化 AI 内容可能带来的有害社会效应,包括对用户心理健康的潜在负面影响、助长不当行为或依赖等问题。 - **内容审核挑战**:如何有效防止未成年人接触、确保对话边界不被突破,成为技术实现上的重大难题。 - **缺乏实证依据**:公司表示,目前关于性化聊天长期影响的研究尚不充分,缺乏“经验证据”来支撑产品决策。 ### 战略收缩:从“四面出击”到“聚焦核心” 此次搁置情色聊天机器人,是 OpenAI 近期一系列战略调整的延续。就在不久前,该公司以“内部讨论更广泛的研究重点”为由,停止了 **Sora** 的开发。这些动作似乎呼应了 CEO **Sam Altman** 去年 12 月发出的“红色警报”——当时他警告称,谷歌、Anthropic 等竞争对手正在逼近 OpenAI 一度看似不可撼动的领先地位。 **这意味着什么?** 1. **资源重新分配**:公司将更多精力投入于提升 ChatGPT 的基础能力、安全性和商业化落地,而非探索边缘或高风险场景。 2. **风险规避**:在监管环境日趋严格、公众对 AI 伦理关注度上升的背景下,避免涉足争议领域有助于维护品牌形象和投资者信心。 3. **行业风向标**:作为 AI 领域的领头羊,OpenAI 的决策可能影响其他公司对类似功能的态度,促使整个行业更审慎地评估非核心创新。 ### 未来展望:研究先行,产品暂缓 OpenAI 并未完全关闭“成人模式”的可能性。公司表示,未来需要更多时间研究性化聊天可能引发的长期效应,尤其是用户情感依恋等问题。然而,在明确的结论和可行的保障措施出台前,该项目将保持“无限期搁置”状态。 **小结** OpenAI 此次搁置情色聊天机器人,反映出 AI 行业正从早期的“功能扩张期”逐步进入“责任深化期”。当技术能力快速突破时,企业必须更严肃地思考其社会影响与伦理边界。对于用户而言,这或许意味着短期内不会看到 ChatGPT 推出官方成人模式,但长远来看,更负责任的产品路线可能更有利于 AI 技术的健康发展。

The Verge10天前原文

据《纽约时报》、NBC News和The Information等多家媒体报道,Meta正在全公司范围内裁员数百人。此次裁员波及多个团队,包括招聘、社交媒体和销售部门,以及负责开发智能眼镜和虚拟现实头显的**Reality Labs**部门。Meta发言人Tracy Clayton在一份电子邮件声明中表示:“Meta的团队会定期重组或实施变革,以确保他们处于实现目标的最佳位置。在可能的情况下,我们正在为可能受影响的员工寻找其他机会。”Clayton拒绝透露具体受影响的人数。截至2025年12月,Meta拥有近79,000名员工。 **裁员背后的战略转向** 此次裁员并非孤立事件,而是Meta近期一系列战略调整的一部分。公司正逐步远离其“元宇宙”的命名初衷,将更多资源投入到人工智能领域。据报道,Meta计划投入高达**1350亿美元**用于AI数据中心建设,并与Arm达成协议,在其数据中心中使用Arm的首款CPU。 **Reality Labs的持续收缩** 作为Meta元宇宙战略的核心部门,Reality Labs近期经历了多次裁员和业务调整。今年1月,该部门已裁员至少1,000人,并关闭了三个VR工作室,取消了面向工作的元宇宙平台,停止了VR健身应用Supernatural的新内容开发。2月,Meta曾宣布将关闭其3D社交平台Horizon Worlds的VR版本,但几周后又撤销了这一决定,表示该平台“在可预见的未来”仍可供下载。 **AI投资与业务重组** Meta的裁员行动与其在AI领域的巨额投资形成鲜明对比。公司正将资金和人力资源重新分配到AI数据中心、大语言模型开发等关键领域,以应对与OpenAI、Google等科技巨头的竞争。这种“裁员+投资”的模式反映了科技行业在AI浪潮下的普遍趋势:企业必须优化现有业务结构,集中资源抢占技术制高点。 **行业影响与未来展望** Meta的裁员举措可能引发连锁反应,影响其他科技公司的招聘和投资策略。随着AI技术日益成熟,企业需要平衡短期盈利与长期创新,而裁员往往是这一过程中的必要调整。对于Meta而言,能否在AI领域取得突破,将决定其未来在科技行业的竞争地位。 **小结** Meta此次裁员数百人,同时加大对AI的投资,标志着公司战略重心从元宇宙向人工智能的显著转移。这一调整既反映了行业趋势,也凸显了Meta在激烈竞争中的自我革新。未来,Meta的AI布局能否带来预期回报,仍有待观察。

The Verge10天前原文

在乔什·达马罗(Josh D'Amaro)接任迪士尼CEO不到一周的时间里,公司两项雄心勃勃的未来计划已接连遭遇打击。这不仅为迪士尼的转型之路蒙上阴影,也反映出当前AI与元宇宙领域投资热潮背后的现实挑战。 ## 两大合作计划同时受阻 **OpenAI关闭Sora图像生成项目**:就在几个月前,迪士尼高调宣布与OpenAI达成一项价值**10亿美元**的合作,计划将Sora技术整合到Disney+流媒体平台中。这项合作的核心设想是允许用户生成AI内容并直接发布到Disney+上,旨在为平台注入新的互动元素。然而,OpenAI近日突然决定关闭Sora项目,使得这项备受瞩目的合作前景变得极不确定。 **Epic Games大规模裁员**:与此同时,迪士尼的另一项重大投资也面临考验。迪士尼曾与《堡垒之夜》开发商Epic Games达成一项**15亿美元**的投资协议,共同构建元宇宙体验。但近期Epic Games宣布裁员1000人,且关于这项元宇宙合作的具体进展几乎没有任何公开消息,令人对项目的实际推进情况产生疑虑。 ## 合作破裂的多重影响 ### 对迪士尼战略的冲击 迪士尼这两项合作原本被视作公司在数字娱乐前沿领域的关键布局。与OpenAI的合作尤其具有象征意义: - **技术合法性背书**:迪士尼作为全球最大的娱乐公司之一,其采用Sora技术本可为生成式AI在主流娱乐应用中的可行性提供重要背书 - **资本与流量注入**:10亿美元的合作不仅为OpenAI带来巨额资金,还可能通过Disney+的数亿用户为AI生成内容开辟全新分发渠道 - **品牌形象塑造**:迪士尼可借此将自己包装为AI技术应用的“先驱者”,向投资者展示其把握科技趋势的能力 然而,随着Sora项目的关闭,这些预期收益已基本落空。更微妙的是,OpenAI近期因协助五角大楼进行大规模监控而备受批评,迪士尼此时与之切割损失,也带有规避品牌声誉风险的考量。 ### 对行业生态的警示 迪士尼的遭遇并非孤立事件,它反映了当前AI与元宇宙投资热潮中几个普遍存在的问题: 1. **技术成熟度与商业化落地之间的鸿沟**:Sora虽展示出令人印象深刻的图像生成能力,但距离“可用于制作工作室认可的娱乐内容”仍有相当距离。许多AI项目在实验室演示阶段表现惊艳,却难以满足大规模商业应用对稳定性、版权合规和内容质量的要求 2. **资本追捧与实际价值创造的不匹配**:巨额投资协议容易制造市场兴奋点,但最终能否产出可持续的商业价值才是关键。迪士尼与Epic的元宇宙合作至今缺乏实质性进展披露,正是这种“雷声大雨点小”现象的体现 3. **用户接受度的现实考验**:即便技术可行,用户是否愿意在Disney+上观看“AI生成的内容洪流”(文中称为“AI slop”)作为订阅理由?这始终是个悬而未决的问题 ## 未来可能性与行业观察 尽管当前形势不利,但迪士尼仍有可能调整策略继续推进相关计划: - **寻找替代技术方案**:迪士尼可能转向其他AI图像生成平台或自研解决方案,继续探索AI内容在流媒体中的应用 - **重新定义元宇宙合作**:与Epic Games的合作可能以更务实、小规模的方式推进,而非最初设想的宏大元宇宙蓝图 - **聚焦核心娱乐体验**:迪士尼可能会将更多资源重新投入到传统优势领域——高质量影视内容制作,而非过度追逐尚未成熟的技术风口 ## 小结 迪士尼在元宇宙和生成式AI领域的双重受挫,为整个娱乐科技行业敲响了警钟。它提醒我们: - **技术炒作周期与商业现实之间存在显著时滞**,企业战略需要更多耐心与务实评估 - **合作伙伴的稳定性与行业地位同样重要**,技术初创公司的战略调整可能随时影响大型企业的布局 - **最终决定技术应用成败的仍是终端用户体验与内容质量**,而非单纯的技术新颖性 达马罗CEO上任伊始即面临如此挑战,其如何调整迪士尼的科技投资策略,将直接影响这家娱乐巨头在未来十年的竞争格局。而对于整个行业而言,迪士尼的案例或许标志着AI与元宇宙投资正从“狂热追捧期”进入“理性评估期”。

The Verge10天前原文