SheepNav

AI 资讯

每日聚合最新人工智能动态

来源:WIRED AI清除筛选 ×
《诡异谷》播客:AI 时代的伊朗战争、预测市场伦理与派拉蒙击败 Netflix

本期《诡异谷》播客深入探讨了 AI 行业与国防部的紧密联系如何影响中东冲突,预测市场面临的伦理困境,以及派拉蒙在竞购华纳兄弟中意外胜出的背后故事。 ## AI 与国防:中东冲突的新维度 随着 AI 技术日益成熟,其与国防部门的合作已成为不可忽视的趋势。本期播客指出,AI 行业正迅速将自己置于美伊冲突的中心,尤其是在**虚假信息传播**方面。例如,在近期美国与以色列对伊朗的袭击后,社交媒体平台 X 上充斥着大量虚假信息,这凸显了 AI 技术在信息战中的潜在风险。同时,AI 公司如 Anthropic 因被美国军方标记为“供应链风险”而面临挑战,反映出 AI 在国家安全领域的复杂角色。 ## 预测市场的伦理争议:内幕交易与监管挑战 预测市场如 Polymarket 和 Kalshi 正日益受到关注,但随之而来的是**内幕交易指控和伦理问题**。播客讨论了这些平台如何运作,以及它们面临的监管压力。例如,有前特朗普政府官员正针对预测市场采取行动,这引发了关于其合法性和透明度的广泛讨论。预测市场本应提供对未来的洞察,但如果缺乏有效监管,可能沦为操纵工具,损害公众信任。 ## 媒体并购:派拉蒙如何击败 Netflix 在娱乐产业,派拉蒙意外击败 Netflix,成功竞购华纳兄弟,这一事件成为播客的另一焦点。播客分析了背后的战略因素,可能涉及**内容库整合、流媒体竞争和行业格局变化**。例如,拉里·埃里森和大卫·埃里森等关键人物的控制权问题被提及,暗示了资本和资源在并购中的决定性作用。这一案例不仅展示了传统媒体公司的反击,也反映了 AI 时代下内容产业的动态调整。 ## 未来展望:AI 与社会的互动 播客主持人 Zoë Schiffer、Brian Barrett 和 Leah Feiger 分享了他们对未来的预测,强调 AI 技术将继续渗透到政治、经济和媒体领域。他们呼吁听众参与讨论,通过邮件 uncannyvalley@wired.com 或社交媒体平台如 Bluesky 提供反馈。这体现了播客的互动性和对公众参与的重视。 **关键要点总结:** - AI 与国防合作加剧了中东冲突中的信息战风险。 - 预测市场面临内幕交易和伦理挑战,需加强监管。 - 派拉蒙击败 Netflix 的并购案例揭示了媒体产业的战略调整。 - 未来 AI 发展将更紧密地与社会议题交织,需多方对话。 本期内容基于《诡异谷》播客的讨论,提供了对当前 AI 行业动态的深度洞察,适合关注科技、政治和媒体交叉领域的读者。

WIRED AI1个月前原文
OpenAI曾禁止军事用途,但五角大楼已通过微软测试其模型

## 军事AI合作风波:OpenAI政策模糊与微软的“后门” 本周,OpenAI与美国军方签署协议的消息持续发酵,CEO萨姆·阿尔特曼(Sam Altman)在社交媒体上承认此事处理“草率”,并面临员工的质疑。然而,这并非OpenAI首次与军事应用产生关联。据知情人士透露,早在2023年OpenAI明确禁止军事用途时,美国国防部已通过微软的**Azure OpenAI服务**进行实验,暴露了政策执行中的灰色地带。 ### 政策禁令与实际测试的冲突 2023年,OpenAI的使用政策明确写道:“禁止将我们的模型用于军事和战争。”但两名消息人士向WIRED透露,一些OpenAI员工发现,五角大楼当时已开始测试**Azure OpenAI**——这是微软提供的OpenAI模型版本。同年,员工还目睹国防部官员出入OpenAI旧金山办公室。 这种矛盾引发了内部困惑:OpenAI的禁令是否适用于微软?多数员工当时并不清楚,但OpenAI和微软的发言人一致表示,**Azure OpenAI产品不受OpenAI政策的约束**,而是遵循微软的服务条款。 微软发言人弗兰克·肖(Frank Shaw)在声明中解释:“微软的Azure OpenAI服务于2023年向美国政府开放,受微软条款管辖。”微软未具体说明何时向五角大楼提供该服务,但强调直到2025年,该服务才获准用于“绝密”政府工作负载。 ### 微软的角色:投资者与商业化伙伴 微软作为OpenAI的最大投资者,拥有广泛商业化其技术的许可权。同时,微软与国防部已有数十年的合作历史,这为军事应用测试提供了便利通道。OpenAI员工对此态度不一:有人担忧与五角大楼关联的风险,有人则对政策边界感到迷茫。 OpenAI发言人莉兹·布尔乔亚(Liz Bourgeois)在声明中辩护:“AI已在国家安全中扮演重要角色,我们认为有必要参与其中,以确保其安全、负责任地部署。”她补充,公司已向员工透明沟通,提供定期更新和提问渠道。 ### 行业背景:AI军事化的伦理争议 此次事件凸显了AI公司平衡商业利益与伦理准则的挑战。OpenAI的政策模糊性并非孤例——此前,Anthropic与五角大楼约2亿美元的合同破裂,也引发类似争议。随着AI技术加速融入国防领域,如何界定“军事用途”成为行业焦点。 **关键点总结:** - **政策漏洞**:OpenAI的禁令未覆盖微软商业化版本,导致军事测试得以进行。 - **商业关系**:微软的双重身份(投资者/国防承包商)促成了这次合作。 - **员工反应**:内部存在分歧,凸显AI伦理在实践中的复杂性。 这起风波提醒我们,在AI技术快速部署的今天,清晰的治理框架和跨公司协调至关重要,否则“禁止军事用途”可能沦为一句空话。

WIRED AI1个月前原文
字节跳动AI野心受阻:算力瓶颈与版权争议成拦路虎

## Seedance 2.0:惊艳亮相却面临双重挑战 今年2月初,字节跳动发布了其旗舰视频生成模型**Seedance 2.0**的重大升级。这款此前相对低调的模型一经推出,便在中国AI生态圈引发震动,甚至改变了部分对AI生成视频持怀疑态度者的看法。 **Game Science**创始人冯骥(其工作室开发的《黑神话:悟空》是全球热门游戏)在网络上表示,他对Seedance 2.0的能力“深感震惊”,并认为该模型将对中国现有的**版权法规**和**内容审核体系**构成重大挑战。 拥有超过1500万社交媒体粉丝的中国专业视频制作工作室负责人潘天鸿则发布视频称,Seedance 2.0“比之前任何视频制作模型都要好得多”。他评价道:“它思考起来像一位导演。” ## 算力瓶颈:需求激增暴露基础设施短板 然而,Seedance 2.0的惊艳表现背后,是字节跳动面临的严峻算力压力。模型发布后,巨大的用户需求迅速**挤占了公司的计算资源**,导致服务稳定性受到影响。这暴露了在AI视频生成这类高算力消耗应用场景下,即使是字节跳动这样的科技巨头,其基础设施也可能在短期内捉襟见肘。 ## 访问限制与商业化尝试 目前,大多数用户还无法直接体验Seedance 2.0。字节跳动仅允许其在中国市场的现有消费级AI应用用户(最知名的是聊天机器人应用**豆包**,此外还有集梦、小云雀、Spark等一批知名度较低的应用)试用该模型。这些应用均仅面向国内市场,限制了海外用户的直接测试。(这种限制甚至催生了国内一些精明人士向海外急于尝鲜的早期AI采用者转售其字节跳动账户的行为。) 不过,迹象表明模型可能很快会变得更加开放。本周,字节跳动更新了其API平台,并披露了Seedance 2.0的**拟议定价**:据中国媒体IT之家估算,生成一段目前最长的15秒视频,成本略高于2美元。虽然字节跳动尚未向第三方开发者开放API访问权限,但这应该已提上日程。 ## 版权争议:AI生成内容的法律灰色地带 除了算力问题,Seedance 2.0的强大能力也引发了日益增多的**版权投诉**。AI视频模型在训练过程中可能使用了大量受版权保护的内容,而其生成的内容本身也可能在风格、元素上接近现有作品,这给内容创作者和平台都带来了新的法律与伦理挑战。冯骥的担忧正反映了行业对现有法规能否有效应对AI生成内容冲击的普遍疑虑。 ## 中美AI路径的又一例证 长期观察中美AI格局的Substack通讯《Concurrent》作者Afra Wang指出,Seedance 2.0是两国AI发展路径分化的又一个有趣案例。即使在Seedance 2.0发布之前,全球一些最成熟的视频制作AI工具(如Kling AI)也已展现出不同的技术侧重和市场策略。 ## 小结 Seedance 2.0的发布标志着字节跳动在AI视频生成领域迈出了重要一步,其技术实力获得了业内认可。然而,**算力瓶颈**和**版权争议**这两大挑战,不仅制约了其当前的推广与用户体验,也预示着AI视频技术大规模商业化过程中必须解决的深层问题。如何在技术创新、资源投入与合规运营之间找到平衡,将是字节跳动乃至整个行业接下来需要面对的关键课题。

WIRED AI1个月前原文
科技巨头签署白宫数据中心承诺:表面光鲜,实质有限

## 一场“公关秀”?白宫数据中心承诺引争议 周三,在白宫举行的一场活动中,微软、Meta、OpenAI、xAI、谷歌/Alphabet、甲骨文和亚马逊等科技巨头的代表齐聚一堂,与美国总统特朗普共同签署了一项**不具约束力的承诺**。该承诺声称将确保科技公司不会将数据中心的成本转嫁给消费者的电费账单。特朗普在活动中直言:“数据中心……它们需要一些公关帮助。人们认为,如果数据中心建起来,他们的电费就会上涨。” ### 政治背景与公众担忧 这一承诺的签署,正值**两党对数据中心及其对消费者电费潜在影响的愤怒情绪在过去一年中爆发**。随着白宫全力押注人工智能,数据中心作为AI基础设施的核心,其能源消耗和成本问题日益成为政治焦点。在去年佐治亚州和弗吉尼亚州等地的选举中,数据中心已成为关键议题,并持续影响本月全国各地的其他竞选活动。 一项由Heatmap News进行的近期民调显示,**不到30%的美国选民支持在他们居住地附近建设数据中心**。这种普遍的担忧促使多个州今年在州立法机构中引入对数据中心的暂停令,而其他州则提出法案,试图将成本从消费者转移到建设和运营这些设施的公司身上。 ### 承诺的实质与专家质疑 尽管白宫试图通过这一承诺向选民保证,他们不会受到成本上升的影响,但电力专家和行业内部人士对其实际效力表示怀疑。哈佛法学院环境与能源法项目电力法倡议主任阿里·佩斯科埃直言:“**这是一场戏剧**。这是一份新闻稿,旨在让人们觉得他们正在解决这个问题。但这个问题实际上只能由公用事业监管机构或国会来解决。白宫在这里并没有太多手段,而且我认为科技公司本身并不是成本问题上最重要的当事方。” 佩斯科埃的评论点出了问题的核心:**白宫在监管公用事业成本方面的权力有限**,而科技公司的自愿承诺缺乏法律约束力,可能难以带来实质性的消费者保护。过去几个月,包括微软和Anthropic在内的一些大型科技公司已经围绕数据中心的建设和运营推出了各种承诺,但这些举措更多被视为应对政治压力的公关策略。 ### 行业动态与未来展望 在AI竞赛白热化的背景下,数据中心的扩张势不可挡,但其带来的能源和成本挑战也愈发尖锐。科技公司一方面需要满足AI模型训练和推理的巨大算力需求,另一方面又面临公众和政治层面的审视。白宫的这次活动,可以被视为**在选举年安抚选民情绪的一种尝试**,但缺乏具体的政策工具或立法支持。 **关键问题仍悬而未决**:如何确保数据中心的增长不会加剧电网负担或推高电价?谁应该承担升级电网基础设施的成本?这些问题的答案,可能更多地取决于州级监管机构、国会立法以及科技公司与公用事业公司的实际谈判,而非一纸非约束性承诺。 ### 小结 - **事件性质**:科技巨头在白宫签署非约束性承诺,旨在缓解公众对数据中心推高电费的担忧。 - **政治动机**:在AI成为国家战略重点的背景下,此举被视为特朗普政府安抚选民的公关举措。 - **专家观点**:电力法律专家质疑白宫的实际监管能力,认为问题需通过立法或公用事业监管解决。 - **公众情绪**:民调显示多数美国选民对本地建设数据中心持反对态度,成本转嫁是核心关切。 - **行业响应**:部分科技公司已自行推出相关承诺,但实质效果有待观察。 这场白宫活动凸显了AI基础设施扩张与社会成本之间的紧张关系,而真正的解决方案,可能远不止于一次精心策划的“公关帮助”。

WIRED AI1个月前原文
战争AI模型究竟长什么样?初创公司Smack正训练模型规划战场行动

当Anthropic等公司还在为AI军事用途设限而争论时,初创公司Smack Technologies已悄然获得3200万美元融资,专门开发用于规划和执行军事行动的AI模型。这家由前美国海军陆战队特种作战司令部指挥官Andy Markoff联合创立的公司,正通过类似AlphaGo的试错学习方式训练模型,旨在超越Claude等通用模型在军事场景下的能力。 ## 军事AI的“特种部队” Smack Technologies的创始人背景与硅谷主流AI公司截然不同。CEO Andy Markoff曾是**美国海军陆战队特种作战司令部指挥官**,参与过伊拉克和阿富汗的高风险特种作战任务。联合创始人Clint Alanis也是前海军陆战队员,而技术负责人Dan Gould则来自Tinder,曾任技术副总裁。 这种军事+技术的组合让Smack在军事AI领域拥有独特视角。Markoff直言:“当你服役时,你宣誓要光荣、合法地服役,遵守战争规则。对我来说,部署技术并确保其符合道德使用的人应该穿着制服。” ## 如何训练战争AI? Smack的模型训练方法借鉴了**Google 2017年的AlphaGo程序**,通过试错学习识别最优任务计划。具体策略包括: - 让模型在各种战争游戏场景中运行 - 由专家分析师提供信号,告诉模型其选择的策略是否会成功 - 通过反复迭代优化决策能力 Markoff表示,虽然公司没有传统前沿AI实验室的预算,但已投入数百万美元训练首批AI模型。 ## 与通用AI模型的根本差异 Markoff指出,当前大型语言模型(如Claude)并非为军事用途优化。这些通用模型擅长总结报告,但存在两大局限: 1. **缺乏军事数据训练**:未在军事特定数据集上训练,不了解战场环境、战术原则和作战流程 2. **物理世界理解不足**:不具备人类水平的物理世界理解能力,难以控制物理硬件 “我可以告诉你,它们绝对不具备目标识别、火力控制或任务规划的能力,”Markoff强调。 ## 硅谷的军事AI争议背景 军事AI使用已成为硅谷热点话题。此前,美国国防部官员与Anthropic高管就约2亿美元合同条款发生冲突,最终国防部长Pete Hegseth宣布Anthropic为供应链风险。争议焦点之一正是Anthropic希望限制其模型在自主武器中的使用。 Markoff认为,这场争论掩盖了一个事实:今天的LLM本就不是为军事设计的。Smack则采取了不同路径——从一开始就专门为军事应用构建AI。 ## 军事AI的伦理边界 与Anthropic明确限制自主武器使用不同,Smack对特定军事用途禁令的态度似乎更为宽松。公司更强调使用者的责任而非技术本身的限制。这种立场反映了军事背景创始人对“工具vs使用者”伦理框架的不同理解。 ## 行业影响与未来展望 Smack的崛起标志着军事AI专业化趋势的加速。随着国防部门对AI需求增长,专门针对军事场景优化的模型可能成为新赛道。这不仅涉及技术能力差异,更触及**数据访问权限、伦理框架和部署责任**等深层问题。 对于AI行业而言,军事应用始终是最敏感也最具争议的领域之一。Smack的案例表明,当通用AI公司因伦理顾虑犹豫时,垂直领域的专业玩家可能迅速填补市场空白。未来军事AI的发展,将在技术创新、伦理约束和地缘政治需求之间寻找微妙平衡。

WIRED AI1个月前原文
美国首席设计官乔·格比亚的神秘金属设备是什么?

近日,Airbnb联合创始人、美国首席设计官乔·格比亚在旧金山一家咖啡馆被拍到使用一款神秘的金属设备,引发了社交媒体上的广泛猜测。这段视频在X平台上获得了超过50万次观看,画面中格比亚佩戴着金属耳塞,面前放着一个类似蛤壳形状的圆盘。 ## 事件概述 视频拍摄于周一早晨,格比亚在咖啡馆享用浓缩咖啡时,被拍到使用这款设备。金属耳塞横跨他的耳朵,而桌上的圆盘则与耳塞设计相呼应。这一场景迅速在社交媒体上发酵,许多用户猜测这可能与**OpenAI**即将推出的硬件产品线有关,该产品线据传正与著名苹果设计师**乔尼·艾维**合作开发。 然而,OpenAI发言人已向WIRED表示拒绝就此视频置评,格比亚本人也未回应评论请求。 ## 与虚假广告的相似性 值得注意的是,格比亚使用的设备与今年2月在Reddit和社交媒体上广泛传播的一则虚假OpenAI广告中的硬件极为相似。那则虚假视频中,演员亚历山大·斯卡斯加德与一款AI设备互动,设备同样包含类似形状的耳塞和圆盘。当时,OpenAI已公开否认该视频的真实性,OpenAI总裁格雷格·布罗克曼更直接称之为“假新闻”。 ## 可能的设备来源 WIRED的音频专家分析指出,格比亚佩戴的耳塞很可能是一款开放式耳塞,其形状与**Soundcore的AeroClips**或**索尼的LinkBuds Clip**有相似之处。不过,这些耳塞的充电盒与格比亚桌上的圆盘并不匹配。 另一种猜测是设备可能类似**华为FreeClip 2**,这是华为今年早些时候发布的一款开放式耳塞。但华为最新的耳机充电盒设计与格比亚桌上的蛤壳状圆盘不同,且考虑到华为因安全担忧在美国被禁售手机,一位政府官员使用华为技术设备会令人意外。 ## 真实性验证 WIRED还使用**Hive公司**的检测软件对照片和视频进行了分析,以识别AI生成内容或深度伪造。检测结果显示,这段格比亚的影像由AI生成的可能性较低。但需注意,AI检测工具并非完全可靠,可能存在误判。整个帖子仍有可能经过某种程度的编辑或误导。 ## 行业背景与影响 这一事件凸显了AI硬件领域日益增长的公众关注度。随着OpenAI等公司探索硬件合作,任何疑似原型设备的出现都可能引发市场猜测和媒体炒作。同时,它也反映了在AI技术快速发展的背景下,区分真实产品与虚假信息变得愈发复杂。 对于科技行业而言,这类事件提醒企业在产品发布前需加强保密措施,并应对潜在的误导性内容保持警惕。消费者和媒体也应谨慎对待未经证实的硬件传闻,避免过度解读。 目前,格比亚使用的设备真实身份仍是一个谜,但可以肯定的是,它已成功吸引了全球科技爱好者的目光。

WIRED AI1个月前原文
德国电信推出AI通话助手,无需App即可实时翻译

在2026年巴塞罗那世界移动通信大会上,德国电信与AI音频公司ElevenLabs联合发布了**Magenta AI Call Assistant**。这款AI助手直接集成在通话中,用户只需说出唤醒词“Hey Magenta”,即可激活实时语言翻译、查询日历或寻找附近地点等功能。 ### 技术实现与核心功能 **Magenta AI Call Assistant**的最大特点是**无需下载任何App或依赖特定智能手机**。它通过德国电信的网络直接嵌入通话,用户只需在通话中说“Hey Magenta”即可唤醒。唤醒后,助手仅听取用户提出的问题,并在回答后停止监听,如需再次使用需重新激活。 主要功能包括: - **实时语言翻译**:在通话中即时翻译不同语言 - **日历查询**:参考用户日历信息查找可用时间 - **地点搜索**:使用地图服务寻找附近场所 ### 行业背景与差异化优势 当前,语言翻译AI服务已存在,但大多局限于特定设备: - **Apple**在其多款设备上提供Live Translation功能 - **Samsung**也有类似服务 - **Google**的Pixel 10设备甚至能用AI模仿用户声音进行翻译 **Magenta AI Call Assistant**的差异化在于其**硬件和软件无关性**。它不依赖特定设备或操作系统,旨在成为通话的自然延伸,降低使用门槛。 ### 隐私与实用性争议 尽管便捷性提升,但该技术也引发隐私担忧: - **非加密通话中的AI助手**:在未加密的通话中引入AI,可能增加数据泄露风险 - **数据收集范围**:助手功能涉及日历、位置等敏感信息,如何保护用户数据成为关键问题 AI社区平台Hugging Face的技术AI政策研究员Avijit Ghosh对此表示担忧。他不仅质疑在非加密通信服务中使用AI助手的安全性,还对助手的实际效用持怀疑态度。 ### 未来展望与挑战 **Magenta AI Call Assistant**目前仅在德国推出,但其模式可能预示电信行业与AI融合的新趋势。如果成功,它可能推动更多运营商集成类似服务,改变传统通话体验。 然而,挑战同样明显: - **隐私法规合规**:尤其在欧盟严格的GDPR框架下,数据处理需高度透明 - **技术可靠性**:实时翻译的准确性、唤醒词的误触发率等需持续优化 - **用户接受度**:在隐私敏感度高的市场,用户是否愿意在通话中引入第三方AI 德国电信与ElevenLabs的此次合作,不仅是技术展示,更是对AI在通信领域落地的一次重要尝试。其成败将影响未来AI与电信服务的融合路径。

WIRED AI1个月前原文
数据中心已抵达北极圈边缘:AI算力饥渴驱动北欧建设狂潮

随着全球AI实验室对计算资源的渴求达到前所未有的高度,一场数据中心建设热潮正在北欧地区——挪威、瑞典、芬兰、丹麦和冰岛——如火如荼地展开。咨询公司CBRE的研究显示,目前欧洲没有任何地方的数据中心容量增长比这里更快。这股热潮的背后,是欧洲其他地区面临的大型场地和充足能源供应的严重短缺。 ## 从造纸厂到AI“原料”工厂 在瑞典小镇博朗厄的河岸边,一座庞大的新数据中心正在建设中。这里曾是一家造纸厂的所在地。开发商EcoDataCenter的CEO Peter Michelson在去年9月破土动工时表示:“这座设施曾经生产纸张,那是报纸信息时代的原材料。现在,博朗厄将生产AI和下一个信息时代的原材料。” 博朗厄设施只是北欧地区目前正在建设或即将开发的**超过50个数据中心项目**之一。这些项目旨在满足训练和运行AI模型对合适数据中心日益增长的需求。 ## 北极圈内的算力部署 去年,OpenAI宣布将在北极圈内一个挪威峡湾小镇部署**10万个GPU**。随后微软也跟进类似计划。就在最近几周: - 法国AI实验室Mistral表示将租赁博朗厄价值**14亿美元**的基础设施 - 数据中心运营商atNorth宣布了在瑞典其他地方建设大型设施的计划 - 另一家开发商概述了一个项目,如果完成,将使芬兰当前的数据中心容量**增加一倍以上** ## 能源短缺催生的地理转移 CBRE数据中心研究总监Kevin Restivo指出:“欧洲各地都存在巨大的需求,但满足这些需求正日益成为问题。电力正成为一种日益珍贵的商品,而且供应稀缺。”在这种背景下,“挪威尤其已经爆炸式地成为数据中心温床。” 此前,欧洲的数据中心倾向于聚集在大都市和金融中心周围——特别是法兰克福、伦敦、阿姆斯特丹、巴黎和都柏林。为了支持算法交易等对纳秒级延迟敏感的应用,云公司需要尽可能减少数据传输的延迟。按照这些标准,北欧国家曾经不那么有吸引力。 ## ChatGPT引爆的转变 这一局面在2023年夏季开始转变,那时距离ChatGPT取得突破性成功仅过去六个月。北欧政府机构开始接到急切的数据中心开发商的咨询电话。 这种地理转移的核心驱动力是AI工作负载对电力的巨大需求。训练和运行大型语言模型需要海量计算资源,这转化为对稳定、廉价且充足电力的迫切需求。北欧地区凭借其丰富的可再生能源(尤其是水电)和相对较低的电价,成为了理想的解决方案。 ## 行业影响与未来展望 这场建设狂潮不仅改变了欧洲数据中心的地理分布,也可能对全球AI算力格局产生深远影响。随着更多AI公司在北欧部署基础设施,该地区可能成为全球AI研发的重要算力基地。 然而,这种快速增长也带来了挑战,包括对当地电网的影响、环境考虑以及社区接纳度等问题。北欧国家能否在满足全球AI算力需求的同时,平衡好本地发展与可持续性,将是未来观察的重点。 北欧的数据中心建设热潮清晰地表明,在AI时代,算力基础设施的布局正在被能源可用性重新定义。当算力成为新时代的“原材料”时,拥有丰富廉价能源的地区自然成为了新的产业中心。

WIRED AI1个月前原文
Anthropic反击五角大楼“供应链风险”标签,称其“法律上站不住脚”

美国国防部近日将AI初创公司Anthropic列为“供应链风险”,这一决定在硅谷引发震动。Anthropic迅速反击,称五角大楼的举动“法律上站不住脚”,并警告这将为任何与美国政府谈判的企业“树立危险先例”。这场围绕AI军事应用的争议,不仅关乎一家公司的命运,更触及了科技伦理、国家安全与商业创新的深层矛盾。 ## 事件背景 上周五,美国国防部长皮特·赫格塞斯在社交媒体上宣布,立即将Anthropic指定为“供应链风险”,这意味着任何与美国军方有业务往来的承包商、供应商或合作伙伴,都不得与Anthropic进行商业活动。这一决定源于双方数周来围绕AI模型军事应用的紧张谈判。Anthropic在谈判中坚持其技术不应被用于**大规模国内监控**或**完全自主武器**,而五角大楼则要求Anthropic同意军方将其AI应用于“所有合法用途”,不设具体例外。 供应链风险指定是五角大楼的一种监管工具,旨在保护敏感军事系统和数据免受潜在威胁,例如与外国所有权、控制或影响相关的风险。一旦被贴上这一标签,企业可能被限制或排除在国防合同之外。 ## 核心内容 Anthropic在周五晚间的博客文章中强硬回应,表示将“在法庭上挑战任何供应链风险指定”,并称此举“为任何与美国政府谈判的美国公司树立了危险先例”。公司强调,其与五角大楼的合同不应允许技术被滥用,并指出赫格塞斯部长“没有法定权力”支持其广泛限制声明。 - **法律争议**:Anthropic认为五角大楼的指定缺乏法律依据,可能侵犯企业权利。 - **沟通缺失**:公司透露,未收到国防部或白宫关于AI模型使用谈判的直接沟通,暗示决策过程不透明。 - **行业震动**:这一决定在硅谷引发广泛担忧,许多公司开始评估是否还能继续使用Anthropic的AI模型,这是行业最受欢迎的模型之一。 前白宫AI高级政策顾问、美国创新基金会高级研究员迪恩·鲍尔评论称,这是“美国政府做过的最令人震惊、最具破坏性且越权的事情”,相当于“制裁了一家美国公司”。 ## 行业影响 这场冲突凸显了AI技术在军事领域应用的伦理与商业困境。Anthropic作为AI安全领域的领先者,其立场反映了科技界对**负责任AI**的坚持,但五角大楼的需求则指向国家安全优先。这可能导致以下影响: - **企业谨慎**:其他AI公司可能在与政府合作时更加谨慎,担心类似风险指定影响业务。 - **创新受阻**:如果政府过度干预,可能抑制AI领域的创新和投资,尤其是在敏感技术方面。 - **全球竞争**:这一事件可能影响美国在AI全球竞争中的位置,引发关于科技主权和供应链安全的更广泛讨论。 硅谷人士已在社交媒体上热议此事,普遍担忧政府权力扩张对科技生态的冲击。 ## 总结与展望 Anthropic与五角大楼的对峙,不仅是商业合同纠纷,更是AI时代**伦理、法律与政策**碰撞的缩影。随着AI技术日益融入国防和安全领域,类似的冲突可能更加频繁。未来,双方是否通过法律途径解决争议,以及政府如何平衡国家安全与科技创新,将成为关注焦点。这一事件也提醒全球AI行业:在追求技术突破的同时,必须建立清晰的伦理框架和合作机制,以避免类似僵局重演。

WIRED AI1个月前原文
Trump Moves to Ban Anthropic From the US Government

President Donald Trump’s sudden order comes after the Defense Department pressured Anthropic to drop restrictions on how its AI can be used by the military.

WIRED AI1个月前原文
Wall Street Has AI Psychosis

A “thought experiment” about the impacts of AI sent stocks tumbling earlier this week. It’s probably going to keep happening.

WIRED AI1个月前原文
Huxe Will Give You a Personalized, Daily Audio Summary Powered by AI

The app reads your email inbox and your meeting calendar, then gives you a short audio summary. It can help you spend less time scrolling, but of course, there are privacy drawbacks to consider.

WIRED AI1个月前原文
Hands-On With Nano Banana 2, the Latest Version of Google’s AI Image Generator

Google’s latest image model, Nano Banana 2, is a powerful AI photo editor that punctures reality. Well, sometimes.

WIRED AI1个月前原文
‘Uncanny Valley’: Pentagon vs. ‘Woke’ Anthropic, Agentic vs. Mimetic, and Trump vs. State of the Union

Our hosts unpack the news of the week, starting with the ongoing feud between Anthropic and the Pentagon. Plus: All you need to know about TAT-8 and undersea cables.

WIRED AI1个月前原文
This AI Agent Is Designed to Not Go Rogue

The new open source project IronCurtain uses a unique method to secure and constrain AI assistant agents before they flip your digital life upside down.

WIRED AI1个月前原文