Ars Technica 因 AI 伪造引文争议解雇资深记者
近日,科技媒体 Ars Technica 解雇了其资深 AI 记者 Benj Edwards,起因是一篇涉及 AI 伪造引文的文章被撤回,引发了关于新闻伦理与 AI 工具使用的广泛讨论。
事件回顾
今年 2 月 13 日,Ars Technica 发表了一篇关于 AI 代理撰写攻击人类工程师 Scott Shambaugh 的文章。文章发表后,Shambaugh 本人指出,文中引用的所谓“他的言论”纯属捏造,他从未说过那些话。
Ars Technica 主编 Ken Fisher 随后发表编辑说明,确认文章包含 AI 工具生成的伪造引文,并将其归咎于一位未发表相关言论的消息来源。Fisher 将这一错误描述为“我们标准的严重失败”,并宣布撤回该文章。他补充说,经过进一步审查,这似乎是一个孤立事件。
记者回应与解雇
在编辑说明发布后不久,文章的两名署名作者之一 Benj Edwards 在 Bluesky 上发文,承担了全部责任。Edwards 解释说,当时他生病了,发着高烧、睡眠不足,在尝试使用一款基于 Claude Code 的实验性 AI 工具来帮助提取相关原始资料时,无意中犯下了严重的新闻错误。
他强调,该工具并非用于生成文章,而是旨在帮助列出结构化参考资料以放入大纲。当工具失效时,他决定尝试使用 ChatGPT 来理解原因。Edwards 表示:“我应该请病假的,因为在这次互动中,我不小心得到了 Shambaugh 言论的转述版本,而不是他的原话。”
Edwards 还强调,文章文本是由人类撰写的,这一事件是孤立的,不代表 Ars Technica 的编辑标准。他说:“我们的文章都不是 AI 生成的,这违反公司政策,我们一直尊重这一点。”他同时澄清,他的同事、网站资深游戏编辑 Kyle Orland(文章的另一位署名作者)与此错误无关。
尽管 Edwards 公开道歉并解释,Ars Technica 的母公司 Condé Nast 已确认解雇了他。这一决定凸显了媒体机构在 AI 时代对新闻准确性和伦理的严格立场。
AI 在新闻业中的角色与风险
这一事件引发了关于 AI 工具在新闻编辑室中使用的深刻反思。随着 AI 技术的普及,记者们越来越多地借助这些工具来提高效率,例如资料整理、摘要生成或语言润色。然而,这也带来了新的风险:
- 准确性风险:AI 工具可能生成不准确或虚构的信息,尤其是在处理复杂或模糊的查询时。
- 伦理问题:使用 AI 生成内容而不明确标注,可能误导读者,损害新闻公信力。
- 责任归属:当错误发生时,如何界定人类记者与 AI 工具的责任,成为亟待解决的难题。
Edwards 的案例表明,即使记者意图良好,AI 工具的误用也可能导致严重后果。这提醒新闻从业者,在使用 AI 辅助工具时,必须保持警惕,确保最终输出的内容经过严格核实。
行业影响与未来展望
Ars Technica 作为知名科技媒体,此次事件可能对行业产生连锁反应。其他媒体机构可能会重新评估其 AI 使用政策,加强内部培训,以防止类似错误。
从更广泛的角度看,这一争议反映了 AI 与新闻业融合过程中的阵痛。随着技术发展,新闻业需要找到平衡点:既利用 AI 提升效率,又坚守新闻真实性和伦理底线。
关键教训:
- 新闻机构应制定清晰的 AI 使用指南,明确哪些任务可以借助 AI,哪些必须由人类完成。
- 记者在使用 AI 工具时,应始终保持批判性思维,对输出内容进行交叉验证。
- 透明度和问责制至关重要,任何 AI 辅助生成的内容都应适当标注,以便读者知情。
总之,Benj Edwards 的解雇事件不仅是一个个人悲剧,更是 AI 时代新闻业面临挑战的一个缩影。它警示我们,在拥抱技术创新的同时,绝不能牺牲新闻的核心价值——真实与诚信。


