SheepNav
新上线24天前0 投票

Grammarly 因“身份窃取”AI功能遭记者起诉:未经许可使用真人身份

知名写作辅助工具 Grammarly 正面临一场由记者 Julia Angwin 提起的集体诉讼,指控其“Expert Review”AI 编辑功能在未经许可的情况下使用了包括记者、学者在内的真实人物身份。这一事件不仅引发了关于 AI 时代身份权、隐私权的法律争议,也暴露了 AI 公司在数据使用和伦理边界上的模糊地带。

事件核心:未经授权的身份使用

根据诉讼文件,Grammarly 的“Expert Review”功能在为用户提供写作建议时,会模拟特定“专家”的口吻和风格,并附上这些专家的姓名和头像。记者 Julia Angwin 是在通过同行 Casey Newton 得知自己也被列入其中后,才意识到自己的身份被 Grammarly 用于商业目的。

更引人注目的是,The Verge 在本周测试该功能时发现,包括总编辑 Nilay Patel 在内的多名现任员工也出现在 Grammarly 的 AI 生成建议中。这表明 Grammarly 可能系统性地收集并使用了大量公众人物的身份信息,而这些人对此毫不知情。

Grammarly 的回应与功能下线

在诉讼提起的同一天,Grammarly 宣布禁用“Expert Review”功能。此前,公司曾设立一个邮箱供作家和学者申请退出,但显然这一事后补救措施未能平息争议。

CEO Shishir Mehrotra 在一份声明中道歉,承认“未能达到预期”,并表示将重新思考未来的方法。他解释,该功能的初衷是帮助用户发现与其工作相关的有影响力的观点和学术成果,同时为专家提供与粉丝建立更深层次联系的方式。

法律与伦理的双重挑战

这起诉讼的核心指控是 Grammarly 违反了关于未经同意将某人身份用于商业目的的法律,侵犯了“专家”们的隐私权和公开权。在 AI 技术快速发展的背景下,这类案件可能成为界定数字身份使用权的重要判例。

关键问题包括:

  • 同意机制缺失:Grammarly 是否在收集和使用这些身份数据前获得了明确授权?
  • 商业用途边界:AI 模拟真人风格并提供建议,是否构成“商业使用”?
  • 行业影响:其他 AI 公司是否也在采用类似做法?这起诉讼可能促使整个行业重新评估数据使用政策。

AI 行业的警示与反思

Grammarly 此次事件并非孤例。随着生成式 AI 的普及,如何平衡技术创新与个人权利已成为行业焦点。许多 AI 工具在训练和使用过程中都可能涉及真实人物的数据,但透明度和用户同意往往被忽视。

可能的行业趋势:

  1. 更严格的数据治理:公司可能需要建立更清晰的身份数据使用协议,确保事前同意。
  2. 伦理框架强化:AI 伦理委员会或外部审核机制可能成为标配。
  3. 法律风险增加:类似诉讼可能增多,推动相关立法完善。

小结

Grammarly 的“Expert Review”功能因未经授权使用真人身份而陷入法律纠纷,这起事件凸显了 AI 公司在追求产品创新时可能忽视的伦理与法律红线。随着 AI 技术日益渗透日常生活,如何在利用数据提升用户体验的同时,尊重个人权利和隐私,将是整个行业必须面对的长期课题。Grammarly 的道歉和功能下线是第一步,但更系统的变革或许才刚刚开始。

延伸阅读

  1. 微软服务条款警示:Copilot 仅供娱乐,用户需自行承担风险
  2. Suno成音乐版权噩梦:AI平台轻易生成碧昂丝等明星歌曲仿制品
  3. Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩
查看原文