SheepNav
新上线25天前0 投票

Grammarly 宣布将停止未经许可使用 AI 克隆专家,未来让专家自主选择参与

Grammarly 的母公司 Superhuman 近日宣布,将禁用其“专家评审”AI 功能,并重新设计该功能,以赋予专家对其知识表示方式的真正控制权。 这一决定是在收到包括《The Verge》主编在内的多位作家和专家的批评后做出的,他们担心该功能在未经许可的情况下“克隆”了他们的写作风格和观点。

事件回顾:从“灵感来源”到争议焦点

Superhuman 的产品管理总监 Ailian Gan 在一份声明中表示:“经过慎重考虑,我们决定禁用专家评审功能,同时重新构想该功能,使其对用户更有用,并让专家真正控制他们希望如何被代表——或者完全不被代表。” 她承认:“根据我们收到的反馈,我们显然没有达到预期。我们对此感到抱歉,并将在未来采取不同的做法。”

此前,Grammarly 的“专家评审”功能声称其编辑建议“灵感来源于”真实作家的作品,包括《The Verge》的主编和其他员工。这一表述引发了广泛争议,专家们认为这实际上是在未经他们同意的情况下,利用 AI 技术模仿或“克隆”他们的写作风格和专业知识。

公司回应:从“选择退出”到全面反思

最初,Superhuman 试图通过设立一个邮箱让作家选择退出“专家评审”功能来回应批评。但公司很快意识到这还不够。Superhuman 的 CEO Shishir Mehrotra 在 LinkedIn 上发帖道歉,并详细说明了公司的未来计划。他表示:“我希望建立一个未来,让专家选择参与,塑造他们的知识如何被代表,并控制他们的商业模式。”

Mehrotra 解释道,该功能最初旨在帮助用户发现与其工作相关的有影响力的观点和学术成果,同时为专家提供与粉丝建立更深层次联系的有意义方式。但他承认:“我们听到了反馈,并认识到我们在这方面做得不够。”

AI 伦理与知识产权:行业面临的共同挑战

这一事件凸显了 AI 技术在内容创作和知识表示方面面临的伦理和知识产权挑战。随着大型语言模型(LLMs)的普及,如何合法、合规地使用公开信息,同时尊重原创者的权利和意愿,已成为整个行业必须面对的问题。

  • 透明度与同意:AI 工具在引用或模仿专家作品时,必须确保透明度和获得明确同意。
  • 控制权归属:专家应有权决定自己的知识和风格是否被 AI 使用,以及如何使用。
  • 商业模式考量:如何让专家从 AI 对其知识的利用中受益,而不仅仅是“被代表”。

未来展望:Grammarly 的“重新构想”之路

Superhuman 表示,将“重新构想”专家评审功能,目标是使其对用户更有用,同时让专家拥有真正的控制权。具体措施可能包括:

  • 明确的参与机制:未来专家可以选择是否参与 AI 训练或知识表示。
  • 更精准的归属:确保 AI 建议的来源和灵感得到清晰、准确的标注。
  • 合作模式的探索:探索与专家建立正式合作关系的可能性,实现互利共赢。

小结

Grammarly 此次的快速反应和道歉,显示了 AI 公司在面对伦理争议时的责任意识。这也为整个行业敲响了警钟:在追求技术创新的同时,必须将尊重原创、保障权益放在首位。未来,如何平衡 AI 的便利性与知识产权的保护,将是所有内容相关 AI 工具必须解决的课题。

延伸阅读

  1. 微软服务条款警示:Copilot 仅供娱乐,用户需自行承担风险
  2. Suno成音乐版权噩梦:AI平台轻易生成碧昂丝等明星歌曲仿制品
  3. Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩
查看原文