OpenAI更新心理健康安全工作进展:新增监护人功能与情绪检测优化
随着ChatGPT用户突破9亿,OpenAI正持续加强其心理健康安全措施。从家长控制到即将推出的可信联系人功能,再到情绪困扰检测技术的提升,这些举措不仅体现了AI伦理责任,也反映了科技公司在应对心理健康挑战时的多维策略。
事件背景
OpenAI于2026年2月27日发布了关于其心理健康相关工作的最新进展。这一更新正值ChatGPT每周用户数超过9亿人,用户通过该平台学习新技能、处理复杂医疗系统等日常应用日益普及之际。随着AI助手深度融入用户生活,如何确保其在心理健康领域的负责任使用成为OpenAI安全工作的核心议题之一。
核心内容
OpenAI此次更新涵盖了多项具体措施。家长控制功能自2025年9月推出以来,已获得家庭的积极使用,OpenAI表示将继续加强这些保护措施。更值得关注的是,通过与福祉与AI委员会和全球医师网络的专家合作,OpenAI即将推出可信联系人功能,允许成年用户指定一名联系人,在用户可能需要额外支持时接收通知。
在技术层面,OpenAI正在推进模型如何检测和回应情绪困扰迹象的能力。这包括开发新的评估方法,模拟扩展的心理健康相关对话,以更好地识别潜在风险,并优化ChatGPT在敏感时刻的回应方式。OpenAI计划在未来几周分享更多关于这项工作的细节。
行业影响
OpenAI的这些举措对AI行业具有多重示范意义。首先,它展示了大型语言模型提供商在心理健康安全方面的主动责任,通过技术手段(如情绪检测)和产品功能(如监护人机制)双管齐下。其次,与专业机构(如全球医师网络)的合作模式,为AI公司如何整合外部专业知识提供了参考。
此外,OpenAI还提及了近期心理健康相关诉讼的进展。加州法院已将多起涉及ChatGPT的心理健康案件合并审理,原告律师表示将提起新诉讼。OpenAI强调,无论诉讼如何,公司都将基于事实、尊重当事人隐私,并持续改进技术。这反映了AI公司在法律合规与技术创新之间的平衡挑战。
总结与展望
OpenAI的心理健康安全更新体现了其从被动响应到主动预防的策略转变。关键措施包括:
- 家长控制与可信联系人功能,构建用户支持网络
- 情绪困扰检测技术的持续优化,提升AI回应敏感性
- 与专业机构合作,确保措施的科学性与有效性
展望未来,随着AI助手在心理健康支持领域的应用深化,OpenAI的实践可能推动行业形成更统一的安全标准。然而,技术优化与法律风险(如近期诉讼)的并存,也提示AI公司需在创新与责任之间找到可持续的平衡点。


