OpenAI在青少年自杀事件后宣布为ChatGPT引入家长控制功能

九月 3, 2025 - 21:53
 0  0
OpenAI在青少年自杀事件后宣布为ChatGPT引入家长控制功能

在人工智能如何影响青少年心理健康的争议日益加剧之际,OpenAI宣布计划为其ChatGPT引入家长控制功能。

这家总部位于美国加州的人工智能公司在本周二发布的一篇博客文章中指出,推出这些功能是为了帮助家庭“制定符合青少年独特发展阶段的健康指导方针”。

基于这些变化,家长将能够将自己的ChatGPT账户与孩子的账户关联,并禁用其中某些功能(包括记忆和聊天记录),并通过“适合年龄的示范行为规则”控制聊天机器人如何响应查询。

OpenAI表示,当孩子表现出痛苦迹象时,家长也将能够收到通知,并补充称,它将在实施该功能时寻求专家意见,以“增强家长与孩子之间的信任”。

OpenAI在上周宣布了一系列旨在增强弱势用户安全的措施,并表示这些变化将于下个月生效。

“这些举措仅仅是个开始”,该公司这样表示。

“我们将在专家的指导下继续学习和改进我们的方法,目标是让ChatGPT尽可能地发挥作用。我们期待在未来120天内分享我们的进展。”

ChatGPT能够成为我们的治疗师吗?【英语视频】

OpenAI的声明发布于加州一对夫妇提起诉讼的一周之后——这对夫妇指控该公司应对其16岁的儿子的自杀事件负有责任。

这对夫妇——马特·莱恩与玛丽亚·莱恩——在其诉讼中声称,ChatGPT证实了他们儿子亚当的“最有害的、自我毁灭的想法”,并且他的死亡是“经过深思熟虑的设计选择后的可预见结果”。

OpenAI此前曾对这名青少年的去世表示哀悼,但在其关于家长控制的声明中并未明确提及此事。

这对夫妇的辩护律师杰伊·埃德尔森驳斥了OpenAI计划进行的改变,声称这是在试图“转移话题”。

埃德尔森在一份声明中表示,“他们说,产品应该对处于危机当中的人们更加敏感,更加‘乐于助人’,并展现更多‘同理心’,专家们会弄清楚这一点的”。

“从战略上来讲,我们理解他们这样做的原因:OpenAI无法回应亚当的真正遭遇。因为亚当的案件并非关于ChatGPT未能实现‘乐于助人’的功能——而是关于一款产品主动指导青少年自杀的问题。”

随着人工智能模型被广泛用作替代治疗师或朋友,遭受严重精神困扰的人们对其的使用日益成为人们关注的焦点。

上个月发表在《精神病学服务》杂志上的一项研究中,研究人员发现,ChatGPT、谷歌的Gemini以及Anthropic的Claude,在回答有关自杀的高风险问题时遵循了临床最佳实践,但在回答“中等风险”的问题时却不一致。

研究人员指出:“这些发现表明,需要进一步的改进以确保大型语言模型(LLMs)能够安全有效地用于提供心理健康信息,尤其是在涉及自杀意念的高风险场景中。”

伦敦国王学院的精神病学家汉密尔顿·莫林一直致力于人工智能相关精神病的研究,他对OpenAI引入家长控制机制的决定表示欢迎,并表示这有可能降低过度依赖或接触有害内容的风险。

“话虽如此,家长控制应该被视为更广泛的保障措施的一部分,而非解决方案本身。总体来说,我认为科技行业对心理健康风险的应对往往是被动的,而不是主动的”,莫林这样告诉半岛电视台记者。

“虽然取得了一些进展,但这些公司可以进一步与临床医生、研究人员和亲身体验团体合作,旨在从一开始就构建以安全为核心的系统,而不是依赖于在出现担忧后才添加的应对措施。”

如果您或您认识的人员存在自杀风险,这些组织或许能够提供帮助。

来源: 半岛电视台

你的反应是什么?

喜欢 喜欢 0
不喜欢 不喜欢 0
喜爱 喜爱 0
有趣 有趣 0
愤怒 愤怒 0
悲伤 悲伤 0
哇 0