青少年频繁搜索自杀内容,Instagram将向家长发出警报

2026-04-08 07:44来源:本站

  

  重磅消息!Instagram周四宣布,将启动一项全新警报机制:一旦青少年用户反复搜索与自杀或自残明确相关的关键词,系统将自动向其父母发出警报。不过,这项服务仅限已加入Instagram家长监督计划的家庭使用。

  Instagram表示,平台早已在青少年账户的搜索结果中屏蔽此类内容,并会主动引导用户联系专业援助热线。

  此次公告发布之际,meta正面临两起关于儿童伤害的诉讼。洛杉矶的庭审直指meta旗下平台是否故意诱导未成年人成瘾并造成伤害;新墨西哥州的案件则聚焦meta是否未能有效保护平台上的儿童免受性剥削。数千个家庭——连同学区及政府机构——已联合起诉meta及其他社交媒体公司,指控它们故意设计令人上瘾的平台机制,且未能保护青少年免受可能导致抑郁、饮食失调甚至自杀的内容影响。

  包括CEO马克·扎克伯格在内的meta高管始终否认平台会导致成瘾。在洛杉矶庭审中接受原告律师质询时,扎克伯格重申其既往立场,认为现有科学研究尚未证实社交媒体会对心理健康造成实质伤害。

  据悉,警报将通过电子邮件、短信或WhatsApp发送(依据家长预留的联系方式),同时也会在家长的Instagram账户内推送通知。

  meta在官方博客中说明:“我们的目标是让家长在孩子需要支持时能及时介入。同时希望避免不必要的通知推送——过度提醒反而会削弱警报的整体效用。”

  非营利组织Fairplay执行董事乔什·戈林对此新功能持怀疑态度,直言Instagram“选择此时推出该措施,显然是因为公司正在两个州面临危害青少年成瘾的诉讼”。

  “meta再次将责任转嫁给家长,而非修正其算法和平台设计中的根本缺陷,”戈林强调,“所有儿童都应受到保护,无论其父母是否注册使用了meta的监督工具。如果一款产品必须依靠家长干预才能保证青少年安全使用,那它根本不该向青少年推广。”

  meta同时透露,正在开发针对青少年与人工智能互动的家长通知系统。

  “当青少年试图与AI进行某些涉及自杀或自残的对话时,系统将向家长发出预警,”meta表示,“这项工作至关重要,未来几个月我们将分享更多进展。”

纳趣吧声明:未经许可,不得转载。