
【编者按】在人工智能浪潮席卷全球的今天,科技巨头们正面临前所未有的责任拷问。当聊天机器人能模拟人类亲密对话,当算法推荐不断突破边界,如何守护数字原住民的成长安全成为社会焦点。meta最新推出的家长监管功能,既折射出科技伦理建设的紧迫性,也揭示着人机交互亟待建立的安全护栏。这场关乎下一代数字生存的保卫战,需要技术革新与制度监管的双轮驱动,更呼唤整个行业对"科技向善"理念的深度践行。让我们共同关注这个数字时代的重要命题——在创新与防护的天平上,如何为青少年撑起一片清朗的网络天空。
meta周五宣布将允许家长禁用青少年与AI角色的私密对话,这是在其调情聊天机器人行为引发强烈批评后,为保护未成年人采取的又一项安全措施。
本周早些时候,这家科技巨头表示其面向青少年的AI体验将参照PG-13电影分级标准,旨在防止未成年人接触不良内容。
随着聊天机器人潜在负面影响引发关注,美国监管机构已加强对AI公司的审查。八月路透社曾披露,meta的AI规则竟允许与未成年人进行挑逗性对话。
据官方博客透露,由Instagram负责人亚当·莫塞里和首席AI官亚历山大·王详细说明的新功能,将于明年初在美国、英国、加拿大和澳大利亚的Instagram平台率先上线。
meta强调,家长不仅可以屏蔽特定AI角色,还能查看子女与聊天机器人及metaAI助手讨论的广泛话题,而无需完全关闭AI访问权限。
公司明确表示,即使家长禁用青少年与AI角色的私密对话,经过年龄适配设置的AI助手核心功能仍将保持开放。
这些监管功能建立在现有青少年账户保护体系之上,该公司补充说明,其通过AI信号自动将疑似未成年账户纳入保护范围,即使用户自称已成年。
九月的一份调查报告显示,meta多年来在Instagram部署的诸多安全功能要么收效甚微,要么形同虚设。
meta承诺其AI角色经过特殊设计,不会与青少年展开涉及自残、自杀或饮食失调等不适龄的危险对话。
上月,OpenAI在网页端和移动端为ChatGPT推出了家长控制功能。此前一家初创公司的聊天机器人被指控指导青少年自残方法,最终导致该未成年人自杀身亡,其父母因此提起诉讼。




