重磅!新法出台:AI技术将用于筛查,严防儿童色情图像生成

   日期:2026-01-08     来源:本站    作者:admin    浏览:97    
核心提示:    【编者按】在人工智能技术日新月异的今天,其双刃剑效应愈发凸显。近日,英国拟推出一项开创性法律修正案,授权专业机构

  nclick="xtip.photoApp('jzpic',{index:'1'})" data-xphoto="jzpic" src="http://www.wetsq.com/zb_users/upload/2025/12/oth0c431rkm.jpg" title="重磅!新法出台:AI技术将用于筛查,严防儿童色情图像生成 第1张" alt="重磅!新法出台:AI技术将用于筛查,严防儿童色情图像生成 第1张">

  【编者按】在人工智能技术日新月异的今天,其双刃剑效应愈发凸显。近日,英国拟推出一项开创性法律修正案,授权专业机构对AI模型进行安全测试,从源头遏制儿童色情内容的生成。数据显示,AI生成的儿童性虐待材料在过去一年激增一倍以上,其中涉及极端暴力内容的占比显著上升,女孩成为主要受害目标。这项立法不仅意味着技术监管的重大突破,更折射出全球数字时代儿童保护的紧迫性。当算法能够以假乱真地制造伤害,我们是否已准备好为技术创新装上“安全阀”?以下报道将深入解析这一法律变革背后的挑战与希望。

  根据一项新提出的法律,儿童保护组织将能够测试人工智能模型,以防止生成儿童不雅图像和视频。

  这项被描述为全球首创的法律变革,将允许指定机构审查AI模型,阻止其生成或传播儿童性虐待材料。

  现行英国法律将持有和生成儿童性虐待材料定为刑事犯罪,但开发者无法对AI模型进行安全测试,这意味着不雅图像只能在生成并上传网络后才能被删除。

  拟于周三作为《犯罪与警务法案》修正案提交的变革,将允许从源头测试AI系统的安全防护机制,旨在从根本上限制儿童性虐待图像的生成。

  政府表示这些变革“标志着数字时代儿童保护迈出重大步伐”,指定机构可能包括AI开发者和儿童保护组织,如互联网观察基金会(IWF)。

  英国科学、创新和技术部表示,新立法还将使这些组织能够核查AI模型是否具备防护机制,以抵御极端色情内容和未经同意的私密图像。

  此前IWF发布的数据显示,过去一年AI生成的儿童性虐待材料报告数量增加了一倍多,从2024年1月至10月的199例增至2025年同期的426例。

  数据显示,在此期间材料的严重程度加剧,最严重的A类内容——涉及插入式性行为、兽交或虐待的图像——从2621项增至3086项,目前占所有非法材料的56%,而去年这一比例为41%。

  数据显示女孩最常成为目标,在2025年AI生成的非法图像中占比高达94%。

  政府表示将召集AI和儿童安全专家小组,确保测试“安全可靠地进行”。

  这些专家将负责协助设计防护措施,保护敏感数据并防止非法内容泄露的任何风险。

  内政大臣概述合法移民规定改革

  延迟发布的跨性别指南被批“以貌取人的歧视许可证”

  斯温尼在调查报告发布前表示:“我对新冠疫情造成的痛苦感到遗憾”

  咖啡是社交的未来吗?这家时尚场所如此认为

  科技大臣莉兹·肯德尔表示:“我们绝不允许技术进步超越我们保护儿童安全的能力。”

  “这些新法律将确保AI系统可以从源头实现安全,防止可能危及儿童的漏洞。”

  “通过授权可信组织审查其AI模型,我们正在确保儿童安全被设计进AI系统,而不是事后补救。”

  保护事务部长杰斯·菲利普斯强调:“我们必须确保儿童在网络上的安全,确保我们的法律跟上最新威胁。”

  “这项新措施意味着合法AI工具不会被操纵用于制作恶劣材料,从而保护更多儿童免受侵害者伤害。”

  IWF首席执行官凯里·史密斯指出:“AI工具使受害者仅需几次点击就可能再次受害,犯罪分子能够制造数量潜在无限、逼真度高的儿童性虐待材料。”

  “这些材料进一步商品化了受害者的痛苦,使儿童——尤其是女孩——在网络和现实中更不安全。”

  “安全必须通过设计融入新技术。”

  “今天的公告可能是确保AI产品在发布前安全的关键一步。”

  全国防止虐待儿童协会(NSPCC)强调,新法律必须强制要求以这种方式测试AI模型。

  该慈善机构儿童网络安全政策经理拉尼·戈文德表示:“看到新立法推动AI行业承担更多责任审查其模型并防止在其平台上生成儿童性虐待材料,令人鼓舞。”

  “但要真正为儿童带来改变,这不能是可选选项。政府必须确保AI开发者有法定义务使用这项条款,使防范儿童性虐待成为产品设计的重要部分。”

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行