您的位置首页  性爱行为  性虐待

谷歌推出免费AI工具 可快速识别儿童性虐待图片

  • 来源:互联网
  • |
  • 2019-03-06
  • |
  • 0 条评论
  • |
  • |
  • T小字 T大字

  近日,谷歌发布一款AI(人工智能)工具,可帮助审核人员优先识别儿童性虐待(CSAM)内容,从而防止这些图像在网上。谷歌称,这款AI工具不仅可基于已有的数据库作资料对比,还能标记新发现的图片,这意味着正在遭受性虐待的儿童有可能更快被识别出来,并免受进一步虐待。

  9月3日,在谷歌工程主管Nikola Todorovic和产品经理Abhi Chaudhuri发布的一篇博文中提到,在一项实验中,该工具可帮助审核人员在同一时间段内,找到比以往更多的儿童性虐待内容,识别效率提升了700%。

  事实上,谷歌从2006年就开始了这项研究。2008年,谷歌开始使用“哈希技术”(又称散列技术,是指对一串数据进行杂糅,输出另一段固定长度的数据,作为这段数据的“指纹”)来标记已知的儿童性虐待图像,以便识别重复图像。 每个违规图像都会被分配一个自己的ID,无需人眼查看,计算机即可识别。

  2013年,谷歌尝试将儿童性虐待图像的加密“指纹”整合到跨行业数据库中,帮助企业、执法部门和慈善机构更好地在检测和删除儿童性虐待图像方面协作,从而遏制犯罪。

  近日谷歌推出的内容安全API则是结合了最前沿的AI技术,可以在现有技术的基础上大规模提升识别效率。通过深度神经网络技术在图像识别上的应用,这款API可以优先呈现更有可能是儿童性虐待场景的图像。另外,与此前只能与已被标记为儿童性虐待的图像不同,这款API还可以识别出以前没有被标记的图像。

  谷歌方面表示,这款API将免费提供给NGO(非营利组织)和行业合作伙伴使用。隐私护卫队在该API访问请求页面看到,申请者需提供姓名、电子邮件、组织名称、项目描述等信息。

  对于谷歌推出的AI工具,互联网观察基金会表示欢迎。这是一家致力于儿童性虐待内容在线的大型组织,在十几个国家运营用户举报网络,并聘请审核团队专门识别和打击CSAM内容。

  互联网观察基金会首席执行官Susie Hargreaves OBE表示,这款AI工具可以帮助专家更大规模地审查材料,将以前未被标记为非法材料的图像作为目标,从而提高儿童性虐待内容的识别速度,并跟上犯罪者的步伐,使互联网成为更安全的地方。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
友荐云推荐
网站推荐更多>>