您的位置首页  性爱行为  性虐待

谷歌推出AI工具打击儿童 性侵!识别效率提升700%

  • 来源:互联网
  • |
  • 2019-01-18
  • |
  • 0 条评论
  • |
  • |
  • T小字 T大字

  儿童性虐待素材(CSAM)的是大型互联网公司的头等大事。但对于前线审核人员来说,识别并删除虐待内容是一项艰巨而悲惨的工作。这就是谷歌发布这款免费人工智能软件的原因。

  此前,该领域的大多数技术解决方案都是通过对照以前识别的虐待材料目录检查图像和视频来实现的(例如:PhotoDNA,由 Microsoft 开发, Facebook 和 Twitter 等公司采用的工具。)。这种被称为“爬虫”的软件是打击共享已知的、先前已被识别的 CSAM 的有效方法。但它有一个缺点,就是无法捕获尚未被标记为非法的材料。因此,人类审核人员必须介入审查内容。谷歌的这个 AI 工具与之前已经出现的 AI 鉴黄系统有所不同,它可以做到捕获尚未被标记为非法的儿童性虐待材料,因此能够实现更好的识别效果。

  而且,利用谷歌在机器视觉方面的专业知识,这个 AI 工具通过对标记的图像和视频进行排序并“优先将最有可能的 CSAM 内容挑选出来供审查”。这会使得审查过程 大大加快。谷歌表示,在一项试验中,人工智能工具帮助审核人员“在相同时长内处理的 CSAM 内容增加了 700%。”

  如果能够更快速地识别新图像,意味着现在正在待的儿童可能被更快地识别出来并起来。

  互联网观察基金会(IWF)副首席执行官 Fred Langford 表示,该软件将帮助审核团队更有效地部署有限的资源,辅助人类审核员进行分类。

  IWF 是致力于 CSAM 在线的最大组织之一。它位于英国,包括谷歌在内的大型国际科技公司为其提供资金。IWF 聘请了人类审核团队来识别虐待图像,在十几个国家运营用户举报网络,并开展调查,与执法机构合作打击共享 CSAM 的网站。

  Langford 表示,由于现在人们“对人工智能充满不切实际的幻想”,IWF 将彻底测试谷歌新的人工智能工具,以了解其适应工作流程的程度。他补充说,此类工具是迈向全自动系统的一步,在无人类干预的情况下识别以前未见过的材料。 “那种分类器就像舞台上的圣杯一样。”

  但是,他补充说,这些工具应该只在有“清晰”的场景下使用,以避免虐待材料被遗漏。“几年前我会说那种分类器出现还需要五六年,”Langford 说道,“但现在我认为,在某些场景中,我们只需要一至两年时间就可以创建完全自动化的分类器。”

  谷歌采取此举的背景,是这家互联网巨头因未违规者在网络上 CSAM 而面临越来越大的争议。上周,英国外交大臣杰里米·亨特(Jeremy Hunt)发推,谷歌既然可以为中国提供经审查的搜索引擎,为什么不能删除网络上其他地区的儿童虐待内容。

  看来谷歌正在考虑审查其进入中国的内容,但却不会与英国、美国和其他 5 个国家合作删除虐待儿童的内容,这似乎不同寻常。过去他们曾为自己的价值观而自豪......

  早些时候,英国内政大臣萨吉德·贾维德(Sajid Javid)发起了一项新的“行动呼吁”,作为推动谷歌和 Facebook 等科技公司采取更多措施打击在线儿童性虐待行为的一部分。在国家犯罪署(NCA)的最新数据显示英国有多达 8 万人可能对网络上公布的儿童构成之后,该计划得以实施。

  由于互联网的普及,网络,尤其是社交网络,成为滋生 恋童癖、儿童性虐待等非法内容的“温床”,在这里形成的黑色产业链远比大众想象的更加庞大,被的程度以及相关调查报告的数量,也比想象中少很多。

  虽然这个群体近年来遭到警方和非营利组织的,但却并没有从此消失。比如 2017 年曾被过 恋童癖的微 V 许豪杰,5 月份又被曝重回社交。

  当时,许在微博上拥有超过 50 万粉丝,其制作的一系列视频也曾广为。其开设的网站、贴吧后被警方查封。

  在儿童性虐待背后,这条的产业链并没有被彻底清除,而驱动力量正是暴利。以下是一些对 恋童癖调查报道的标题,可以看出这是一个暴利的产业:

  实际上,儿童性虐待发生的普遍程度,也可能远超你的想象。根据世界卫生组织(WHO, 2016)的调查,在成年人中,每 5 个女性和每 13 个男性中,就有 1 人表示自己曾经遭受过性虐待。其中 34% 的受到性虐待的孩子不满 12 岁(卫生部, 2014)。另外,根据联合国儿童基金会 2017 年的一份报告,全球为数众多的儿童(甚至包括年龄低至一岁的婴幼儿)正在遭受,且者往往是他们的养护人。在全球,约有 1500 万 15 到 19 岁的青春期女童曾被 或发生其他形式的性行为。

  另外,根据彭淋等人(2013)对 2000-2013 年间对儿童性虐待研究的回顾(N=16682),在中国,在儿童时期遭受过性虐待的人高达 18.2%(注:在该研究中性虐待指的是无论儿童是否愿意,任何人在任何地方对儿童直接或间接做出的性利用或 性)。每五个中国孩子中,就有一个遭受过不同程度的性虐待。很多人可能都认为,“性虐待”意味着身体上的,这也使得一些社会新闻到了。但实际上,儿童性虐待不仅仅指“ 猥亵”或“ ”,一些与孩子年龄不符的、发生的与性相关的活动,无论孩子是否愿意,都是对儿童的性虐待,它有时并不“需要”施虐者与者之间发生实质的肢体接触。

  谷歌此次推出的用于识别儿童性虐待 AI 工具,可以帮助人类审核人员更快速高效地识别相关内容,还可以解决此前 AI 识别系统普遍缺乏的识别未标记内容的问题。对于审核人员来说,此应用的作用小编深有体会,因为出于调查需要,点开的若干网页内容已经引起了小编强烈的心理和生理不适。如果这个 AI 工具的效果真如资料所写,倒不失为一个功德的应用。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
友荐云推荐
网站推荐更多>>