这份由两家以色列非政府组织撰写的报告,详细介绍了如何使用第三方应用程序,发现了在WhatsApp的一些群组当中含有提供邀请链接的“成人”板块,加入这些“成人”板块的用户可以交换儿童色情图片。资料显示,目前这些群组有许多处于活跃状态。
由Lisa工作室开发的群组发现应用“Group Links For Whats”,发现在WhatsApp上存在“child porn only no adv(儿童色无广告)”和“child porn xvideos(儿童色情视频)”等群组,而防漏洞初创企业AntiToxin则发现了WhatsApp上一些含有儿童色情的群组名称,像“videos cp(cp视频)”,很显然,“cp”是“child pornography(儿童色情)”的缩写。
调查显示,Facebook可以采取更多措施来监管WhatsApp,并删除这类非法内容。即使在不需要削弱加密技术的前提下,WhatsApp的版主也应该能够找到这些群组,并阻止它们传播色情内容。
零容忍政策
针对上述问题,WhatsApp自身应进行更好调查,本应立即删除这些群组并禁言其成员。2018年,Facebook负责内容审核的员工数量增加了一倍,从1万名增至2万名,以打击选举干扰、欺凌和其他政策违规行为,但这些员工并不干预WhatsApp的内容。WhatsApp只有300名员工,而且是半独立运营。尽管WhatsApp表示未来其将对网络群组进行自我管理,不过事实证明,这不足以对拥有15亿用户的WhatsApp社区进行监管。
初创公司“AntiToxin技术”对上述问题进行了调查研究,该公司声称已确认WhatsApp群组中有1300多名未成年人参与性行为的视频和照片。鉴于Tumblr应用最近因为涉嫌含有儿童色情内容而被苹果应用商店暂时下架,当被问及“是否考虑暂时下架WhatsApp”时,苹果没有立即作出回应。
Facebook发言人表示,“保证人们在Facebook上的安全是我们全球团队工作的基础。我们已经与以色列警方展开合作与调查,从而制止这种虐待行为。”
WhatsApp发言人则表示,虽然WhatsApp允许合法的成人色情内容,但该公司在最近10天内禁言了13万个账户,理由是这些账户违反了禁止传播儿童色情内容的政策。
WhatsApp在一份声明中称,“WhatsApp对儿童性虐待采取零容忍政策。我们使用最先进的技术,包括人工智能,扫描个人档案照片和图像的报告内容,并积极禁言了涉嫌分享这一恶劣内容的账户。我们还响应世界各地的执法要求,立即向国家失踪和受剥削儿童中心报告虐待情况。遗憾的是,由于应用程序商店和通信服务都被滥用于传播侮辱性内容,科技公司必须齐心协力,来共同制止这种行为。”
本文素材来自互联网