logo
繁体
繁体

欧盟拟定新草案,将要求谷歌、Meta等互联网公司积极检测和删除儿童色情内容

据路透社报道,根据欧盟委员会拟议的规则,谷歌、Meta和其他在线服务提供商将被要求查找并删除在线儿童色情内容,一些隐私组织表示,此举可能会使人们的通信面临风险。

Photo by Pixabay on Pexels

不遵守规定的公司将面临高达其年收入或全球营业额6%的罚款,罚款金额将由欧盟国家规定。

欧盟委员会是欧盟的执行机构,其表示,周三(当地时间5月11日)宣布的提案旨在取代目前由公司自愿检测和报告的系统,该系统已被证明不足以保护儿童。

提案指出,2020年,在欧盟27个国家中报告了超过100万起儿童性虐待事件;2021年此类报告比上一年增加64%,其原因之一是新冠疫情的暴发。除此之外,全球60%的儿童性虐待资料被上传到欧盟的服务器上。

欧盟委员会在一份声明中说:“拟议的规则规定了相关在线服务提供商的义务,要求其评估服务被滥用以传播儿童性虐待或儿童性诱拐内容的风险。”

这些公司还必须报告和删除已知的和新的图像和视频,以及诱拐的案例。欧盟将建立一个儿童性虐待中心,作为专业知识中心,并向警方转交报告。

这些规则将适用于托管服务和人际通信服务,如短信服务、应用程序商店和互联网接入提供商。

游说组织欧盟数字化权利组织表示,欧盟委员会的提议可能危及端到端加密,并为专制监视策略打开大门。

Meta子公司WhatsApp也表达了同样的担忧。

WhatsApp负责人威尔·卡斯卡特在推文中表示:“看到拟议中的欧盟互联网监管规定未能保护端到端加密,令人非常失望。”

Meta发言人表示:“重要的是,所采取的任何措施都不应破坏端到端加密,它保护数十亿人的安全和隐私,包括儿童在内。”

欧盟规则草案需要与欧盟国家和欧盟议员进行讨论,然后才能成为法律。