首页 > IT圈内 > 苹果官方删除CSAM扫描相关内容,但也强调只是延迟而非取消
2021
12-20

苹果官方删除CSAM扫描相关内容,但也强调只是延迟而非取消

CSAM扫描功能是苹果计划中推出的安全检测功能,该功能旨在通过自动化和人工等检测并识别儿童性虐待内容。但是在苹果宣布该功能时立即引起争议:因为苹果会自动扫描iCloud相册 , 可能会存在用户相册内容泄露的风险。

尤其是自动化系统检测后还可能通过人工检测审核,这种情况下系统出现小概率错误泄露用户照片肯定是存在的。近期外媒发现苹果官网已悄悄将CSAM相关内容删除,但概述内容还在,不过这并不意味着苹果会取消这项功能。

苹果强调只是延迟推出而非取消:

就页面删除问题外媒联系苹果寻求置评,苹果官方发言人表示该公司的立场从未改变,CSAM仅暂时被延迟启动。苹果在声明中表示根据客户、倡导团体、研究人员和其他反馈,我们决定花费更多时间收集意见并进行功能改进。

在声明中苹果也强调当完成意见收集并改进后,CSAM儿童保护功能还会重新上线只不过暂时具体时间还未定下。另外在苹果官网有关CSAM的工作原理及相关概述也还在,因此即便有多个倡导团体反对苹果也不会取消此功能。

苹果对用户上传内容采用端到端加密技术,这意味着除用户自己外就连苹果也无法解密内容,因此安全保护更高。而CSAM则可能会破坏这种端到端加密服务变成后门,毕竟现在扫描儿童色情内容未来可能会用于扫描其他内容。

这也是倡导团体反对的最主要的原因,因为只要苹果提供这类功能,未来就难免会因为各种原因而被扩大其范围。


CSAM背后的工作原理:

相册方面的审查方法是这样的:在图片上传前苹果会为图片审查哈希值,与执法机构提供的哈希数据库进行比对。如果比对成功苹果则会创建加密安全凭证,该凭证与会图像共同上传,然后苹果开始监测这个加密凭证上传次数。

若凭证达到系统设定的阈值就会触发警报并且允许苹果进行解密,接下来苹果再通过工作人员对图片进行审核等。这个过程实际就是打击儿童色情图片被上传和共享,凭证次数越多意味着特定的图片被苹果用户上传的次数越多。

当然紧靠哈希值进行匹配精度是不够的,苹果还使用神经网络哈希算法可以识别用户对图片添加文字或进行裁剪。即便是添加文字和进行裁剪也会被苹果识别出来并添加对应的加密安全凭证,然后凭证再随着照片上传到服务器。

扫码芷若 获取免费视频学习资料

编程学习

查 看2019高级编程视频教程免费获取