圆形木模板:苹果有争议的CSAM照片检测功能可能会被吐槽

在宣布一项有争议的新功能旨在扫描 iPhone 中潜在的儿童性虐待材料 (CSAM) 后,几个月后,苹果公司已经秘密地从其网站上的儿童安全页面中删除了对该计划的任何提及 。
MacRumors首次发现了这一变化,此前苹果公司于 8 月宣布了一套计划中的功能套件,旨在对抗 CSAM 的传播 。但是,设备上的 CSAM 检测功能在其他计划添加的功能中脱颖而出,成为一个特别令人担忧的问题,安全研究人员、政策小组和普通的 Apple 老客户都对该计划可能侵蚀隐私的行为犹豫不决 。

圆形木模板:苹果有争议的CSAM照片检测功能可能会被吐槽

文章插图
CSAM 检测功能旨在利用一种称为 NeuralHash的神经匹配函数,该函数表面上会扫描用户的照片以获得独特的哈希值——有点像数字指纹——与国家中心编译的大型 CSAM 图像数据库相匹配 。失踪和受虐儿童 (NCMEC) 。如果用户的 iPhone 被标记为包含此类图像,则此案将被转交给人类,而人类可能会牵涉到执法部门 。
但批评人士认为,由于多种原因,让 Apple 能够获取用户私人数据的能力存在问题,包括错误识别 CSAM 的能力(你孩子在浴缸里的照片会让你进入 FBI 监视名单吗?)以及它可能为危险的监视先例打开大门 。
就苹果而言,它在早期试图消除对计划中的功能的担忧时遇到了困难,它让高级管理人员接受华尔街日报的采访,了解该计划实际上是“隐私领域最先进技术的进步”并发布了大量旨在解释任何担忧的新闻材料 。但是,当这些努力未能平息公众对该功能的强烈抗议时,苹果公司在 9 月宣布,它将做出罕见的决定,撤回这些计划,以便在公开发布前对其进行微调 。
“根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能,”苹果当时告诉 Gizmodo 。
事实上,虽然新发布的 iOS 15.2 确实包含了儿童安全计划的一些原始功能——包括对 Siri、Spotlight 和 Safari 的更新,其中包括针对儿童的新安全警告,以帮助他们在网上冲浪时远离危险—— CSAM 照片检测功能无处可寻 。如果 Apple 在其网站上悄悄退出该功能的任何提及是任何迹象,那么可以肯定的是,我们可能需要一段时间(如果有的话)才能看到它部署在我们的设备上 。


    以上关于本文的内容,仅作参考!温馨提示:如遇健康、疾病相关的问题,请您及时就医或请专业人士给予相关指导!

    「四川龙网」www.sichuanlong.com小编还为您精选了以下内容,希望对您有所帮助: