Descargitas

来自中国的最新突发新闻。

苹果:iPhone 将通过更新儿童性虐待检测系统来监视所有者

由于担心迫在眉睫的更新可能会看到设备“监视”其所有者,因此已经通知了超过 10 亿 Apple 用户。

苹果用户已被警告有关允许 iPhone 监视其所有者的新更新。

这家科技巨头下个月将在超过 10 亿台活跃的 iPhone、iPad 和 Mac 上推出一个新的监控系统——IT 专家爱德华·斯诺登说,“苹果正在向你的隐私宣战”。

前计算机智能顾问斯诺登深入研究了该公司即将用于这些产品的 CSAM(儿童性虐待材料)检测系统,称其“具有独特的侵入性”。

在网站上的一篇帖子中,他说:“苹果的新系统,无论任何人试图证明它的合理性,都将永久重新定义什么是你的,什么是你的。”

该系统将通过将用户照片与非法材料进行匹配来工作。

“在新设计下,您的手机现在将在您的照片到达他们的 iCloud 服务器之前代表 Apple 执行这些搜索,并且……如果检测到足够多的‘被阻止的内容’,就会通知执法部门,”斯诺登解释道。

“Apple 计划模糊适合你的设备和你使用的设备之间的界限。

“该系统上线后的第二天,Apple 是否启用端到端加密都无关紧要,因为我们的 iPhone 会在我们的密钥被使用之前报告其内容。”

这位 38 岁的老人表示,研究人员有“无可辩驳的证据”表明该系统出现故障,并补充说:“苹果必须决定其手机是否会为政府监控用户的不当行为,但必须由政府负责。确定什么构成违规……以及如何处理。”

但斯诺登还指出,该系统很容易被绕过——破坏其目的。

如果您是一个儿童爱好者,并且有一个装满 CSAM 污染的 iPhone 的保险库,Apple 欢迎您通过翻转“禁用 iCloud 照片”开关来完全免于这些扫描,这是一个旁路,表明该系统从未设计用于保护儿童,如他们所愿,而是保护他们的品牌。”

“只要你将这些材料远离他们的服务器,从而让苹果远离头条新闻,苹果不在乎。”

这位技术专家表示,这可能会导致政府迫使苹果取消禁止将照片上传到 iCloud 的选项。

他写道:“如果苹果表现出持续远程搜索每部手机以寻找特定类型犯罪证据的能力和意愿,那么这些问题他们将无法回答。”

然而答案会来——而且会来自最糟糕政府中最糟糕的政客。 这不是滑坡。 这是悬崖。”

迄今为止,苹果一直为其 CSAM 发现系统辩护,其首席软件官在接受采访时表示,该系统“被广泛误解”和“沟通不畅”。 华尔街日报。

太阳 联系 Apple 以获得答复。

这篇文章最初出现在 太阳 经授权转载

READ  2022年奥迪RS 3掀背车和轿车亮相