Descargitas

来自中国的最新突发新闻。

苹果扫描美国 iPhone 中是否存在虐待儿童的图像,但不解密人们的信息

苹果公司表示,它计划在美国 iPhone 上扫描虐待儿童的图像,该广告得到了儿童保护组织的支持。

但此举引起了安全研究人员的担忧,即该系统可能会被希望监控本国公民的政府滥用。

苹果周四宣布,其消息应用程序将使用设备上的机器学习来警告敏感内容,而不会让公司读取私人通信。

一种被 Apple 称为 NeuralMatch 的工具将检测已知的儿童性虐待图像,而无需解密人们的信息。 如果您找到匹配项,该图像将由工作人员进行审核,如有必要,该工作人员可以通知执法部门。

但研究人员表示,该工具可用于其他目的,例如政府对持不同政见者或抗议者的监控。

约翰霍普金斯大学安全教授马修格林此前在推特上表达了他的担忧,他告诉英国《金融时报》,苹果的举动“将打破大坝——政府将要求所有人这样做”。

包括微软、谷歌和 Facebook 在内的科技公司多年来一直在分享已知的儿童性虐待图像的“哈希列表”。

两只手握着彩色屏幕和无数应用程序的 iPhone 的特写。
苹果表示,美国 iPhone 用户的加密信息隐私将受到保护。(

法新社:佐藤喜一郎

)

Apple 还会检查 iCloud,它与它的消息不同,它没有对此类照片进行端到端加密。

该公司面临来自政府和执法部门的压力,要求允许监控加密数据。

Apple 是最早采用“端到端”加密的大公司之一,在这种加密中,消息会被打乱,以便只有发送者和接收者才能阅读它们。

但联邦当局长期以来一直在游说获取这些信息,以调查恐怖主义或儿童性剥削等犯罪行为。

“有这么多人使用 Apple 产品,这些新的安全措施有可能挽救被网上引诱的儿童及其可怕的图像在儿童性虐待材料中流传的情况。”

美联社 / ABC

READ  苹果让修复 iPhone 变得很容易——但有一个问题