苹果公司表示,它计划在美国 iPhone 上扫描虐待儿童的图像,该广告得到了儿童保护组织的支持。
要点:
- 倡导团体将此举描述为“游戏规则改变者”。
- 但安全研究人员担心它可能会被政府滥用
- Apple 的工具将检测已知的儿童性虐待图像而不解密消息
但此举引起了安全研究人员的担忧,即该系统可能会被希望监控本国公民的政府滥用。
苹果周四宣布,其消息应用程序将使用设备上的机器学习来警告敏感内容,而不会让公司读取私人通信。
一种被 Apple 称为 NeuralMatch 的工具将检测已知的儿童性虐待图像,而无需解密人们的信息。 如果您找到匹配项,该图像将由工作人员进行审核,如有必要,该工作人员可以通知执法部门。
但研究人员表示,该工具可用于其他目的,例如政府对持不同政见者或抗议者的监控。
约翰霍普金斯大学安全教授马修格林此前在推特上表达了他的担忧,他告诉英国《金融时报》,苹果的举动“将打破大坝——政府将要求所有人这样做”。
包括微软、谷歌和 Facebook 在内的科技公司多年来一直在分享已知的儿童性虐待图像的“哈希列表”。
Apple 还会检查 iCloud,它与它的消息不同,它没有对此类照片进行端到端加密。
该公司面临来自政府和执法部门的压力,要求允许监控加密数据。
Apple 是最早采用“端到端”加密的大公司之一,在这种加密中,消息会被打乱,以便只有发送者和接收者才能阅读它们。
但联邦当局长期以来一直在游说获取这些信息,以调查恐怖主义或儿童性剥削等犯罪行为。
“有这么多人使用 Apple 产品,这些新的安全措施有可能挽救被网上引诱的儿童及其可怕的图像在儿童性虐待材料中流传的情况。”
美联社 / ABC
“驕傲的網絡狂熱者。微妙迷人的推特怪胎。讀者。互聯網先驅。音樂愛好者。”
More Stories
《东京恶习》制片人详述日本走向全球制作中心之路
康拉德·科尔曼仅使用可再生能源再次改变了世界
新款 MacBook Pro 为苹果一周的重大新闻画上了句号