苹果访问 iCloud 上存储的照片以打击儿童色情

在拉斯维加斯 CES 期间,苹果确认可以访问其在线存储服务上的照片。目的是检测与儿童性剥削有关的图像。为此,她使用图像比较软件。如果检测到客户的照片呈阳性,该帐户将被关闭。此过程遵循 iCloud 服务条款的最新更改。

Apple 访问存储在 iCloud 中的客户照片。我们将这一启示归功于简·霍瓦斯 (Jane Horvath),苹果公司首席隐私官。后者参加了在本周举行的 CES 之际在拉斯维加斯举办的会议。我们已经看到库比蒂诺公司的批评者变得愤怒,因为后者经常在数据安全和个人数据利用问题上扮演白衣骑士的角色,例如针对谷歌或 Facebook。

另请阅读:Facebook 宕机揭示了该社交网络如何解读我们的照片

但这一次,让我们调整一下我们的判断。因为,从官方角度来看,这是为了一个好的理由。与其他使用存储在服务器上的个人照片来训练人工智能的公司不同,苹果公司通过访问照片来检测非法用途。更具体地说是打击儿童色情制品

对所有照片进行系统检测

从技术上讲,苹果会扫描传输到其服务器的所有照片,并检测那些涉及儿童性剥削的照片。该程序是使用该公司尚未识别的软件执行的,但看起来像 PhotoDNA。 Facebook、Twitter 和 Google 使用后者。他们用它来识别显示相似之处的照片。但不一定有相同的目标。

另请阅读:WhatsApp 托管大量儿童色情内容

作为打击儿童色情的一部分,访问存储在 iCloud 上的照片一直是一个主题。2019年使用条件更新。明确限制出于此用途访问个人照片的更新。在这些新条件下,解释说禁止使用与儿童性剥削有关的内容。如果检测到照片,相关的 Apple 帐户将立即关闭。苹果没有具体说明是否向当局传输信息。

来源 :电讯报