由于担心年幼的孩子受到感染,一位父亲将照片发给了医生。两天后,谷歌封锁了他的账户,并通知警方,作为打击持有和分享儿童色情图片的一部分。
人工智能的局限性。一篇文章来自纽约时报报道称,谷歌的人工智能在某些情况下有点过于激烈,将非儿童色情的情况同化为儿童色情。一位父亲为孩子的腹股沟感染拍了照片,以便送孩子去看医生,为此付出了代价。
谷歌认为这些照片的内容违反了其服务条款,并且可能是非法的。因此,这家美国公司关闭了谷歌帐户并通知了当局,警方开始对他进行调查。
打击儿童色情制品给人工智能带来了解释问题
在这个案例中,是一名护士要求父亲在视频问诊前将照片发送给医生,以便医生进行分析。事实可以追溯到2021年2月,当时美国的一些医疗机构因COVID-19而不再接受体检。照片拍摄两天后,此人收到谷歌的警告,告知他们的帐户已被锁定。他因此无法访问电子邮件、联系人、照片…甚至还有他的电话号码,因为他是 Google Fi 客户,这是美国独有的虚拟移动运营商服务。
警方的调查在几个月后得出结论,该用户没有犯下任何犯罪,但错误的受害者必须决定让调查人员访问他存储在谷歌的所有数据和内容。 GAFAM 为检测非法内容而建立的监控系统受到了隐私维护者的强烈批评。最近,苹果废除了有争议的反儿童色情系统之前宣布对其进行更改。
来源 :纽约时报