苹果最近推出了三项打击儿童性犯罪和性侵犯的功能,深圳苹果11promax维修但这也引起了人们对隐私保护的担忧。在这方面,负责软件工程的高级副总裁克雷格·费德里吉发言解释了相关问题。
这三项保护政策在十天前宣布,包括:机器筛选Messages信息。当孩子们收到不良图片时,图片会变得模糊,Messages应用程序会显示警告;儿童性虐待内容(以下简称CSAM)检测允许苹果检测到存储在iCloud云照片中的图像特征信息。如果确定有此类图像,苹果将向执法部门报告;Siri和搜索功能的改进可以询问Siri如何报告儿童性虐待内容或性剥削。Siri将告诉用户在哪里可以向相关部门报告。
争议主要是第一条和第二条。费德里吉在接受《华尔街日报》采访时说:深圳苹果11promax维修我们希望每个人都能更清楚地理解这一点,因为我们对我们正在做的事情非常积极,我们看到它被广泛误解。
后来,我承认同时引入这两个功能是造成这种混乱的原因之一,他继续说。深圳苹果11promax维修显然,许多信息被严重混淆了。我相信有人会说,天哪,苹果正在扫描我的手机以获取图像。但这不是事实。
费德里吉随后描述了ICloud扫描上传的CSAM图像所涉及的过程,深圳苹果11promax维修以及通过消息向儿童发送此类图像时会发生什么。
费德里吉说:对这些功能的批评集中在苹果对用户iPhone照片的分析上。。这是一个常见但深刻的误解。
这个过程是将某些内容存储在云中的过程的一部分,深圳苹果11promax维修而不是处理存储在Messages信息中的图像。。。或者你正在通过互联网浏览的内容。这实际上是存储图像的管道在icloud中的一部分。
他想说的是,苹果正在分析图像是否与国家失踪和虐待儿童中心提供的已知CSAM图像数据库相匹配,而不是图像本身。他们将国家失踪和虐待儿童中心的数据库转换为一组不可读的哈希函数(将较长的数据映射为较短的数据),然后进行比较。一旦匹配程度达到一定阈值,苹果将手动检查和确认匹配,然后禁止用户账户,并向国家失踪和虐待儿童中心发送报告。
当被问及是否有发布此功能的压力时,费德里吉说没有。
不,我们想通了,他说。我们想做点什么,深圳苹果11promax维修但我们不愿意部署扫描所有客户数据的解决方案。
苹果维修服务中心文章来源:https://www.svip5-applefix.com/case/11577.html