苹果下重手:使用iPhone的变态狂遭殃了

隐私和道德似乎在某些时候存在冲突。

最新消息称,苹果打算为iOS设备的照片应用引入一种先进的本地哈希算法,可识别排查设备内的儿童不雅照片,包括虐童、有色制品等。

其中引发担忧的地方在于,一旦被算法匹配出的对象会提交给后台人员审查。

不过,密码学专家Matthew Green表示,机器算法并非万无一失,一旦出现误报,可能会侵犯用户隐私。

考虑到功能的争议性,苹果最终应该会实现保护儿童的目的和敬畏隐私的手段上做到一种最大程度的平衡。

曝苹果将为iOS设备引入本地算法:识别排查虐童照片