站长之家(ChinaZ.com)9月6日 消息:苹果公司近日宣布,在收到负面反馈后,该公司决定推迟了上个月宣布的儿童安全功能CSAM的发布时间。
苹果公司推出的这项计划,包括扫描用户的iCloud照片库以查找儿童性虐待材料 (CSAM)、青少年儿童用户在接收或发送色情照片时警告儿童及其父母,以及在Siri和搜索中扩展CSAM指南。
苹果证实,客户、非营利组织和倡导团体、研究人员和其他人对这些计划的反馈促使公司推迟了进行改进的时间。苹果公司就其决定发表了以下声明:
上个月,我们宣布了一些功能计划,旨在帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。
在他们宣布后,这些功能受到了大量的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、Facebook前安全主管、美国政治家、政策团体、大学研究人员,甚至一些苹果员工。此后,苹果一直通过发布详细信息、共享常见问题解答、各种新文档、公司高管访谈等方式努力消除误解并让用户放心。
儿童安全功能套件最初计划在美国首次亮相,计划在iOS15、iPadOS15、watchOS8和macOS Monterey上率先使用。目前尚不清楚苹果计划何时推出这一功能,但该公司似乎仍打算发布这些功能。