最新的iOS更新在儿童版Messenger中使用裸体检测算法

Apple 最新的安全计划将裸体检测纳入发送给儿童和由儿童发送的信息中。该功能在装有 iOS 15.2 的 iPhone 和 iPad 上推出,并于周一推出。

虽然没有太多关于该技术在幕后如何运作的信息,但记者 Mark Gurman 的Power On时事通讯提供了一些关于它如何在用户设备上表现的见解。该功能不会自动启用,但一旦在具有家庭共享帐户的设备上实施,它将扫描消息应用程序发送和接收的图像中的裸体。如果检测到裸体,Messages 会模糊图像并在屏幕上显示警告,说明分享露骨照片的危险并询问查看者是否愿意继续。 

尽管对父母参与该功能有些困惑,但在儿童设备上转发裸照时,不会立即通知监护人。(据传这是 Apple 最初的计划。)相反,孩子可以选择“给大人发信息”并自己提醒父母。

重要的是要注意,新的儿童安全功能与 Apple 计划的扫描用户 iCloud 照片以查找儿童色情内容的能力不同——今年也宣布了一项单独的安全措施。后者的工作原理是秘密扫描 Apple 设备用户的相册以查找儿童色情内容,然后将可疑图片发送给版主。如果版主确认存在危险材料,他们将禁用违规用户的帐户并将材料转发给执法部门以及国家失踪和受虐儿童中心。为回应对用户隐私的广泛关注,Apple暂停了启用该功能的计划,该功能原定于 2021 年底推出。 

这两项功能都是 Apple 努力消除其设备上的儿童剥削行为的一部分。该公司在 iOS 15.2 中推出了另一项与此相同的计划,该计划试图重定向进行与儿童色情相关的查询的用户。在进行有问题的搜索后,Siri 会提示用户报告剥削儿童的情况,或者联系专门为有危险想法的人提供的匿名帮助热线。据称,Apple 已与各种资源合作,以帮助防止不良行为者造成伤害。

(0)
上一篇 2022年7月7日
下一篇 2022年7月7日

相关推荐