放心,iPhone 看不懂你的小黄图

下一篇文章

iPhone X 的 12 个隐藏细节

如今事物的变化是如此之快,在这种情况下,我们需要一点时间来纠正对于事物工作原理的理解偏差,这无可厚非。一个值得澄清的(非常敏感的)误会是,有人认为苹果(或是 Google 和其他公司)在某个地方建了一个特殊文件夹,里面存放着用户所有见不得光的照片。用户有理由产生疑虑,但幸运的是,这并非照片自动分类服务的工作原理。

以这样或那样的方式,这些公司正在做的是分析用户照片以识别其中的内容。他们使用了复杂的图像识别算法,可以轻松识别出照片中的内容,比如狗、船只、面孔和动作,诸如此类。

当一只狗被识别出来时,服务便会在自己追踪的照片元数据中添加“狗”的标签——这些元数据还包括:照片拍摄日期、曝光设置、拍摄地点,等等。这是一个非常低层次的处理过程,系统实际上并不知道狗是什么,只不过是那些关联着特定数字(它们对应的是各种各样的视觉特征)的照片被自动打上了标签。不过,经过标记之后,用户现在就能进行搜索,轻松找出自己想要的照片。

这种分析通常发生在沙盒之内,系统识别出来的东西几乎不会跑出这个沙盒。当然,也有一些特殊的例外情况,比如儿童色情内容,只有特殊情况下系统才会在识别到相关内容后会跑到沙盒之外进行上报。

曾几何时,那样的沙盒需要做得非常大,使其可以容纳一整个网络服务——过去,你只有把照片上传到 Google Photos、iCloud 或类似服务,才能完成对照片内容的标记。现在,情况已经发生了变化。

得益于机器学习技术和设备运算能力的改进,曾经需要依托大型数据中心运行的算法现在能够在手机上发挥作用了。所以,现在你不用把照片发送到苹果或 Google 的服务器进行分析,凭借手机就能把其中的“狗”标记出来。

就安全性和隐私性而言,这可以说是一套更好的系统:你不用再借助其他人的硬件来检测自己的私人数据,你不用再被迫相信其他人会保护自己的隐私。你仍然需要信任他们,但需要你付出信任的部分和步骤都变得更少了,这就是所谓的简化和缩短“信任链”。

不过,把这些解释给用户听可能会很困难。因为用户看到的是,自己的私密——或许是极度私密的——照片在未经他们同意的情况下被分门别类。让用户相信这一切是在没有公司参与的情况下完成的,那有些困难。

显而易见,我被归入右边的“纸箱”类别了。

在一定程度上,这是用户界面犯的错。当你在 iPhone 的照片应用中进行搜索时,它会把你搜索的内容(如果存在的话)呈现为一个“类别”。这似乎在暗示,照片被“存放在”手机某个地方的“文件夹”当中,而文件夹被打上了“汽车”或“泳装”之类的标签。这里的存在的问题是,界面让用户对搜索功能的实际工作原理产生了误解。

这些照分类器算法的局限性在于,它们并不是特别灵活。你可以训练一个算法去识别照片中的 500 种常见对象,但如果照片中不包含其中任何 1 种对象,那么照片根本就不会被标记。你在搜索时看到的“类别”正是系统被训练进行识别的常见对象。如上所述,这是一种非常粗略的处理过程,算法只是计算了图片中包含某种对象的可信水平。(举例来说,上面这张我身在一间消声室的照片被打上了“纸箱”的标签,我猜那是因为消声室的墙壁看起来有点像装牛奶的纸箱?)

这整个“文件夹”的事情,以及大多数关于文件如何被存储在电脑系统中的想法,在如今已经显得不合时宜了。但是,那些从小熟悉电脑嵌套文件夹系统的人仍然是这样进行思考的,他们很难不把照片的容器视为文件夹——然而,文件夹涉及到的创建、访问和管理操作在这里并不适用。

你的照片并不是被存放在一个上面带有“泳装”标签的容器当中,搜索的过程只是在把你键入搜索框的文本跟照片元数据中的文本进行比对,如果匹配到泳装,它就会被呈现在搜索结果当中。

这并不意味着提供此类服务的公司免除了所有的质疑。举例来说,这些服务会识别哪些对象和类别?以及它们又把哪些对象和类别排除在外,为什么?服务的分类器算法是如何进行训练的,它们在不同肤色或性别的人身上效果一致吗?我们如何控制或关闭这项功能?或者如果我们无法控制或关闭,为什么呢?

幸运的是,我已经联系了数家领先的科技公司,向他们提出了这些问题,我会在之后的文章中详细介绍他们的回应。

翻译:王灿均(@何无鱼

No, iPhones don’t have a special folder for your sexy pics

blog comments powered by Disqus