无所不在的面部识别:我监控你一切行动,而你却蒙在鼓里

” 现在去售楼处买房,都得带个头盔!为啥?摄像头‘认识’你!”

前一阵,这样一则新闻引起了轰动:山东济南某楼盘售楼处,一名看房人为了不泄露自己个人信息,头戴摩托头盔去看房。《南方都市报》和《北京日报》等数家媒体的调查显示,售楼处使用了带有面部识别的监控技术,能够辨认出一名顾客是 ” 自行前来 ” 的购房者,还是中介带来的;不同的销售渠道会使用不同的定价策略,而一个人是否被面部识别为 ” 直销 “,中间会有高达几十万的差价;而这种技术,已经在相当多的地方有应用。

为保护个人信息,戴着头盔看房|截图自新浪微博

所有的一切,都是在顾客不知情的情况下展开的。你被盯得清楚,却蒙在鼓里。

许多人听闻这件事之后,比这更直接的反应,是 ” 可怕 “,甚至是 ” 毛骨悚然 “。仿佛在一个看不到的地方,有无数只眼睛盯着你,自己的身份,连同一举一动,都暴露在一个全知全能的监视者之下。

还有更多的问题在脑海中浮现:连同面部信息一起,其他个人信息数据存储在哪里?是否被用来盈利?是否有泄露的风险?面部识别技术,是否被滥用了?

这让我想起一件事。2018 年,在某人工智能大会的会展区,我在里面起码 20 多个屏幕上,看到了自己被 ” 识别 ” 的脸。除了智慧城市、安保监控之外,” 刷脸 ” 还被开发者们用在了虚拟登机牌、景区门票、无人超市上,可谓是无孔不入。登机的时候,安检刷完脸之后,机场遍布的摄像头知道你在哪儿,也知道什么时候该给你送上 ” 温馨提示 “,告诉你要登机、别跑了;而最让我感到 ” 不适 ” 的,是某家公司开发的监控系统,把人脸和身份证号后四位直接赤裸裸地展示在监控屏幕上。

自己的身份,连同一举一动,都暴露在一个全知全能的监视者之下|图虫创意

这种恐惧感究竟来自哪里?到底是哪个环节需要我们特别警惕?我们是否会在遍布四周的监控技术里被 ” 温水煮青蛙 “、习惯了它的存在,还是真的有某一个不能碰的人性和隐私底线?

” 顺畅 ” 刷脸的隐忧

其实,如果单论技术本身,面部识别技术已经发展了相当长一段时间了,其技术原理也并没有很复杂。和其它的图像识别一样,它的原理是提取图像中的特征,然后判定这个特征是否与数据库中的特征符合、有多少概率是同一张脸。最近几年,因为机器学习的快速发展,机器对于面部特征的提取和识别能力,亦有了飞速进展。2016 年的时候,谷歌基于 ImageNet 训练出来的图像识别模型,准确度已经超越了人类,速度自然也是不在话下。

这其实和真正的 ” 人工智能 ” 还差得很远。但因为它的应用实在太广,嵌进了无数的使用场景中,而应用过程又十分地顺畅,给人一种 ” 智能 ” 的错觉。

” 顺畅 “,是面部识别技术的一大特征。在推崇这个技术的人眼里,它最大程度地模仿了人和人之间的交互,即用 ” 看 ” 即可。毕竟,用眼睛识别一个人的脸,是我们人类与生俱来的功能。你拿起你的 iPhone,就会自动解锁;走进家门,门会自动打开;进入学校和办公室等需要安保的场所,不用停下查证件……

但这种顺畅的交互,从另外一个角度看,是 ” 没有交互 “。一切都无缝地、在无声无息之间发生。也就是说,很多时候我并不能以知情的方式,给出我的同意。我用我的指纹必须按在门锁上,这个 ” 按 ” 的动作,亦是我在与机器 ” 对话 ” ——我现在需要开门了。而我只是在摄像头面前 ” 出现 “,我的脸就已经给出了所有的信号,不管我想不想。

我只是在摄像头面前 ” 出现 “,我的脸就已经给出了所有的信号,不管我想不想。|图虫创意

这也是为什么人脸识别技术可以非常 ” 隐蔽 “。它是一个不需要给出 ” 知情同意 ” 就可以应用的技术。它出现了,它应用了,但你不知道。而知情同意的缺失,也让隐私泄露变得极其容易。到底有多少摄像头在我身边,跟踪我、记录我?我是不是已经在不知不觉中 ” 丢失 ” 了我的脸?这些问题,想起来略微有一些可怕。

如何用脸 ” 重建 ” 一个你?

但更进一层的恐惧,来自于面部识别背后的运转逻辑——它是如何处理、如何匹配、如何运用面部信息的。

我们人有许多可供识别的生物特征,包括指纹、虹膜、面部特征,乃至基因等等,都有潜在的数据化的可能。它们可以被记录,可以被复制,可以被传播,可以散见在互联网各处——公安系统里有我们的指纹,微信里录下了我们的声音,而我们上传到社交网络的照片上都有我们的脸。美国加州大学圣迭戈分校(UCSD)技术社会学教授凯莉 · 盖茨(Kelly Gates)将其称为 “去身化的身份”(disembodied identity)。

我们的身份已然 ” 离开了 ” 我们身体,我们甚至不再对其有掌控。

但是,面部识别技术的关键在于,这些独一无二的生物信息数据,怎么和更多的技术、更大的数据库、更广的系统中的各式各样的关于我们的碎片拼起来,凑成一个完整的 ” 自己 “。

将一个人的面部特征作为加密信息、打开我的手机 ” 刷脸 “,和将一个人的脸解码成为 ” 我的身份 “,在更大的系统里流转(和公安系统匹配的监控),虽然都是 ” 刷脸 “,但却是截然不同的刷法。

我们的身份已然 ” 离开了 ” 我们身体,我们甚至不再对其有掌控|图虫创意

如果你的脸只是用来打开你家的门,那么你的脸除了重建出 ” 你是这个家的主人 ” 之外,并没有任何别的意义。

但当这个数据从你的小世界来到了 ” 云端 “,与更大的数据库相交、互相印证,那么你自己的身份,也就更加无所遁形——你是谁,你家在哪里,你大概处于社会中什么样的地位,你昨天网购的东西,你的 ” 健康码 “、你的身份证号……即使证件号码等重要信息泄露可能性小,但只要有足够多的其它数据,” 重建 ” 一个你,并不会太困难。

我们和深渊之间,并没有多少坚实的保护。

利益让技术跑得越来越快

纽约长岛大学的技术伦理学家安东 · 阿尔特曼(Anton Alterman)在一篇论文中指出,生物信息识别的隐私风险,主要存在于几个方面:

1)一个技术是否能准确识别出一个特定个人的真实社会身份;

2)信息是否只留存于本地、还是在更广的网络中流动、使用;

3)使用一个技术是否需要用户的协作;

4)技术开发者是否有保护隐私的动力。

当下的面部识别技术,正挑战着全部四个方面。面部数据可以准确识别个人;数据互通带来滥用的危险;使用的时候,甚至无需知情同意。而最后一点可能是解题的关键——保护数据隐私的动力从何而来?它们能对各方带来什么好处?而谁又从中获利?谁在其中有发言权?

在那场人工智能大会上,我着实领会到了生产端的动力,以及客户的购买力。人工智能作为一个新兴产业,得到了大量的投资,而投资者需要看到技术投入应用、看到回报。于是,面部识别技术被包装为各种各样的 ” 解决方案 “,打包出售给商业客户。是他们最有能力购买这些技术作为 ” 解决方案 “,而这种购买力,很大程度上决定了面部识别技术的研发走向。

一个有面部识别解锁功能的手机,或者能刷脸开门的智能门锁,对我们普通用户的吸引力并没有那么大。毕竟,指纹也能解锁,密码也能开门,不 ” 云端 “” 智能 ” 也无妨。但对于公共场所的经营者以及各级管理部门而言,全面而有效的监控,身份的精准识别,乃至收集、使用数据以获益,带来的好处十分巨大,比 ” 保护隐私 ” 更加重要。强大的推动力,让技术开发越走越远,且越来越向经营者、管理者、客户,而不是实际用户倾斜。

人脸识别技术越来越向经营者、管理者、客户,而不是实际用户倾斜|图虫创意

在面部识别这个技术的很多应用场景里,用户发出的声音是有限的,有的时候甚至是无力的。我们有选择 ” 不使用 ” 的权力吗?我们的意愿能够得到重视吗?我们是否能够判断,一个技术运用在什么地方是合适的、在什么地方是过度的?理想的市场场景里,我们可以用脚投票;而当下的市场,资本的强大加上信息的不透明,让用户处于无权、无声的劣势。

无处不在的摄像头,让这个社会变得越来越像福柯笔下的 ” 环形监狱 “(Panopticon)——监控无处不在,能看到所有人、识别所有人,而被观看者甚至无法得知监控在哪里、从何而来。一个良性发展的技术,不应该是这样。

技术的 ” 潜台词 “

技术一旦投入社会,就不再仅仅是 ” 工具 ” 了。一个技术的使用,数据与数据构建的身份,为人与人、人与机构之间的关系定下了基调,也为这些 ” 数据 ” 赋予了社会含义。在购房处被 ” 识别 “,意味着我们和售楼处的关系,变成了 ” 奸商 ” 和待宰的购房客之间的关系;在公司的楼道里,因为多蹲了 10 分钟厕所而被 ” 识别 “,意味着我们和公司的关系,变成了资本家和必须要被压榨出每一分钟劳动力的打工人的关系。

但我们之间的关系,一定、必须是这样的吗?我们真的没有别的选择了吗?在商业交易中,双方应该是站在平等对话的基础上协商交易的关系;在雇佣劳动中,双方应该是相互信任、付出劳动并得到回报的关系。面部识别和监控技术的滥用,扭曲了这种关系,将公平与信任踩在脚下。

面部识别和监控技术的滥用,将公平与信任踩在脚下|图虫创意

隐私是人格尊严的一部分——它代表着一个人有能力且有权利支配自己的空间,不受他人的干扰;也意味着对隐私的保护,能够最大程度地尊重人的自由和创造性,而不是把人看作一个随时需要监控、需要操纵的螺丝钉。不管技术如何发展,我们的底线是,一个安全、方便的社会,不应该以牺牲人的尊严为代价。

所以,技术背后的 ” 潜台词 “,可能比技术本身更加重要。追问技术存在的理由,追问技术与人的关系,是让一个技术变得不再 ” 可怕 ” 的第一步。

比如,在人流密集的公共场所,机场、火车站等地,我们实际上是让渡自己一部分的隐私,去换取方便、安全;这用别的方式或许很难达到、不够经济;或许能够阻止巨大的灾难—— 911 事件发生时,监控录像实际上已经拍到了恐怖分子的脸,但并没有识别出来。

我们让渡自己一部分的隐私,去换取方便、安全|图虫创意

但在小区、在学校、在火锅店,每个场景都是不同的,都有着自己的 ” 潜台词 ” ——为什么要用它?数据的作用是什么?数据存储在哪里?除了这个方法之外,有没有别的方法?这对被监控、被识别的人的好处在哪里?是否知情、是否予以了同意?这些都是在技术被应用之前,需要提出的问题。

希望我们将来的社会,还能让我们坦然 ” 面 ” 对。

参考文献

[ 1 ] Gates, K. A. ( 2011 ) . Our biometric future: Facial recognition technology and the culture of surveillance ( Vol. 2 ) . NYU Press.

[ 2 ] Alterman, A. ( 2003 ) . “A piece of yourself”: Ethical issues in biometric identification. Ethics and information technology, 5 ( 3 ) , 139-150.

[ 3 ] Van Oenen, G. ( 2006 ) . A machine that would go of itself: interpassivity and its impact on political life. Theory & event, 9 ( 2 ) .

[ 4 ] Introna, L. D. ( 2005 ) . Disclosive ethics and information technology: Disclosing facial recognition systems. Ethics and Information Technology, 7 ( 2 ) , 75-86.

作者:李子

果壳网
我还没有学会写个人说明!
上一篇

B站要赴港二次敲钟,股价曾年涨360%,IDG、君联、腾讯等投资人乐开花

下一篇

150年后,物理学家终于解决了这个沙雕问题

你也可能喜欢

评论已经被关闭。

插入图片