• 客服电话

    • 027-85768480
    • 服务时间

    • 24小时全天在线咨询
    • 扫码咨询微信客服

中国人脸识别第一案来了!我们是否应该因隐私问题而排斥该技术?

官网首页    资讯动态    行业资讯    中国人脸识别第一案来了!我们是否应该因隐私问题而排斥该技术?
2019年10月28日

浙江理工大学特聘副教授郭兵

一纸状书将杭州野生动物世界告上法庭

郭兵控诉

 

动物园强制收集个人面部特征

违反《消费者权益保护法》

要求动物园退还1360元的卡费并承担本案诉讼费

 

 

1.webp.jpg


 

11月1日

杭州市富阳区法院正式受理此案

截至目前为止

这是第一个因为人脸识别被起诉的案件

 

 

2.webp.jpg

 

 

事件起因

 

2019年4月27日

郭兵花费1360元

购买了杭州野生动物世界的年卡

该卡有效期为一年,不限次数

但是入园时要同时验证卡和指纹信息


2019年10月17日

动物园给郭兵发来一条短信称

年卡系统已升级为人脸识别

入园原指纹识别已取消

即日起,未注册人脸识别的用户将无法正常入园

 

 

3.webp.jpg

 

 

事件经过


看到短信的郭兵

在2019年10月26日

特意去了一趟动物园,进行核实

 

工作人员明确告知他

系统升级了

原来的指纹识别不用了

改用人脸识别
如果没有进行人脸识别注册

既不会退年卡的钱

也不让进动物园玩

郭兵一看协商不成
自己又不会妥协那就法院见吧

 

2019年10月28日

郭兵将杭州野生动物世界起诉至法院

要求动物园退还1360元的卡费

并承担本案诉讼费

 

 

郭兵的起诉理由

 

郭兵认为,园区升级后的年卡系统进行人脸识别将收集他的面部特征等个人生物识别信息。

 

该类信息属于个人敏感信息,一旦泄露、非法提供或者滥用将极易危害包括原告在内的消费者人身和财产安全。

 

根据《消费者权益保护法》第29条之规定,园区收集、使用原告个人信息,应当遵循合法、正当、必要的原则,明示收集、使用信息的目的、方式和范围,并经原告同意;

 

而且,被告收集、使用原告个人信息,应当公开其收集、使用规则,不得违反法律、法规的规定和双方的约定收集、使用信息。

 

郭兵认为,被告在未经原告同意的情况下,通过升级年卡系统强制收集原告个人生物识别信息,严重违反了《消费者权益保护法》等法律的相关规定,损害了原告的合法权益。

 

 

事件结果

 

截稿前

案件还未宣判

目前,公园也给出了折中方案

不必注册人脸信息

刷年卡也可以入园

但由于指纹识别系统已全部停用

用户每次入园时

必须到年卡中心核实身份

证明是本人使用

 

 

案件引发社会热议

 

北京大学法学院副院长薛军表示:

应该禁止,折算退款


理由是:

个体生物信息

例如人脸,基因,虹膜,指纹,掌纹,声纹,步态等等

由于高度敏感

原则上应该禁止收集使用

因为这个是伴随终生,不可更改的

一旦泄漏几乎不可救济

 

对于退款问题

应该遵循公平原则

解除合同的过错方在公园

建议公园按照有效时间段的比例折算退款金额

 

北京市律协消费者权益法律事务专业委员会

邱宝昌主任:持相同意见

 

理由是:

公园将指纹识别改为人脸识别的做法

属于变更合同条件

侵犯了消费者的自主选择权

消费者有权不同意使用人脸识别

应该由变更合同的一方即公园来承担违约责任

 

案件最终会如何审判?

咱们拭目以待

 

 

如何看待此次事件

 

事实上,当这项技术最终被写上一纸诉状时,我的心情是复杂的。

 

一方面,大众对隐私的重视和“较真”似乎有些珊珊来迟。

 

如果是在两年前,支付宝微信的人脸识别支付尚未推出,机场人脸识别闸机尚未引入,各大银行的APP和柜台机器尚未嵌入人脸识别功能,小区门口还没有架起人脸识别门禁,公司还没有换上人脸识别打卡机……那么或许我们还有说“不”的丁点儿可能性。

 

但是,在走进一家沙县小吃都可以用刷脸支付的当下,你所谓的“脸权”早已不再由自己掌控。

 

扪心自问一下,被人脸识别设备环绕,是不是至少有一次的面部信息是自己自愿认证的?

 

封面.jpg

 

另一方面,我们必须承认一个残酷现实——发展人工智能,需要大量数据,而要想获得这些数据,必然会牺牲一部分隐私。

 

三四年前,大家都在关注人工智能底层技术的发展,这个矛盾尚处于蠢蠢欲动阶段,而在技术逐渐被大规模推广和使用过程中,如今矛盾已经在中国大众隐私意识觉醒的过程中被逐渐激化。

 

所以,我们是放弃发展这项技术而保护隐私?还是让出隐私来发展技术?

 

都不是。

 

我们要做的是在隐私与技术发展中间划一条线,需要集体讨论到底需要割让多少公众隐私,来达到一个整体的社会效益。

 

而画这条线的标准只有一个:如何在我们可以接受的隐私损失范围内,来获得更多好处。

 

譬如,如果有医学专家告诉一位癌症患者,医院需要他提供一部分个人身体数据来做更多分析以便更好控制病情,你认为他说“不”的几率会有多大?

 

实际上,我们在很多场景下并非不愿意把自己的一些数据“贡献”出来,而是我们担心,这些数据是否会被非法使用。

 

因此,解决“如何让数据不被非法使用”这个问题就好了。

 

目前很多人工智能公司正在采用与苹果2016年提出的一种隐私保护技术方法,用以来抵抗一种在黑客界很常见的攻击方法——差分攻击法。

 

也就是说,虽然你的身份信息通过数据脱敏等方式“隐”去了,但是我知道你的性别,知道你的其他一些指标,而外部一堆数据中如果也有与之相同的数据,那么我就有可能把你这个人给“撞”出来。

 

而这项对抗差分攻击的方案理解起来很简单,就是往这些数据里添加“噪声”,这本质上就是一种消除数据之间关联性的有效方式。就像上面所说,单维数据的单打独斗一般“成不了气候”。

 

然而,事情往往没有那么简单。

 

早在两年前,百度安全实验室就通过大量“渗透性测试”,也就是良性入侵的方式发现了包括人脸识别在内的多项生物识别技术其实都具备“易于伪造”的特质,甚至不如密码安全。

 

直到现在,受成本所限,市面上绝大部分人脸识别系统,特别是民用系统,其实都是基于2D的平面人脸图像进行识别,因此攻击起来早已不是什么难事。

 

你可以通过照片、视频,以及制作3D人脸模型等假体对人脸识别系统进行攻击。制作这些材料的成本可能只有几十块。前不久被小学生轻松破解的“刷脸取件”事件就是一个很好的例子。具体详情可点击查看文章:“刷脸”热下的冷思考:技术漏洞待修复,风口投资需谨慎

 

所以通常来说,只有把3D技术、人脸、指纹以及密码进行融合性使用,才能成为目前最可行的对抗攻击解决方案,但显然,大多数商业公司基于利益是不可能这么做的。

 

更有意思的是,即便有太多技术公司都在声称为保护用户的数据隐私使用了大量“独门技术秘笈”,但实际上我们始终无法对这些技术举措有一个直观且清晰的认识,更无法判断其成效究竟有几分。

 

甚至于从现实来看,他们对待数据的态度与自己口中的“愿景”是完全矛盾的。

 

譬如,有行业人士曾向虎嗅透露,许多人脸识别公司为了度过缺乏数据的冷启动期,除了在网上自己搜寻数据,还不得不去购买人脸数据,而中间商手里的人脸识别数据往往也是通过其他技术公司或数据标注公司几经倒手的获得的。

 

1个月前,北京青年报记者就曾在调查中发现有人在网络商城中公然售卖“人脸数据”,量级高达17万条。有意思的是,这些数据是完全被标注好的,除了人脸位置信息,还有性别、表情情绪、颜值等其他信息。

 

而这些照片对应的被拍摄者,很多都不知道自己的脸竟然被非法采集过;买家,则是一些做计算机视觉或做人脸模型训练的开发者。

 

这件事情让我想到了外国科技媒体Quarz曾针对波音737 Max8客机在今年发生的两起坠机事故提出的一个独特观点:

 

选择信任一项产品或者是服务,仅仅是取决于“我们是否可以相信这门技术”吗?还是在于“我们能否完全信任开发此类技术的公司和监管机构”?

 

就像这位教授所说的,如果是考虑到安防公共安全,人脸数据被使用还尚可进一步讨论,那么医院、商场超市、学校以及各种商业场所,值得我们足够信任吗?

 

历史告诉我们,一旦一项技术变得无处不在,即使安全问题还没有得到充分解决,人们也开始学着去接受它。

 

而这意味着,我们需要去更多关注“开发和部署人脸识别技术的公司和使用这项技术的商铺是否值得信任”,而不是“大众是否会因为隐私问题排斥或接受人脸识别技术”。

 

那么回到这个案子上,你信任动物园以及给动物园提供系统的信息服务商吗?

 

对所有与隐私数据相关的人工智能系统开发商与私营场景进行有意义的独立监管,是时候落锤了。

 

引导页

2019年11月5日 16:44
浏览量:0
收藏