您的语言偏好: 简体 正體 telegram Icon Facebook Icon Twitter Icon RSS订阅禁闻

人脸识别技术 几家欢乐几家愁

2019年11月09日 0:36 PDF版 分享转发

来源: 德国之声 作者: 文山

2019年5月5日,中国江西省南昌市,一名戴着智能眼镜的警察在一条街道上巡逻(路透社)

一名法学教授将杭州的一家园告上法庭,控诉后者“刷脸入园”的管理方式侵犯了消费者的个人敏感信息,危害人身与财产安全。在更为注重隐私数据保护的欧洲,遇到的争议要大得多。

浙江理工大学的法学副教授郭兵是杭州野生动物世界的年卡用户,原先是刷指纹入园。后来,动物园单方面更改了年卡用户入园方式,升级为“刷脸入园”,取消了刷指纹方式。郭兵认为,面部生物特征属于个人敏感信息,一旦泄露或遭滥用,消费者的人身和财产安全将受威胁,动物园的单方面做法是在强制收集消费者的个人敏感信息。他因此要求园方退还年卡费用,遭到了动物园的拒绝。郭兵遂将此案诉诸法庭。

目前,杭州市富阳区法院已经正式受理了此案。中国媒体称之为“中国第一案”。根据中国的相关法律,企业在收集用户个人数据前,应事先征得用户的同意。而动物园方面在更改年卡用户入园方式前,并没有通知用户,属于单方面更改协议的行为。郭兵起初在购买年卡时,按照购票合同留下了姓名、联系方式、指纹等用户信息;园方更改入园方式后,还要求采集用户的人脸特征数据,否则将无法入园。

新华社等中国官方媒体援引法律界专业人士指出,身为法学副教授的郭兵,如果以违反合同为由提告动物园,将会有十足的胜算;但是,郭兵选择从个人信息保护角度入手,这将大大增加质证的难度,“显示出了他借此打一场公益诉讼的目的”。新华社赞扬郭兵“不惜时间和精力,对一个不合理的规定说不,无论结果如何,这都是个人信息保护领域的标志性事件,代表普通公民捍卫个人信息的决心;更宝贵的是,借由这场诉讼,机构组织收集个人信息的权限可以进一步厘清,为类似场景下的应用划定边界,既是限制,也是保护。”而郭兵本人在接受杭州《钱江晚报》采访时也表示,他一直对人脸的应用持保守态度,“公安等政府部门出于一定的公共利益考虑采集人脸信息我还可以接受,但是一家动物娱乐游乐场也能采集人脸信息,安全性、隐私性我都表示怀疑,万一信息泄露谁能负责?”

人脸识别技术近年来在中国获得了越来越广泛的应用,杭州的这家动物园绝不是“第一个吃螃蟹的人”。住宅小区、大学校园、宾馆酒店、公司企业、甚至健身房都使用人脸识别技术来控制人员出入。就在不久前,北京地铁也宣布,将利用人脸识别技术对进站乘客进行自动分类,从而方便安检人员对不同人群采取不同的安检措施,提升通过效率。而在一些中小学校,人脸识别技术正在自动判别学生在课堂上是否集中注意力,并迅速将信息反馈给老师以及家长;这类应用引发了非常大的争议,一些学校在巨大的社会压力之下暂停了试点;吊诡的是,学生的家长却是教室人脸识别系统的最主要支持者。

欧洲的争议

在更加注重数据保护的欧洲,人脸识别技术遇到的争议显然要大得多。就在最近,分别位于法国马赛以及尼斯的两所中学计划在校门口安装具备人脸识别功能的摄像监控系统,从而能够在陌生人闯入校园时发出警报,降低学校遭到暴力袭击的风险。这一计划遭到了人权组织的强烈抨击,后者认为,当局正在利用孩子来骗取法国公众对人脸识别技术的认可。

人权组织指出,绝大多数法国人都对人脸识别技术没有好感。负责数据保护事宜的法国国家信息自由委员会(CNIL)也在10月底指出,尼斯和马赛两所中学的人脸识别试点项目“在法律上不可行”,从而正式禁止了这次试验。

欧盟方面正在酝酿立法限制人脸识别技术的应用。今年夏天,欧盟委员会内部人士对英国《金融时报》等媒体透露,根据新法案,政府机构或者企业“只有在严格界定的少数例外情况下才能使用这种技术”。候任欧盟委员会主席冯德莱恩(Ursula von der Leyen)还提出,要为人工智能的“人性化与道德化”制订规则。

误判率高

在德国,人脸识别技术目前的应用范围相当有限,大多处于试点阶段。德国警方从2017年起就在柏林的南交叉口火车站(Südkreuz)测试人脸识别技术,今年夏天最新的一次软件升级还增添了自动鉴别行为异常乘客之功能。德国铁路公司希望,全国的枢纽车站都能运用该技术,从而提升铁路系统的运营水准;警方则想通过新技术加强火车站、机场等重点地区的治安,同时也减轻人工判读监控画面的负担。

但是,南十字火车站的试点项目也遭到了不少批评,有些甚至来自于政府内部。联邦政府数据保护专员克尔贝尔(Ulrich Kelber)就在试点项目的评估报告中指出,人脸识别技术的此类应用是“对基本权利的强烈侵入,目前缺乏必要的法律基础”。

弗劳恩霍夫研究院的计算机视觉专家米勒(Markus Müller)正在曼海姆主持一个类似的人工智能试点项目。他在接受德国《世界报》采访时表示,识别异常行为的软件现在还不是很可靠。“比如,监控画面中一旦出现了用手臂去勾他人脖子的行为,软件立刻就会发出警报;但是,软件却无法识别这究竟是暴力袭击还是情侣间的亲昵行为。”这意味着,本想用新技术节省人力的警方,却会因为大量“假警报”而疲于奔命;而无辜的情侣,也会被软件的算法自动列入重点监控名单。

在英国,伦敦警方的实时人脸识别系统(LFR)试点也引起很大争议。警方原本希望,新系统能够在公共场所迅速鉴别出通缉犯,但是测试结果却十分糟糕:2018年6月到2019年2月间,系统总共识别出42名“通缉犯”,只有8人最终被证实确实是警方要找的人。人权组织批评,试点项目没能充分考虑保护隐私、保护人权的需求。警方尤其遭人诟病的一点是:系统发出警报后,执勤的警察经常在没有充分查证的情况下就采取行动查验相关人员的身份。

喜欢、支持,请转发分享↓禁闻网责任编辑:金兰