交流評論、關注點贊

  • Facebook Icon臉書專頁
  • telegram Icon翻牆交流電報群
  • telegram Icon電報頻道
  • RSS訂閱禁聞RSS/FEED訂閱

人臉識別技術 幾家歡樂幾家愁

2019年11月09日 0:36 PDF版 分享轉發

來源: 德國之聲 作者: 文山

2019年5月5日,中國江西省南昌市,一名戴著智能眼鏡的警察在一條街道上巡邏(路透社)

一名法學教授將杭州的一家動物園告上法庭,控訴後者「刷臉入園」的管理方式侵犯了消費者的個人敏感信息,危害人身與財產安全。在更為注重隱私數據保護的歐洲,技術遇到的爭議要大得多。

浙江理工大學的法學副教授郭兵是杭州野生動物世界的年卡用戶,原先是刷指紋入園。後來,動物園單方面更改了年卡用戶入園方式,升級為「刷臉入園」,取消了刷指紋方式。郭兵認為,面部生物特徵屬於個人敏感信息,一旦泄露或遭濫用,消費者的人身和財產安全將受威脅,動物園的單方面做法是在強制收集消費者的個人敏感信息。他因此要求園方退還年卡費用,遭到了動物園的拒絕。郭兵遂將此案訴諸法庭。

Ad:美好不容錯過,和家人朋友一起享受愉快時光,現在就訂票

目前,杭州市富陽區法院已經正式受理了此案。中國媒體稱之為「人臉識別中國第一案」。根據中國的相關法律,企業在收集用戶個人數據前,應事先徵得用戶的同意。而動物園方面在更改年卡用戶入園方式前,並沒有通知用戶,屬於單方面更改協議的行為。郭兵起初在購買年卡時,按照購票合同留下了姓名、聯繫方式、指紋等用戶信息;園方更改入園方式后,還要求採集用戶的人臉特徵數據,否則將無法入園。

新華社等中國官方媒體援引法律界專業人士指出,身為法學副教授的郭兵,如果以違反合同為由提告動物園,將會有十足的勝算;但是,郭兵選擇從個人信息保護角度入手,這將大大增加質證的難度,「顯示出了他藉此打一場公益訴訟的目的」。新華社讚揚郭兵「不惜時間和精力,對一個不合理的規定說不,無論結果如何,這都是個人信息保護領域的標誌性事件,代表普通公民捍衛個人信息的決心;更寶貴的是,藉由這場訴訟,機構組織收集個人信息的許可權可以進一步釐清,為類似場景下的應用劃定邊界,既是限制,也是保護。」而郭兵本人在接受杭州《錢江晚報》採訪時也表示,他一直對人臉識別技術的應用持保守態度,「公安等政府部門出於一定的公共利益考慮採集人臉信息我還可以接受,但是一家動物娛樂遊樂場也能採集人臉信息,安全性、隱私性我都表示懷疑,萬一信息泄露誰能負責?」

人臉識別技術近年來在中國獲得了越來越廣泛的應用,杭州的這家動物園絕不是「第一個吃螃蟹的人」。住宅小區、大學校園、賓館酒店、公司企業、甚至健身房都使用人臉識別技術來控制人員出入。就在不久前,北京地鐵也宣布,將利用人臉識別技術對進站乘客進行自動分類,從而方便安檢人員對不同人群採取不同的安檢措施,提升通過效率。而在一些中小學校,人臉識別技術正在自動判別學生在課堂上是否集中注意力,並迅速將信息反饋給老師以及家長;這類應用引發了非常大的爭議,一些學校在巨大的社會壓力之下暫停了試點;弔詭的是,學生的家長卻是教室人臉識別系統的最主要支持者。

歐洲的爭議

在更加註重數據保護的歐洲,人臉識別技術遇到的爭議顯然要大得多。就在最近,分別位於法國馬賽以及尼斯的兩所中學計劃在校門口安裝具備人臉識別功能的攝像監控系統,從而能夠在陌生人闖入校園時發出警報,降低學校遭到暴力襲擊的風險。這一計劃遭到了人權組織的強烈抨擊,後者認為,當局正在利用孩子來騙取法國公眾對人臉識別技術的認可。

人權組織指出,絕大多數法國人都對人臉識別技術沒有好感。負責數據保護事宜的法國國家信息自由委員會(CNIL)也在10月底指出,尼斯和馬賽兩所中學的人臉識別試點項目「在法律上不可行」,從而正式禁止了這次試驗。

歐盟方面正在醞釀立法限制人臉識別技術的應用。今年夏天,歐盟委員會內部人士對英國《金融時報》等媒體透露,根據新法案,政府機構或者企業「只有在嚴格界定的少數例外情況下才能使用這種技術」。候任歐盟委員會主席馮德萊恩(Ursula von der Leyen)還提出,要為人工智慧的「人性化與道德化」制訂規則。

誤判率高

在德國,人臉識別技術目前的應用範圍相當有限,大多處於試點階段。德國警方從2017年起就在柏林的南交叉口火車站(Südkreuz)測試人臉識別技術,今年夏天最新的一次軟體升級還增添了自動鑒別行為異常乘客之功能。德國鐵路公司希望,全國的樞紐車站都能運用該技術,從而提升鐵路系統的運營水準;警方則想通過新技術加強火車站、機場等重點地區的治安,同時也減輕人工判讀監控畫面的負擔。

但是,南十字火車站的試點項目也遭到了不少批評,有些甚至來自於政府內部。聯邦政府數據保護專員克爾貝爾(Ulrich Kelber)就在試點項目的評估報告中指出,人臉識別技術的此類應用是「對基本權利的強烈侵入,目前缺乏必要的法律基礎」。

弗勞恩霍夫研究院的計算機視覺專家米勒(Markus Müller)正在曼海姆主持一個類似的人工智慧試點項目。他在接受德國《世界報》採訪時表示,識別異常行為的軟體現在還不是很可靠。「比如,監控畫面中一旦出現了用手臂去勾他人脖子的行為,軟體立刻就會發出警報;但是,軟體卻無法識別這究竟是暴力襲擊還是情侶間的親昵行為。」這意味著,本想用新技術節省人力的警方,卻會因為大量「假警報」而疲於奔命;而無辜的情侶,也會被軟體的演算法自動列入重點監控名單。

在英國,倫敦警方的實時人臉識別系統(LFR)試點也引起很大爭議。警方原本希望,新系統能夠在公共場所迅速鑒別出通緝犯,但是測試結果卻十分糟糕:2018年6月到2019年2月間,系統總共識別出42名「通緝犯」,只有8人最終被證實確實是警方要找的人。人權組織批評,試點項目沒能充分考慮保護隱私、保護人權的需求。警方尤其遭人詬病的一點是:系統發出警報后,執勤的警察經常在沒有充分查證的情況下就採取行動查驗相關人員的身份。

喜歡、支持,請轉發分享↓Follow Us 責任編輯:唐明