以法令堵住人脸辨认乱用的口儿

放大字体  缩小字体 2019-11-06 18:04:49  阅读:4861 作者:责任编辑NO。卢泓钢0469

应对人脸识别技术的大规模使用提出“必要性原则”“比例原则”“正当程序原则”,用制度的刚性来确保“科技向善”。

新京报我们视频截图

文 |蔡斐

最近,人脸识别成了不折不扣的热议话题。

浙江理工大学特聘副教授郭兵一纸诉状,把杭州野生动物世界告上了法庭。原告认为,被告要求自己增加人脸识别技术的入园条件,收集个人面部特征等生物识别信息,侵犯了公民的个人隐私信息,也违反了《消费者权益保护法》的规定。

人脸识别的滥用风险

不过,相比学者的较真儿,更多普通人把人脸识别作为一项高大上的技术来津津乐道。有了人脸识别,进安检不用凭票了,付账单不用扫码支付了,开汽车不要钥匙启动了,老师上课、单位打卡可以直接人脸识别签到……这也显示了人脸识别技术广阔的应用前景。

不可否认,人脸识别是我们这个时代最伟大的进步技术之一。它集成了人工智能、机器识别、机器学习、模型理论、专家系统、视频图像处理等多种专业方面技术,是生物特征识别的最新应用,更展现了弱人工智能向强人工智能的转化。它所依赖的,是每个个体的生物特征,比如虹膜。这是与指纹、掌纹、静脉一样的生物特征,也被称为“人体密码”。

与数字密码不同,生物特征是人无法改变的生理特征,在某种意义上,生物特征是最后的防线。这也意味着,人脸识别技术应用也存在相应的风险。比如,如果操作不当,或者被有心人采集、出售、应用,甚至被拿来冒名身份,这时不仅个体毫无安全可言,对整个世界秩序的后果也不堪设想。

这种担忧并不是杞人忧天。人脸识别的一个重要特征就是非强制性,即用户不需要专门配合人脸采集设备,几乎可以在无意识的状态下就可获取人脸图像,这样的取样方式没有一点强制性。

换句话说,在无意识或者稍不留神的时候,我们的人脸图像就被采集了。

更严重的是,随着深度学习推动人脸识别技术在分析、读取和比对环节功能的不断强大,通过对人脸面部表情的深度识别,摄像头还可以计算个体内心世界的真实情感,不仅能把你“看个清楚”,还能把你“想个明白”。

用制度刚性确保“科技向善”

目前,人脸识别技术在法律性质上,仍停留在身份信息识别的隐私权范畴。根据现行刑法规定,不经同意而非法获取,或者将合法取得的个人隐私信息出售或提供给第三方,此类行为均涉嫌构成侵犯公民个人隐私信息罪。而民法总则第一百一十一条规定,任何组织和个人需要获取他人个人隐私信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人隐私信息,不得非法买卖、提供或者公开他人个人隐私信息。

从这个意义上来说,人脸识别的法律边界确实值得充分厘清。但是,我们在人脸信息获取这第一个环节就出了问题,也就是清华大学法学院劳东燕教授所说的收集的合法性问题。

面对越来越普及的智能人脸识别设备,我们对收集的主体、目的、方法、范围与程序等问题,完全没做任何限定,也没有对违规收集或使用的行为规定相应的法律责任。

退一步说,即便在某些人脸识别的场景得到了被收集人的允许,但由于收集的主体、收集的数据范围、使用目的及范围、保护措施与相应风险等信息告知不充分,被收集人依然处于弱势地位。

从学理上,可以认定上述的允许在法律上不能形成有效的同意,这样的收集行为仍是违法的。但当人脸识别应用成为大势所趋时,任何人都没办法对技术说“不”。

多年来,一直备受诟病的公民个人隐私信息泄露就是直接例证。相比之下,生物学数据的个人指向性更为明确,对个人而言,也显然比一般的个人隐私信息更为重要。因此,对于人脸识别的态度要更加谨慎。

今年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则》,提出对人工智能治理的框架和行动指南,呼吁发展“负责任的人工智能”,即技术的发展应该符合人类的价值观和伦理道德,避免误用,禁止滥用、恶用。

相应地,在法律的框架下,我们也应该对人脸识别技术的大规模使用提出“必要性原则”“比例原则”“正当程序原则”,甚至在某些特殊场景下考虑设立禁用“黑名单”制度,用制度的刚性来确保“科技向善”。

未来,可优先考虑在这些大的原则之下,细化相关法律规定,彻底将人脸识别滥用的口子堵上。

目前看来,一切才刚刚开始。

蔡斐(西南政法大学副教授)

编辑:李冰冰 校对:危卓

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!