香隅门户网站
香隅门户网站 > 情感 > 尊宝娱乐官网app_人脸识别、平等保护与契约社会

尊宝娱乐官网app_人脸识别、平等保护与契约社会

尊宝娱乐官网app_人脸识别、平等保护与契约社会

尊宝娱乐官网app,  应对以人脸识别为代表的人工智能技术应用带来的风险,当务之急是要求公共行政中应用人工智能技术必须通过伦理委员会的审查和公开听证

  郭锐

  人脸识别是人工智能技术的典型应用。通过个人信息的广泛收集和运用算法对这些信息进行处理,人工智能技术让精准、高效的“区别对待”成为可能。但是,为人们“量身定做”的差别化待遇意味着什么?基于用户画像生成的新型“身份”,可能对社会产生何种影响?这些问题,是本文讨论人脸识别的法律和伦理风险问题时所关注的核心内容。

  人脸识别的“分类”意味着什么

  将人脸识别应用于地铁安检,是因为它能将乘客分类,而这种分类被认为可以大大提升安检的效率。分类背后的原理大致如此:在识别某一乘客的面部特征后,系统将基于已经收集的个人信息来将其打上多个不同的标签,再根据某一种标签或者多种标签的组合给出针对这名乘客的处理决定。

  但是,设想如下情形:若有一位乘客在安检时总是被特别关照,地铁安检员每次都会对其反复安检确保无安全隐患才得以放行。乘客不胜其烦,追问原因。答曰:无可奉告。倘若如此,是否有伦理或者法律上的问题?

  这正是我们在人工智能伦理讨论中所言的算法歧视问题。在看似中立的算法中,由于算法的设计者的认知存在某种偏见,或者训练算法使用了有问题的数据集等原因,可能让人工智能系统决策出现有歧视性的结果。这类事例媒体时有报道,例如,在金融领域“降低弱势群体的信贷得分”“拒绝向’有色人种’贷款”“广告商更倾向于将高息贷款信息向低收入群体展示”等。

  当公共服务或者政府决策中使用人工智能时,就更需要警惕算法歧视问题。就地铁这一场景,我们已知的是,通过人脸识别进行的分类安检将基于分类标准和“白名单”制度之上。但我们无从得知,识别系统是基于怎么样的标准对乘客进行分类,以及这些标准是否具有正当性。

  与个人相关的标签——乘客的户籍地、犯罪记录、家庭情况、工作单位、征信记录等——是否可以用于人工智能决策?这些标准背后的逻辑何在?是否征信记录较差的乘客需通过更严格的安检?为什么他们一定比其他乘客更有在地铁犯罪的可能性?诸如此类的问题如果尚且不能给出明确的答案,恐将给恣意行政大开方便之门。

  不论人脸识别有多么精准、对地铁通行效率的改善有多么显著,政府在采用人工智能技术时首要的责任是实现平等保护。平等保护意味着分类背后的标准应公开,且这些标准与所欲达成目标之间的合理关联得到论证;因人工智能技术使用者的主观偏见、数据样本污染、人脸技术本身不成熟等因素带来的歧视,应一一排除。唯其如此,方能通过平等保护的合法性检验。

  应警惕身份的回归

  在确保人工智能技术的应用不违反平等保护原则的基础上,我们还应警惕:在大数据的技术支撑下,基于人脸识别和多种个人数据形成的用户画像越发成为个人在数据时代的身份表征。

  人工智能技术之所以饱受青睐,原因之一便在于算法能针对具体问题给出针对性解决方案。但从技术上讲,任何效率的提升必然涉及对公民的分类,而分类直接或者间接地关乎公民的基本权利。受限于技术发展、原始数据的偏差、算法设计者的偏见,算法歧视时常发生。使用人脸识别算法的标签化判断方式增加了作出歧视性决策的风险,而这些风险绝大程度上将由本身已处于相对劣势地位的人群承担。

  在缺乏监管、有效保障措施、透明度和问责机制的情形下,人脸识别算法的运用将加剧不平等现象。而令人担忧的是,算法复杂晦涩的“黑箱”特性,往往使歧视以一种不易察觉的方式进行。

  英国法律史学家梅因曾提出社会现代化转型的最大特征是“从身份到契约”。在“身份社会”中,身份意味着特权。有身份的人,享有特权,身份越高,特权越大。

  而什么决定了身份本身?托克维尔在《论美国的民主》中批评了将家庭出身、财产与职业将所有的人划分为不同的身份等级,因为身份将人划分为三六九等,并且导致社会上不同身份的人之间交往严格,唯恐“有失身份”。

  身份在法律上的表现为,不同的人有不同的法:有身份的人可以利用这种身份特权去抵消自己的罪行,去谋求罪行的减免,而没有身份的人则不享有此等特权。身份是人治的渊薮,是法治的天敌。

  当社会从身份社会转型至契约社会时,身份的作用逐渐淡化。契约社会“不以出身论英雄”“王子犯法与庶民同罪”。在契约社会,“人人生而平等”“法律面前人人平等”的观念占据主流。在平等的基础上,个人不因家庭出身、财产、职业等标准被分类,人们根据契约而非身份设定权利义务的范围。契约社会为个体注入了更大的可流动性,让个人得以通过自身努力改变现状。

  今天,当个人信息的收集和利用越来越广泛时,我们应警惕身份的回归。以标签化、用户画像的名义,人脸识别不仅把过往行为数据与个人相关联,传统的家庭出身、性别、财产、职业都悄无声息地被纳入人工智能技术的决策体系中。

  为了通过既往行为模式判断未来行为模式,人脸识别将在认证表面信息的同时,也在后台关联与个体的过往行为相关的标签或用户画像。但是,个体的过往行为很多时候与个体的身份特征有较大关系,比如出生在贫穷家庭的个体由于资源的匮乏,受教育率偏低,且相对于出生在富裕地区的个体而言犯罪率相对较高。上述关联不免与传统“身份社会”的运行方式殊途同归。

  重申契约社会的理念

  在《足够智能的城市》一书中,作者本·格林指出,“今天城市所使用的技术将在确定未来社会契约方面发挥重要作用”。

  或许有人认为,既然人脸识别的广泛应用已越发成为大数据时代的必由之路,我们也应更新对传统社会管理方式的认知。可以想象,在一个对技术不加管制的世界里,人脸识别的运用将迅速且深刻地改变社会管控的效率和方式,甚至具备着重塑契约社会内涵的可能——人们将人脸识别技术视为维持社会运作的必要一环,并普遍默许对它的应用。但这是否是我们所欲追求的世界?

  随着历史的车轮向前而建立社会普遍尊重的契约,该过程离不开公众的参与。公众有权利决定让渡哪些,以及在何种程度上让渡属于自己的权利,尤其是和个人自由、隐私相关的权利。

  在契约社会中,重要的是主体能够平等自由地表达自己的意志,达成契约。人脸识别技术本身并不会阻碍社会主体表达自己的自由意志。但是人脸识别技术可能与个体身份信息紧紧相关,而随着技术的发展,在主体身份信息完全可由数据追踪后,主体可能会对表达自由意志存在顾虑,也会进一步影响主体在订立契约的过程中正常全面的表达出自己的诉求。这可能也会造成身份社会和契约社会的界限模糊,存在有悖于契约社会意思自治和平等的初衷。

  不论人脸识别技术最后将如何渗透到我们生活的方方面面,社会都需要时刻警醒:我们愿意为有效的社会控制和公共效率牺牲多少隐私和个人空间,这种牺牲的边界何在?忽视伦理风险、轻率地推广人工智能技术,必然带来层出不穷的对平等权利的践踏。

  应对以人脸识别为代表的人工智能技术应用带来的风险,当务之急是要求公共行政中应用人工智能技术必须通过伦理委员会的审查和公开听证。否则,类似人脸识别的人工智能技术应用带来的担忧恐怕难以消失。

责编:高恒涛