参考文献

注册

 

发新话题 回复该主题

看重颜值的今天,如何避免AI成为带偏见的 [复制链接]

1#
白癜风是否传染用什么药 https://m-mip.39.net/nk/mipso_5053106.html

相面术,无疑是一门古老而又生命力旺盛的学问。

说它古老,是因为其历史悠久、源远流长。中国相面术的起源,最早可以上溯至氏族社会时期,到了春秋战国时期就已十分流行,《麻衣神相》是相面术的集大成之作,拥有深广的群众基础。大家耳熟能详的文学作品中经常能看到相面术的身影:大富大贵之人一般都相貌不凡,如《三国演义》中刘备的“双耳垂肩、双手过膝”、关羽的“丹凤眼、卧蚕眉”等;而奸恶之人也都天生异相,如《史记》里秦始皇的“蜂准、长目、挚鸟膺、豺声”。简而言之,相面术就是为“那个人一瞅就不是啥好东西”这句话所准备的理论基础。

说它生命力旺盛,是因为相面术不但能深深地植根于人类“颜控”的本性,还能紧随时代发展的步伐,调整自身形态,最终在新的时代成功站稳脚跟。从古代游街串巷的算命先生,到曾国藩的《冰鉴》,再到龙勃罗梭(CesareLombroso,-)的犯罪人类学的提出,相面术总能“以无厚入有间”,找到自己的容身之处。在AI日益发挥着如同工业时代“蒸汽机”一样作用的今天,相面术似乎也嗅到了自己“寄生”的新方向。

去年秋天,来自斯坦福大学的MichalKosinski和YilunWang合作发表了一篇题为《深度神经网络可通过面部图像确定个体性取向》(DeepNeuralNetworkscanDetectSexualOrientationfromFaces)的论文,一石激起千层浪,引发了舆论的大哗。二人从美国约会网站及平台的公开信息中采集了位用户的张面部照片,并用深度神经网络(DNN)密集提取并量化了他们的脸型、嘴型、鼻形以及面部毛发等特征,接着他们引入VGG-FaceDNN模型,通过面部表情、光线、图像属性等因素标记图像中的人脸,随后二人用奇异值分解(SVD)等手段对图像分类,区分出同性恋与非同性恋照片。

经过一系列训练,该算法识别男女性取向的准确率分别达到了81%和71%;倘若受测个体的照片有五篇以上的话,这个数字将分别提高至91%和83%。二人还用数千张图片分别合成了两组照片,分别显示了男女异性恋和同性恋较具代表性的样态,两相比对,同性恋人群的面部轮廓和五官位置形状确实有细微的差别。

这项研究成果被有些媒体称之为“AIGaydar”,它一经发表,就引发了LGBTQ群体的强烈不满,这一群体中两个较有代表性的组织HumanRightsCampaign(HRC)和GLAAD直接将此研究斥之为“伪科学”(JunkScience),并认为这一技术手段的广泛应用不但会严重侵害个人隐私权,而是还将会是对本就脆弱敏感的性少数人群的新的“系统化虐待”(SystematizedAbuse)。更令人不安的是,该文的作者之一MichalKosinski还对《卫报》的记者表示,这一算法在未来还可应用到判定受测者的智商、*治倾向以及犯罪几率等领域。

事实上,早就有科研团队在Kosinski提及的几个领域中取得了研究成果。来自上海交通大学的两位研究者XiaolinWu(武筱林)和XiZhang(张熙)于年的11月份就在arXiv上提交了一篇题为《基于面部图像的自动犯罪概率推断》(AutomatedInferenceonCriminalityusingFaceImages)的论文,二人通过视觉识别和机器学习技术,检测了张中国成年男子的照片,其中近一半照片都来自已经定罪的罪犯。

实验结果表明,这一算法可以以90%左右的正确率识别出罪犯和非罪犯;同时,他们还发现罪犯和非罪犯在内眼角间距、上唇曲率和鼻唇角度这三个测度上存在着较显著的差异,并且罪犯面孔特征的差异要大于守法公民。这篇论文的有些结论与“麻衣相法”的部分内容不谋而合,而论文作者也将陈抟所撰写的《神相全编》(陕西师范大学出版社,)列入到了自己的参考文献当中。

姑且不论上述两项研究的样本择取(数量、范围、标准)是否客观,也不论研究者们设计实验的初衷(前者意欲提醒人们注意个人信息安全,后者试图反对所谓的“相由心生”)是否合理,这样的研究在逻辑上就存有很大的漏洞:“同性恋”、“犯罪”的成因由多个变量决定,在研究中研究者却将“相”或“外貌”作为了唯一变量,而这唯一的变量其实是“天生”的,换言之,就是“不变”的;亦即,作为不变的“变量”的“相”与诸如“同性恋”、“犯罪”之间是无法建立起因果关系的。基于这点,我们可以大致断定,这类研究不过是形形色色“相面术”披着AI的外衣在当代的又一次“借尸还*”罢了。

更令人担忧的是,由于AI的加持,这样研究成果一旦从实验室应用到实际生活场景当中,所产生的负面影响将会超出以往所有的“相面术”:由于AI处理数据的超强能力,这些成果的负面影响极有可能波及到社会中的大多数人;倘若这些成果一旦堂而皇之地进入到极权*体或同性恋非法的国家的话,“相面”借由技术这一貌似“客观”、“科学”的外衣,将在严重侵害少数族群的正当权益的同时,制造出一个人人自危的社会环境,无限放大、扩散本已存在于人类社会的各种偏见、歧视,最终导致灾难性的后果。纳粹的“雅利安种族优越论”殷鉴未远,从事科学研究的工作者们对此需要慎之又慎。

纳粹科学家正在做容貌测量

这就引出了本文想要讨论的主题:AI与偏见的关系。关于这点,笔者认为有必要澄清以下两方面:

(一)AI作为工具,映射的是人类本就存有的偏见、歧视。有不少媒体使用了“人工智能存有偏见”或“人工智能产生歧视”这样的词组搭配,似乎“人工智能”是生产偏见、歧视的主体。其实,AI的定语是“人工”,它只是人类的工具,换言之,只不过人类偏见、歧视和刻板印象的新的载体。正如巴斯大学的JoannaBryson所说的那样:“很多人都认为是AI存在着偏见,不,这正表明是我们有偏见,AI正在有学有样。”谷歌认为AI之所以出现偏见,源自于实施算法过程中“互动偏差”、“潜在偏差”以及“选择偏差”。其实,即便没有这些操作步骤中的偏差,AI仍将充满偏见,因为人类社会和文化本身由无数偏见组成。

(二)AI作为工具,还将大大强化人类社会中的偏见、歧视。数次技术革命给人类社会带来的巨大改变,这使得我们的文化对于科学技术拥有了一种盲目的乐观和崇拜,“数字”、“科学”、“实验”这些词几乎等同于“真理”、“正确”,这种“唯科学主义”很容易忽略掉技术本身的“主观性”——AI看相摸骨正凭借这点趁虚而入。这次人工智能浪潮对于社会生产力无疑具有巨大赋能潜力,这同时意味着倘若偏见、歧视混入其中的话,AI将为人类带来更隐蔽、更深广的破坏力度。因此,人工智能领域不仅需要积极拥抱新技术的乐观主义者,还能接纳那些忧心忡忡的卢德主义者们。

微软AI聊天机器人Tay上线后,很快沦为人性阴暗面的镜子

那么,在充满偏见的社会语境中,应该如何以正确方式地打开AI呢?

首先,不要人为地用AI制造出更多的偏见。最近,据Futurism.

分享 转发
TOP
发新话题 回复该主题