︎Potential Bias 智能歧视

在一个日益数据化、自动化的世界里,如何在人工智能面前保护个人的公民自由问题日益凸显。在纪录片《代码偏见》(Code Bias)中,麻省理工学院媒体实验室(M.I.T. Media Lab)的计算机科学家乔伊-布拉姆维尼(Joy Buolamwini)与来自世界各地的数据科学家、数学家和监督组织一起,揭露了目前在日常生活各个领域普遍存在的算法歧视。哈佛大学数学家凯茜-奥尼尔(Cathy O'Neil)也关注大数据带来的歧视,她的作品《数学毁灭武器》(Weapons of Math Destruction)就是其中之一: 大数据如何加剧不平等并威胁民主》一书中指出,技术也会在多个层面阻碍人们的发展。它还会在某些层面上阻碍人们的发展,使数百年来的平权行动努力付诸东流。
在该项目中,我通过反乌托邦的形式极端放大算法歧视,创造了一个互动装置。我选择用面具和显示器来表达我的想法。通过代码实现不同种族,不同性别的人的五观的随机切换,投影于面具上,并在显示屏上显示相应的信息。当观众走近到面具前方时,不同的五官投影在他们的五官上,让他们得到一个被拼接起来的新身份,他们可以会有白人女性的眼睛,黑人男性的鼻子和黄种人女性的嘴,而对面的显示屏则根据五官的不同显示不同的信息。在这个过程中,我希望人们能够意识到这种潜在的歧视,反思存在在大数据时代社会下的问题。