机器人选出的全世界“最好看的人” 你服不服! |
idcgo.net :09月19日报道:全球各种选美大赛选出的“佳丽”,你是不是一直看不惯?是不是质疑人类太主观的眼光?曾经幻想着能有一种客观标准,能使选美的结果让所有人惊艳。全球首次由人工智能担任评委的国际选美大赛,就出自这样的初衷。但机器人的选择,也引发了一系列争议。 上面是人类的选美比赛 这个选美大赛名字为Beauty.AI 2.0,是第一届由“机器”担任裁判的国际选美比赛,由一群俄罗斯和香港的青年搞的青年实验室(Youth Laboratories)发起,该实验室获得了微软和英伟达支持。 Beauty.AI 2.0对来自100多个国家的6000张自拍照进行了评估,借助算法综合考虑了年龄、皮肤、对称性等因素,还将参赛者的外貌与演员和模特进行了对比,最终按照年龄和性别对优胜者进行了分组评定。 以下是18至29岁年龄组排名前5的女性: 机器人的“审美” 看到这样的结果,你的内心是崩溃的,对不对?这不是你一个人的感觉,相信绝大多数人看到这个结果内心都会蹦出一个字。 Beauty.ai表示,很多选手都写信表示抗议,其中一人写道:“你们的‘机器人’价值何在?随便逛逛商场,我就能找到比你们的选美大赛‘优胜者’更漂亮的人。” Beauty.ai首席科学家亚历克斯•扎沃伦科夫(Alex Zhavoronkov)则辩称:“我也无法认同机器人选出的部分优胜者,但整体还算不错。” 作为该算法的一个指标,AntiAgeist会评估一个人相对其真身年龄的年轻程度,将参赛者的真实年龄与系统预测的真实年龄以及此人看上去的年龄进行对比。在上图中,Lu Sophia得分最高,因为真实年龄达到18岁的她,在机器人眼中只有13岁。 该算法中的PIMPL指标评估了肤色,RYNKL则着眼于皱纹。 MADIS则将参选者与数据库中的演员和模特的面部进行了对比。其中一个组件将其与数据库中的平均美貌进行对比,另外一个则将其与这些“美人”的特点进行对比。 最后,Symmetry Master则考察了面部的对称性。 Beauty.ai由Youth Laboratories负责运营,这家只有6个人的公司专门通过技术来评估一个人的美貌和年轻程度。该公司目前的主要产品是RYNKL,可以作为单独的 手机应用下载,并且已经授权给一些整容医院使用。该团队还在开发和外包一些新的算法,以期应用在Beauty.ai 3.0中——这场新的选美比赛将于今年晚些时候举行。 以下为此次选美比赛其他年龄组和性别的获胜者: 算法的“偏见” 另外一个令这套系统的创造者感到心灰意冷的是,他们发现胜出者都有一个明显的特点:机器人不喜欢深色皮肤的人。 44位胜出者几乎都是白人,只有少数几位亚洲人,黑人则只有1位。尽管多数参赛者都是白人,但很多有色人种也都提交了照片,包括大量的印度人和非洲人。 随之而来的争议引发了激烈的讨论:算法为什么会存在偏见,并在无意间产生冒犯性的结果? 当微软今年3月推出了“千禧一代”聊天机器人Tay时,它很快学会了种族主义言论,并在 Twitter上传播新纳粹观点。在Facebook上月去掉了负责筛选“趋势”新闻的人类编辑后,计算机算法很快就把假新闻和粗俗消息推送到News Feed中,包括一篇有关男子用鸡肉三明治自慰的文章。 虽然这次看似带有种族主义意味的选美比赛引发了各界嘲笑,但计算机科学家和社会公正倡议者却表示,在其他行业和领域,如果带有偏见的人工智能系统得到大范围应用,那绝对不是一件好笑的事情。在某些情况下,甚至会给有色人种带来灾难性的后果。 Beauty.AI 由微软支持的深度学习组织Youth Laboratories开发,它依靠庞大的照片数据库来建立一种算法,借此评估人们的美貌。虽然有很多原因可以解释算法为何偏向白人,但 Beauty.AI首席科学官亚历克斯•扎沃伦科夫(Alex Zhavoronkov)的主要问题在于,该项目在建立美貌评价标准时使用的数据,并没有涵盖足够的少数族裔人群。 虽然该组织开发算法时并没有将浅色皮肤作为美貌的标准,但系统获得的数据实际上却导致机器人裁判得出了这样的结论。 “如果数据库中的有色人种不够多,就会得出偏见。”扎沃伦科夫说,他也对结果颇感惊讶。“当你训练计算机算法识别某种形态时……你手上的数据可能不够充分,这些数据也有可能存在偏见。” 对于带有偏见的算法,最简单的解释就是:负责创造这些算法的人本身就带有根深蒂固的偏见。换句话说,尽管人们认为算法是公正、客观的,但这些算法却往往会延续和放大现有的偏见。 哥 伦比亚大学法学和政治学教授伯纳德•哈考特(Bernard Harcourt)认为,Beauty.AI的结果“完美地诠释了这个问题”。他曾经研究过“预测性警务”,并发现这项业务对机器的依赖越来越大。“根本 不可能在选美过程中不顾文化和种族因素,得出完全中立的结果。” 此事给我们提了一个醒:“真正负责思考的是人类。尽管这种思考以算法形式体现出来,而我们也认为这种算法是中立而科学的,但本质并没有改变。”他说。 公民自由组织最近对基于计算机的执法预测工具表达了担忧——这类系统会使用数据预测犯罪可能发生在哪些地方——因为这些数据可能采用了有瑕疵的统计数据,因而可能加剧种族偏见,并引发有害的警务措施。 “数据受到污染,结果也会受到污染。”媒体争议中心(Center for Media Justice)执行总监马尔基亚•赛丽尔(Malkia Cyril)说。 ProPublica今年早些时候进行的一项调查发现,用于预测未来犯罪活动的软件对黑人存在偏见,这有可能引发更严厉的量刑。 “这真的是人命关天的大事。”哈弗福德学院计算机科学教授索瑞勒•弗雷德勒(Sorelle Friedler)说。 弗雷德勒表示,关键问题在于,少数族裔在数据库中的占比本身就比较低,因此算法很容易针对这些人得出不准确的结论,而算法的创作者却无法发现这一问题。例如,她表示,一套对印第安人存有偏见的算法可能被视作一大成功,因为这些人在人口总数中仅占2%。 “你可能得到98%的准确率,并由此认为自己设计了一套优秀的算法。” 弗雷德勒表示,可以通过一些具有前瞻性的方法对算法进行调整,以便纠正偏见,包括改进输入系统的数据,或者增加一些过滤器,以便确保不同种族的人都能得到平等对待。 具有前瞻性的人工智能算法并不限于刑事司法系统。一项研究发现,在网上看到高薪招聘广告的女性远少于男性。谷歌的照片应用去年甚至将黑人识别为大猩猩。 赛丽尔指出,计算机算法在纠正社会不平等的过程中发挥的作用非常有限。“在本应着眼于制度变化的时候,我们却过于依赖技术、算法和机器学习。” 扎沃伦科夫表示,当Beauty.AI今年秋天举行新一轮选美比赛时,他希望通过对算法的一系列调整来规避歧视性结果。“我们将努力纠正这个问题。” 他补充道,机器人或许根本就不是最好的选美裁判:“更令我惊讶的是算法在选美过程中使用的标准。它从大量候选人中选出的优胜者可能并不符合我自己的审美。” |