加入 getAbstract 阅读摘要

不只是小毛病

加入 getAbstract 阅读摘要

不只是小毛病

如何应对科技中的种族、性别和能力偏见

MIT Press,

15 分钟阅读
8 个要点速记
可用文本

看看什么内容?

了解机器偏见(Machine bias)和它在各行业和社区中的影响,以及它如何固化现有的社会不公平。


评级

9

关键特征

  • 开眼界
  • 大胆霸气
  • 启发灵感

导读荐语

机器偏见,乍一看也许只是个小毛病。但数据新闻学教授梅瑞迪斯·布鲁萨德(Meredith Broussard)认为,机器偏见是一个结构性问题,会反映出现实中的种族主义、性别歧视和能力歧视。科技应该为所有人服务——没有人应该因为肤色、性别、年龄或能力而对技术自感疏远。 布鲁萨德提供了机器偏见的几个案例研究,详细说明了它在警务和医疗保健等领域造成的危害。她敦促大科技公司接受公众监督,为公共利益服务。

浓缩书

机器偏见是一个结构性问题,需要复杂的解决方案。

人们相信计算机可以解决社会问题,但事实并非总是如此。机器只能在数学层面计算公平,但量化的公平不等于真正的社会公平。在为计算机系统编程时,编程者可能只想建立一套数学层面的解决方案,但由此产生的算法并不必然导向不偏不倚的中立决策。 程序员是人,他们也会受种族主义、特权意识、自我欺骗或一己私欲影响,并将这些偏差带入工作当中。 所谓“技术沙文主义”(technochauvinism)坚信技术进步一定可以解决社会问题,但这忽视了机器偏见的存在,也没有想到平等往往与正义或公正不同。

有偏见的技术往往不是蓄意的产物。大多数工程师可能只是误以为他们正在构建“中立”的技术。例如,一个“种族主义”自动洗手液机的视频曾在2017年流行网络,这就是机器偏见的一个体现:一名深肤色男子发现洗手液机识别不出他的手,因为它只识别浅肤色的手,因此不为他倒洗手液。类似这样的技术偏见,通常是由于工程师使用的测试对象群过于同质化。机器偏见不是“小故障”——它是一个结构性问题,需要复杂的解决方案。

机器在 “学习”中会更倾向于维护现状,成为体制性压迫的帮凶。

与人类的学习过程不同,...

关于作者

梅瑞迪斯·布鲁萨德(Meredith Broussard)是一位数据记者,曾出版《人工不智能:计算机如何误解真实世界》(Artificial Unintelligence: How Computers Misunderstand the World)等多部著作。她也在纽约大学亚瑟·卡特新闻学研究所(Arthur L. Carter Journalism Institute)担任助理教授,并在纽约大学公共利益技术联盟(NYU Alliance for Public Interest Technology)担任研究主任。


恭喜你又学完了一篇干货!复述、评论及做笔记是对知识最大的致敬↓