后数字时代:智能未来生活指南_【德】霍尔格·福兰德_AZW3_MOBI_EPUB_PDF_电子书(无页码)_【德】霍尔格·福兰德
内容节选
什么是数据歧视? 让我们继续探讨一会儿算法的公平性这个话题。当我在必应、DuckDuckGo或者谷歌上的图像搜索中输入“手”这个单词时,这个身体部位会以各种形式呈现在我面前:打开的、合拢的、患病的、握成拳头的。只有一个特征保持不变:肤色。我必须滚动鼠标很长时间,才能在结果中第一次发现不是白种人的手,尽管这与我们人类的数量分布并不相符。搜索结果偏爱浅肤色的原因就是在许多技术层面牢牢嵌入的歧视。这种歧视在录像年代就开始了。从一开始,电影和照相技术就仅仅针对肤色白皙的人群。好莱坞导演巴里·詹金斯(Barry Jenkins)在接受采访时解释说,即使在今天,深肤色仍然要适应技术能力:“从技术层面来看,电影一直都专注于浅肤色:布景,化妆,甚至被用于电影图片超过一个世纪的胶片乳化剂。深肤色反射光与浅肤色不同,为了避免反射,它们会被覆盖上粉底。” 这种对某一肤色的偏爱在数码摄像中也一直存在:相机的传感器是专为白皮肤设置的,因此其他肤色的人在他们的照片中效果都不太好,或者不得不补充额外的光线来提亮他们的皮肤。这种由技术条件决定的歧视也意味着——除了在世界范围内的时尚和艺术摄影界普遍偏爱浅肤色人种之外——存储在图像数据库中的浅肤色人群的照片或录像要比深肤色人群多得多。这些图像数据还会被用来训练算法。正如您在本书其他章节看到的那样,算法在机器学习时会通过自学使自己获得由训练数据派生出的规则。比如,如果算法根据存储的图片来训练认识“手”的特征,它通常只会看到一些浅肤色手的图片,因此也只能认识类似这样的“手”。当然,同样的情况也会发生在身体的其他部位上,甚至可能是脸部。为什么长久以来没有人注意到这一点呢? 大多数训练算法的科学家仍然是年轻的白人男性。因此他们完全没有意识到,算法的训练数据中已经包含了歧视,这不仅涉及肤色,还包括其他的特征,比如性别或者年龄。这些系统性的歧视贯穿了所有科技领域,有时候还会产生奇怪的后果。我们已经提到了几个例子:一个谷歌算法的早期版本将深肤色的人分类到一个大猩猩的照片集中,以及一个只给浅肤色人提供肥皂的肥皂机等等。一个自动分析求职者个人资料的软件超出平均水平地偏爱许多年轻的白人男性。活动家乔伊·博拉姆维尼(Joy Buolamwini)在著名的TED演讲中表示,她电脑上的面部识别软件甚至拒绝将她黑皮肤的脸识别为人脸。白人同事的脸很容易被认出来,即使是一个白色的狂欢节面具也能被识别,但是一个女性科学家、民权组织算法正义联盟(Algorithmic Justice League)创始人的真实的脸却不能。 因此,被用于安全领域比如机场或火车站等场景的人脸识别软件只有在识别白人男性的时候才能勉强算得上精准,女性或者黑色人种通常难以被这些系统识别,甚至会被错误地认定为通缉犯。同样的情况还发生在被美国(以及其他国家)警察和安全机构用于在街上进行面部识别的软件。这导致警察检查有色人种的次数比检查白人的次数要多得多。警察使用的算法甚至会导致错误的逮捕。比如,罗伯特·威廉姆斯(Robert Williams)就被无辜地逮捕了,因为底特律警方为了寻找犯人所使用的算法将他和一个通缉犯搞混了。当他向警察指出,他的脸和通缉犯的脸完全没有任何相像之处时,警察回答说,电脑给出了很大的概率,这两个人是同一个人,而忽略了他们自己正常的智商。 幸运的是,正是因为媒体上这些引人注目的例子和报道,这种现象慢慢有所改善。大型科技集团也越来越多地注意到,这些歧视性偏见被发现存在于最基础的部分。随着算法在所有生活领域的广泛应用,陈旧的偏见却已经在许多系统中根深蒂固,甚至没有办法替换。除此以外,给皂机、数码相机、猫眼或者安全摄像头所使用的软件也不包含任何指示信息来说明它们的组成部分是不是都经过了非歧视性训练。这不仅涉及图片,还涉及文本。谷歌人工智能伦理团队前负责人提姆尼特·格布鲁博士(Timnit Gebru)提请注意一个深远问题:主要使用英文来工作的搜索算法在互联网中所占比例超过60%。互联网访问途径较少的国家和人民在那里留下的语言足迹较少,并因此会遭受算法的系统性歧视。德语网站也受到了影响:它们仅占互联网的2.4%。因此,通过格布鲁博士这样的活动家将更多算法做出歧视性决定的事件公开非常重要,比如“黑人的命也是命”活动或者“性别正义团体”等。这个问题影响到我们所有人,因为我们每个人都有可能因为性别、肤色、年龄、行为或者互联网上的数据记录在申请贷款、边境管制或者流程申请中遭受歧视。 由软件导致的数据性歧视很容易对某人造成不公正,比如,由于年龄的原因,招聘软件将不推荐他参加面试。然而,在个案中验证这一点是非常困难的。更重要的是,我们通常会根据算法的统计评估来确定何时执行某个操作,以便在有疑问时采取行动。因此,数据道德委员会也在他们提交给联邦医院的报告中呼吁鉴定义务。您不要......
- 信息
- 序 数字时代的生存指南
- 前言 您已经很聪明了吗?
- CHAPTER 01 居家生活:数量众多的新型同居者
- 我的电视知道我在看什么吗?
- 还有谁住在这儿?
- 智能电灯会招来窃贼吗?
- 为什么万物需要自己的互联网?
- 为什么人工智能仍然如此愚蠢?
- 当我点披萨时,有谁听到了?
- 房东可以拍摄我吗?
- 我的扫地机器人在工作时看到了什么?
- 最好的密码是什么样的?
- 谷歌搜索一次需要用多少电?
- CHAPTER 02 数字生活:我们都是自己数据的产品经理
- 为什么我是一个产品?
- 超市收银员知道了我的哪些数据?
- 使用苹果手机预订旅行时,我是否会支付更多的费用?
- 通过软件我是否更容易觅得爱侣?
- 我可以相信在线测试吗?
- 我的数据值多少钱?
- 为什么我们不远离社交媒体?
- 我在一个过滤泡沫里吗?
- 社交媒体可以对我进行审查吗?
- 网页上有秘密的操控技巧吗?
- 我们的智能手机在偷听吗?
- 为什么我们会接收到如此糟糕的广告?
- CHAPTER 03 移动性:软件变得比硬件更重要
- 汽车只能以预订服务的形式存在吗?
- 如果我超速,汽车会告发我吗?
- 当自动驾驶汽车发生事故时,谁应该对此负责?
- 未来谁还需要驾照?
- 智能汽车是如何看到我们的街道的?
- 如何阻止黑客进入我的汽车?
- 谁开车开得更好:人还是机器?
- 为什么谷歌地图如此出色?
- 车辆有学习过吗:它是否最好绕开老奶奶和小孩行驶?
- CHAPTER 04 教育与文化:无数的机遇与最大的个人责任
- 数字化会损害文化吗?
- 未来人们会在哪些方面仍然胜过机器?
- 为什么许多互联网亿万富翁都辍学了?
- 谁在数字教育方面落后了?
- 算法可以预测试题吗?
- 我们每个人都必须学习编程吗?
- 机器人可以照顾孩子吗?
- 我如何在数字化职业生活中保持精力?
- 我什么时候可以买一台量子计算机?
- 硅谷创始人怎么养育他们的孩子?
- 计算机是怎么学习的?
- 机器什么时候会超越我们?
- 存在互联网档案馆吗?
- CHAPTER 05 对与错:我们的偏见依然存在
- 人们可以教会机器道德吗?
- 人工智能会像法官一样公平地对待我吗?
- 什么是数据歧视?
- 为什么我们都会被假新闻蒙骗?
- 假新闻会造成什么损失?
- 毁掉一个人的名誉要付出什么成本?
- 我们为什么需要黑客?
- 为什么语音助手总是女性?
- 我从何得知我是否在与一个机器交流?
- 如何避免网络上的假朋友?
- 为什么每个人都能在网络上辱骂?
- 我可以把算法当作造假者来使用吗?
- CHAPTER 06 健康:每个人都是自己的医生
- 电子医疗如何改变医疗卫生事业?
- 什么时候我的医生会给我开一个程序?
- 如果我佩戴了健身追踪器,我会变得更健康吗?
- 数字生活会导致痴呆吗?
- 算法是否能比我的医生更可靠地检测出皮肤癌?
- Instagram知道我是否沮丧吗?
- 软件可以取代精神科医生吗?
- 算法如何帮助残障人士?
- 为什么技术没有警告我们新冠肺炎疫情?
- 您有数字遗嘱吗?
- 人们可以上传大脑吗?
- CHAPTER 07 职业:还有两种工作形式:你管理机器或者机器管理你
- 接下来会发生什么:技术工人短缺或者数字化失业?
- 人工智能会在未来接管我的工作吗?
- 人们还可以作为网红赚钱吗?
- 谁在亚马逊上撰写产品说明?
- 数字工作者有自己的工会吗?
- 未来我们都会在家里工作吗?
- 算法会观察我们工作吗?
- 人们在工作的时候也能观察算法吗?
- 我要如何糊弄一个负责招聘的人工智能?
- 我的雇主可以审查我的社交媒体活动吗?
- CHAPTER 08 经济:最重要的任务是调控好不同的发展速度
- 为什么数据被称为新石油?
- 科技巨头是如何瓜分世界的?
- 5G有什么特别之处?
- 人们能够删除互联网吗?
- 数字革命何时真正结束?
- 德国一觉错过了未来吗?
- 德国擅长哪些未来技术?
- 我们会与人工智能财政部部长一起节省税收吗?
- 为什么数字公司几乎不向我们纳税?
- 亚马逊靠什么赚钱?
- 脸书消失会给我们带来什么?
- CHAPTER 09 政治:政治落后于网络资本主义
- 在数字化方面,政治是否仍然落后?
- 有一种欧洲特色的数字化道路吗?
- 即使戴着太阳镜,监控摄像头也能认出我吗?
- 算法到底是怎么认出我的脸的?
- 为什么我们还不能在线选举?
- 为什么最近我在每一个网站都必须输入OK?
- 我们需要一个联邦数字化事务部吗?
- 现在还存在没有互联网的国家吗?
- 致谢