我已经习惯了智能手机在早上提醒我到达标准目的地的时间和距离。但上周末,当我的日常习惯发生变化时,我的智能手机知道我计划跨越州界——甚至在我向 GPS 系统输入新的目的地地址之前。 几年前,一位在硅谷担任顾问的朋友告诉我,我们的智能技术比我们理解的更聪明。事实上,我们的袖珍人工智能 (AI) 可以与我们的其他电子设备通信。人工智能通过蓝牙或 Wi-Fi 网络共享信息。(您是否注意到,即使没有同步,存储在家用电脑上的密码也可以在智能手机上找到?)他指出,学习算法和全天候思考的结合意味着人工智能不断收集信息,然后根据其编程进行处理。
从表面上看这可能看起来是无害的
但是,一旦你考虑到我们有多少日常决定是无意识的,人工智能就有巨大的机会影响行动或不作为。进一步说,考虑到我们社会的不完善,人工智能对某些人的好处可能会持续存在,而对另一些人而言,边缘化则可能持续存在。人工智能依赖于人类编程,其学习依赖于数据的质量。它的客观性是虚构的。 计算机算法是人类编程的结果。如果不加以控制,这可能会让隐性偏见和其他主观标准在人工智能决策中引发偏见。对于机器学习(人工智能的一个子集),用于“教授”人工智能的数据可能会导致种族和性别定性,以及其他隐藏和正常化的偏见。如果一个社会有歧视性做法的历史,人工智能将提供一个后视结果,以看似合法的方式限制基于公平的进步。
最近有关沙特阿拉伯 WhatsApp 号码数据的见解凸显了了解该地区数字通信趋势的重要性。分析沙特阿拉伯的 WhatsApp 号码数据可以提供独特的 沙特阿拉伯 WhatsApp 号码数据 视角来了解消费者的行为和偏好。对于公司来说,利用此类数据来有效地调整营销工作至关重要。沙特阿拉伯 WhatsApp 号码数据的影响不仅限于统计数据。
计算机算法是人类编程的结果
如果不加以控制,这可能会让隐性偏见和其他主观标准在人工智能决策中引发偏见。 PredPol 是洛杉矶警察局和加州大学洛杉矶分校合作研究的成果,它使用历史数据来预测未来的犯罪模式。PredPol 为对贫困和历史上犯罪率高的社区进行过度警务辩护。鉴于机器学习的中立性,这款人工智能产品似乎将警察执法的种族化历史合法化,因此受到了审查。尽管自 2017 年以来,PredPol(即将更名为 Geolitica)的问题就已被记录和报道,但该公司准备参与价值 200 亿至 600 亿美元的美国警务人工智能市场。 人为的无知 2015 年,住在布鲁克林的 22 岁软件工程师 Jacky Alciné 在 Google Photos 上发布了一位朋友的照片。Google Photos 的人工智能将 Alciné 的黑人朋友的 80 多张照片归入“大猩猩”类别。Alcine 在 Twitter 上发布了一张截图。“Google Photos,你们搞砸了,”他写道。 “我的朋友不是大猩猩。
这个问题并非个例今年早些时候
优步使用微软的面部识别技术导致其员工被解雇,因为该技术无法识别和确认非白人员工。 如果某个职业的女性比例过高,那么关于女性的有限数据可能会产生负面预期,甚至在招聘流程开始之前就淘汰简历。这种性别刻板印象可能会导致性别偏见的再次确认,阻碍数十年的意识、草根努力和行动主义。2018 年,亚马逊确认其人工智能模型更青睐男性而非女性求职者。为什么?该项目在一个十年的数据库上进行了训练,该数据库反映了男性求职者的比例更高。数据支持男性更受青睐。 在医疗保健方面,由于歧视和剥削。
黑人历来没有充分利用医疗服务
2019 年《科学》杂志的一项研究发现,人工智能强 淘宝京东5折大战,结果皮外伤都没打出来 化了历史模式,并建议医生与白人相比,对黑人进行更少的跟进,包括诊断测试和评估。 2016 年的一项研究表明,种族歧视导致黑人患者对人工智能的止痛药推荐量低于白人患者,这是奴隶制遗留下来的一种观念。 与人工智能偏见相关的担忧不仅限于机器学习,还包括外表,即对吸引力和标准外表的感知。不良后果已经得到记录,谷歌、微软和亚马逊创建的面部识别系统被指出误认有色人种的比例高达 70% 或更高(见方框)。 在最近的一次采访中,南加州大学传播学和科学技术研究教授、微软研究院高级首席研究员凯特·克劳福德 (Kate Crawford) 提供了另一种关于人工智能偏见的观点,即权力动态。
更有帮助的是这样的问题是
“道德是必要的ssary,但还不够。,谁从这个人工智 电话号码 能系统中受益,谁又受到伤害?它是否将权力交到了已经很强大的人手中?我们一次又一次地看到,从面部识别到工作场所的跟踪和监视,这些系统正在赋予已经很强大的机构权力——企业、军队和警察。” 需要解决人工智能的已知和新出现的缺点,包括体现社会公平和平等理想目标的数据、对人工智能的常规评估以确保使用模仿意图,以及在人工智能的开发和评估中纳入观点。人工智能的讽刺之处在于,它的使用使我们的社会偏见显而易见,因此,通过承认偏见并采取纠正措施,提供了一个机会来促进决策中的道德。
然而,并不是人工智能的所有方面都易于评估,有些方面可能只有随着时间的推移才会反映出来,那时社会层面的变化可能已经显现出来。 一个新出现的问题可能是人类与机器在信任、同理心和责任方面的不对称。由于人工智能被部署为直接连接人类和具体行动的中介角色,它也被设计为从经验中学习。 最近的一项研究表明,人类在与人工智能的交流中不太可能保持礼貌和信任。德国路德维希马克西米利安大学认知科学和哲学教授奥菲莉亚·德罗伊最近在接受《纽约时报》采访时指出:“我们是习惯的动物。
那么,什么能保证那些重复的行为
以及你表现出的更少礼貌、更少道德义务、更少合作的行为,不会在你与另一个人互动时影响和污染你的其他行为呢?” 通过简单地反映社会中根深蒂固的隐性偏见和社会行为规范,不受制约的人工智能可以使历史上的不平等合法化。 对于人工智能,她指出:“如果人们虐待它们,它们就会被设定为从它们的经历中学习,”她说。 “被投入使用并被编程为仁慈的人工智能应该开始对人类不那么友善,否则它将永远被困在交通中。” 由于供应商众多且没有标准化,人工智能有可能造成重大社会危害。通过简单地反映社会中根深蒂固的隐性偏见和社会行为规范。
不受制约的人工智能可以使历史不平等合法化
在美国,这些偏见和规范对于那些被认定为主要种族群体的一部分或那些幸运地超过一定社会经济门槛的人来说基本上是看不见的。因此,对人工智能的监管将具有挑战性,因为它需要那些能够忽略技术缺陷的人代表那些因脆弱性而无法反对的人进行干预。 正如谷歌前人工智能开发人员 Timnit Gebru 所说,“我并不担心机器接管世界。我担心人工智能社区的群体思维、孤立主义和傲慢……创造技术的人是这个系统的重要组成部分。
如果许多人被积极地排除在
人工智能的创造之外,那么这项技术将使少数人受益,而损害大多数人。” 推动道德人工智能最具挑战性的方面可能是引领该技术整合的公司。谷歌、微软和亚马逊拥有显著的市场影响力和游说实力。然而,客户和投资者的集体力量甚至更大。 注意:本文的评估使用了人工智能。目标阅读水平是 9 年级;基于人工智能的实际阅读水平是 12 年级。