联合国新报告称人工智能语音助手强化了有害的性别刻板印象
根据联合国发表的一项新研究,人工智能语音助手,其中许多默认为女性声音,正在强化有害的性别刻板印象。
这篇题为“如果可以我会脸红”,在 Siri 在收到某些露骨的性命令时做出回应后,该论文探讨了人工智能研究和产品开发中偏见的影响以及调节社会,尤其是儿童的潜在长期负面影响,将这些数字语音助手视为只为无条件地为业主服务而存在的毫无疑问的帮手。它由联合国教育、科学及文化组织(也称为联合国教科文组织)编写。
该论文认为,通过使用传统的女性名字命名语音助手,如 Alexa 和 Siri,并在默认情况下将声音渲染为女性声音,科技公司已经使用户预先适应了对女性的过时和有害的看法。更进一步,该论文认为科技公司未能建立适当的保护措施,以防止敌对、辱骂和性别化的语言。相反,大多数助手,就像 Siri 一样,倾向于转移攻击性或用一个狡猾的笑话来附和。例如,让 Siri 为你做一个三明治,语音助手会回答:“我不能。我没有调味品。”
报告指出:“像苹果和亚马逊这样的公司,员工绝大多数是男性工程团队,他们已经建立了人工智能系统,让他们女性化的数字助理用调情来迎接谩骂。” “因为大多数语音助手的语音都是女性,它发出的信号表明女性是......温顺且乐于助人的助手,只需按一下按钮或使用嘿或好等生硬的语音命令即可使用。除了指挥官的要求之外,助手没有任何代理权。它尊重命令并回应询问,无论他们的语气或敌意如何。”
已经有很多关于科技公司以传统的、受好莱坞影响的屈从智能理念的形象构建面向消费者的人工智能平台的陷阱的文章。未来,随着所谓的环境计算的兴起,语音助手很可能成为与硬件和软件交互的主要模式,因为我们周围始终存在各种与互联网连接的小工具。(想想斯派克琼斯是她的,这似乎是您今天可以找到的电影中对近期未来的最准确描述。)我们如何与为这些平台提供动力的日益复杂的智能互动可能会对我们如何与其他人互动以及服务产生深远的文化和社会影响工人,以及在日常生活和劳动力中扮演更重要角色的人形机器人。
然而,正如Business Insider去年 9 月报道的那样,亚马逊选择了女性声音,因为市场研究表明它会被认为更“有同情心”,因此更有帮助。另一方面,微软将其助手 Cortana 命名为基于其Halo视频游戏系列中非常具有女性身份的 AI 角色的现有认可;你不能把 Cortana 的声音改成男声,而且公司也没有说它什么时候计划让用户这样做。Siri,就其价值而言,是斯堪的纳维亚传统上对女性的称呼,在古挪威语中意为“美丽的胜利”。换句话说,这些关于 AI 助手的性别决定是有目的地做出的,而且是在经过大量反馈之后做出的。
科技公司已经努力摆脱这些沉浸在刻板印象中的早期设计决策。谷歌现在指的是它的各种助手语音选项,现在包括不同的口音,每个都有男性和女性选项,用颜色表示。您不能再选择“男性”或“女性”版本;每种颜色随机分配给每个用户的八个语音选项之一。该公司还推出了一项名为“Pretty Please”的计划,奖励那些在与 Google Assistant 互动时使用“请”和“谢谢”等短语的幼儿。亚马逊去年发布了类似的东西,以鼓励与 Alexa 交谈时的礼貌行为。
然而,正如报告所说,这些功能和性别声音选项还远远不够;这个问题可能会影响到人工智能和科技行业本身。上个月的一份新报告发现,人工智能研究领域主要是白人和男性。80% 的人工智能学者是男性,Facebook 和谷歌的人工智能研究人员中只有 15% 是女性,只有 10% 是女性。
教科文组织表示,解决这个问题的方法是尽可能创造接近性别中立的助理声音,并建立系统来阻止基于性别的侮辱。此外,该报告称,科技公司应该远离让用户像对待低等、屈从的人类那样对待人工智能,并且避免使此类有害刻板印象永久化的唯一方法是将语音助手改造为有目的地非人类实体。
- 标签:本站
- 编辑:刘柳
- 相关文章
-
联合国新报告称人工智能语音助手强化了有害的性别刻板印象
根据联合国发表的一项新研究,人工智能语音助手,其中许多默认为女性声音,正在强化有害的性别刻板印象…
-
性别刻板印象让女生放弃数学可能也让男生放弃了阅读
研究表明,“女孩子不擅长理科”的刻板印象,会让女孩子认为自己本就不适合学理科,从而不利于她们在理工科领域的学习和发展 [1]…
- 来华尔街英语北京中心 感受男生女生大不同
- 关于男女差异人们普遍存在着三种误区
- 男女平等:性别的博弈
- 2022年度性别平等十大新闻事件揭晓
- 性别平等 gender equality