端科技您的位置:首页 >互联网 >

AI中的女性如何能够改变世界

你有没有想过为什么这么多公司为机器人,虚拟助手和具有女性特质的AI编程?你有没有考虑过,如果算法背后有更多的女性,人工智能会有多么不同 - 不仅仅是声音和美学,还有功能上的?

AI中的女性如何能够改变世界

随着Alexa,Cortana,Siri,谷歌首页和大多数GPS系统默认为女性,人们对现代机器扬声器发出的娴静,慵懒的音调进行了充分的猜测。

一个理由?研究显示,男性和女性对女性声音的亲和力更强,促使像亚马逊这样的大型科技公司选择“Alexa”而不是“亚历山大”。尽管如此,即使消费者也无法忽视性别上的性别影响。需求驱动这样的决定。为什么在这种情况下女性的声音开始令人愉悦?

像Jason Mars这样的业内人士已经承认,女性AI声音在熟悉的性别刻板印象中扮演了有用的,从属的,无威胁的女性。当你深入挖掘时,这一点就会变得更加险恶。“通过将AI和智能机器编成女性,” 一篇关于Villainess 的文章断言,“我们正在强化我们自己的性别歧视和厌女症 - 包括对真实的人类女性。”

同样令人不安的是,公司对这些数字角色进行编程,以便在遭受性骚扰时保持娴静。最值得注意的是,亚马逊的Alexa 曾经用贬义言论回应 “感谢反馈” - 几乎不是机器人或女性赋权的预兆。

人工智能本身通过放大现有数据中的偏见来学习性别歧视行为。在一个例子中,女性在厨房和男性领域的照片不仅仅是人工智能的镜像,而是在一定的推动下,导致男性的错误,主要是因为他们接近烹饪用品。

这次谈话的一个关键因素是,人工智能仍主要由男性创造,尤其是白人。无论这些价值是有意还是无意,机器都必须按照创作者的要求承担价值和功能。组建一群男人并要求他们集体讨论AI应用程序,你会得到与一组女性完全不同的结果。这不是因为他们的才能不同,而是因为他们的生活经历,优先事项和世界观都是如此。

人工智能中的性别差距是惊人的,但由于计算机科学和STEM领域的女性缺乏,这并不足为奇。根据一些估计,只有13.5%的机器学习领域是女性,而18%的软件开发人员和21%的计算机程序员认为是女性。

解决方案显而易见且难以捉摸:我们需要一种更加交叉的AI编程方法,这是通过招募更多女性工程师实现的。但是,人们不能简单地在一个迅速的动作中转变文化规范; 我们需要进行长时间的比赛,鼓励女性在太晚之前参与这个日益重要的领域。

亚利桑那州立大学的人工智能和全球安全研究员希瑟·罗夫在一篇关于“外交政策”的文章中解释了如何将性别刻板印象加倍的智能算法对社会起作用。如果研究人员将偏见编入应用程序,则可能会进一步限制男性和女性遵守传统角色并购买所有相关产品。有针对性的广告已经产生了偏见,某些算法通过将高薪工作的列表定位 到男性来延长薪酬差距。设想这可能会有多糟糕,并没有多少想象力。

斯坦福人工智能实验室和斯坦福视觉实验室主任李飞飞可能最能说明风险。“如果我们不让女性和有色人种 - 真正的技术人员在做真正的工作 - 我们会偏向系统,”她说。“如果不是不可能的话,试图从现在开始逆转那十年或两年将会变得更加困难。现在是时候让女性和不同的声音进入,以便我们正确地建立它。“

幸运的是,李和其他女性现在正在努力工作,以便尽快收到回报。Li与Melinda Gates共同创立了AI4All,这是一家非营利组织,致力于通过教育,指导和早期接触AI的社会利益潜力,为代表性不足的人才创建管道。

SFU教授Angelica Lim通过AI4All为女孩们推出了为期两周的夏季浓缩计划, 名为“发明未来”。她正在SFU的“社交智能与移情机器人”实验室(ROSIE)开发具有同情心的人形机器人“不仅与人类进行对话,而且还有同情心。”

人工授精中的其他杰出女性,长期以来被视为其所在领域的象征,已经组织定期会议以实现其数量上的优势并朝着共同目标努力。“ AI中的女性 ”是一群国际AI和机器学习专家,他们也恰好是女性。他们的使命是帮助改善多样性并消除人工智能中的性别差距,同时帮助公司和活动寻找更多的该领域的女性专家。

假设这些计划成功,会有什么变化?如果人工智能算法背后更具公平性的世界与我们现在看到的那个有什么不同?

人工智能和博茨的副总裁Kriti Sharma表示,“让人工智能成为变革和提高生产力的革命的最大障碍是建造不代表整个人类的机器的危险。”她的公司制定了专门的人工智能道德规范,以指导从事面向人类的人工智能的企业。

那些代表所有性别和种族的机器将更有可能为我们所有人提供同样的服务,因为我们将进入一个未知的未来。随着人工智能进一步渗透医疗保健,政府和教育等领域,影响力和形成性空间,这些领域都有自己需要解决的性别问题,这一点尤为重要。

如果AI停止以牺牲平等为代价来支持资本主义追求,那么解决父权制导致的同工同酬,权利和机会的斗争也可能即将到来。

总而言之,个人助理的性别可能是潜在问题中最不重要的,但是那种使女性长期存在的思维产品以及那些需要修复的建设者。当女性在这个领域获得代表性时,人工智能中出现的放大偏见的新兴周期不仅会被短路而且会被逆转。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。