• 性别歧视
    亚马逊事件之后:人工智能可以消除招聘中的偏见吗? 文/Sushman Biswas 人工智能(AI)可以模仿和放大人类的偏见,然而,当负责任地使用它可以帮助克服偏见,做出客观的,数据驱动的决定。 2014年,当亚马逊(Amazon)组建团队开发其新招聘引擎时,它曾被寄予很高的期望。这个实验性的解决方案使用人工智能来对候选人的简历进行评分,以识别出最优秀的人才。然而,在测试解决方案后不久,研究小组发现该系统并没有以性别中立的方式对候选人进行打分。与任何深度学习算法一样,该算法依赖于对历史数据的训练。不幸的是,嵌入其中的现实世界数据具有显示性别偏见的模式,而人工智能算法最终将其纳入了功能。 亚马逊的招聘引擎经过培训,可以通过观察提交给公司的10年简历中的模式来评估应聘者。不出所料,大多数申请者是男性,这反映了整个科技行业的性别差异。因此,招聘引擎告诉自己,男性候选人更可取。该公司对涉及到可识别性别信息的简历进行了处罚——例如,如果搜索引擎在简历中遇到一个词,说应聘者是“女子篮球队”的一员,那么该公司对该简历的评分就会较低。 不幸的是,这并不是人工智能程序显示出固有偏见的第一个例子。还记得微软的Tay聊天机器人吗?古老的GIGO格言——“垃圾进,垃圾出”仍然成立,在没有保障措施的情况下,向情报系统提供不完整或不准确的数据,仍然是构建公平工作世界的一大威胁。 凯特琳·麦格雷戈(Caitlin McGregor)在专门接受人力资源技术专家采访时表示:“这一切都取决于人工智能是用什么样的数据来做出招聘建议。”McGregor是Plum组织的联合创始人兼首席执行官。Plum组织是一个受I/O心理学启发的人工智能解决方案,旨在消除人类的偏见。“根据技能和知识(考虑学位和多年工作经验)来评估应聘者一直是标准。当招聘经理看到一份简历上写着哈佛(Harvard)或一份享有声望的无薪实习,就会产生偏见。”这些资格往往指向特权,而不是职位适合。因此,当基于人工智能的招聘方案依赖于技能和知识(比如简历和社交媒体刮刮工具)时,同样的偏见就会持续存在,但范围更大。 凯特琳认为,克服偏见的关键是克服我们对技能和知识的痴迷,专注于人才,包括创新、适应能力和沟通能力。“换句话说,你在简历上找不到的东西,”她说。 “人才的基础是通过衡量应聘者的个性、解决问题的能力和社会智商来获得的特质和能力的结合。”数十年的行业/组织心理学研究不仅证明,在预测未来成功方面,人才的能力是技能和知识的四倍,而且他们的偏见也要小得多。 像凯特琳这样的人力资源主管有充分的理由批评传统的雇佣方式,因为这种方式会导致认知偏见。她表示:“我认为,一般来说,人才专业人士想要评估应聘者的不仅仅是一张纸,他们只是不知道如何评估。”“第一步是承认,我们把简历作为招聘过程的第一步,这是毋庸置疑的。”人工智能可能会有所帮助——但如果我们真的打算超越简历,让招聘过程更少偏见、更有预见性,那就意味着我们还必须超越简单地自动化简历关键字匹配的人工智能。 人工智能在招聘中带来的真正机遇是可伸缩性和自动化,可以应用于工业/组织心理学等曾经依赖(通常是昂贵的)咨询服务的实践。“人才数据的可预测性和客观性,现在可以向所有人、而不仅仅是《财富》(Fortune) 500强企业普及,”凯特琳(Caitlin)表示。 人们普遍存在的一个误解是,人工智能只是将既定的实践自动化;然而,复杂的人工智能程序的发展使得解决方案不再是自动化的重复性任务,而是解决人类认知能力有限而无法解决的复杂问题。凯特琳相信,“这是一种人工智能,它可以超越简单的简历筛选,实际上做出更客观、更有预见性的决定——只要输入正确的数据。” 人工智能会取代人工招聘吗? 尽管各行各业都在采用黑箱解决方案,但这种替代人类的解决方案是一种毫无根据的恐惧。人工智能可以基于模式识别或候选匹配为推荐服务;然而,把工作卖给候选人,或者与候选人建立关系,最终将取决于一个有人情味的招聘人员。 凯特琳说:“虽然人工智能听起来很老套,但它确实能让招聘过程变得更‘人性化’,因为它消除了繁琐的重复性工作,让招聘人员能够专注于人际关系。” 选择合适的AI招募方案 当人力资源技术领域的几乎所有供应商都声称已将人工智能集成到其工作流中时,您如何评估满足招聘需求的人工智能解决方案? 凯特琳分享了人力资源主管在专注于人工智能招聘解决方案之前必须考虑的三个关键因素。 首先要考虑的是可伸缩性。人工智能在招聘中的作用是解决昂贵、低效的咨询服务和招聘团队渠道的问题。如果你使用的人工智能没有为你节省时间、金钱和资源,那么它就没有完成它的工作。人工智能产品也应该能够随着公司的成长而成长。如果这不是一个长期的解决方案,那么这项技术就没有达到它的目的。 第二点是一致性。凯特琳对人力资源主管寻求人工智能招聘解决方案的建议是,确保人工智能能够准确地胜任所有组织职能部门的候选人。解决方案必须能够评估工程角色或中层管理角色的候选人,就像评估销售角色的候选人一样容易。 第三个也是最重要的参数是人工智能解决方案用于评估的数据类型。“市场上大量招聘人工智能解决方案使用的是网上搜集的数据。因此,大多数雇佣人工智能解决方案都使用相同的数据集!你不会想有一天抬头看一眼,就发现你的整个办公室都是由一个叫贾里德的白人组成的,他上了常春藤盟校,打过长曲棍球,读过《哈利·波特》(这是我在一个工业组织心理学协会会议上听到的一个真实的例子)!你想要看到一个由拥有对你的公司最重要的品质的人组成的团队。这就是所谓的“垃圾输入,垃圾输出”的意思——如果你的人工智能依赖于无用的数据,你就会得到无用的结果。因为人工智能不是魔法。为了让自己处于建立一个多样化团队的位置,重要的是要着眼于人才获取人工智能解决方案,以创建和综合客观、预测和新数据,”凯特琳说。 总之,人工智能应该被视为一个机会,而不是社会平等的阻碍者。毕竟,从算法中消除偏见比从人类中消除偏见要容易得多,因此人工智能最终有潜力构建一个公平、多样化和公平的工作世界。   以上为AI翻译,观点仅供参考。 原文链接:Can Artificial Intelligence Eliminate Bias in Hiring?  
    性别歧视
    2018年10月15日
  • 性别歧视
    LinkedIn重建Recruiter平台推出跟踪系统和性别“洞察力”,推动多元化发展 文/Ingrid Lunden LinkedIn,近日宣布一项重大改革。该公司将其Recruiter平台完全重建,与此同时推出了一款新产品,用来帮助雇主管理招聘、面试和招聘候选人。此外,LinkedIn也在尝试通过让招聘人员评估候选人的性别比例,来帮助企业提高多样性。 这些举措凸显出目前在新东家微软(Microsoft)的领导下LinkedIn的强势地位。LinkedIn上个季度的收入增长了37%(用户参与度增长了41%),带来了14.6亿美元的收入,现在它正准备为其用户群增加更多的货币化和服务。 LinkedIn的人才解决方案副总裁John Jersin在接受采访时说:“LinkedIn一直在加速增长,财务状况良好,人才解决方案也与此一致,所以我们觉得现在是做更多工作的最佳时机。” 。“我们超越了过去的产品,现在支持整个招聘流程,帮助求职者更多。” 同时,它在招聘市场面临着很多竞争,不仅仅是来自Facebook(它正在进行人才收购以构建更多智能工具帮助招聘流程,而不只是作为直接上市门户竞争),而且像ZipRecruiter这样的初创公司也带来了更加智能的旋转,使得人才与工作相结合。 “我们的运作规则与以往不同,”Jersin承认道。“候选人可以在网上找到,而且这个过程比过去更敏捷。因此,我们正在制定产品路线图以适应人才生态系统。” Recruiter redux 新Recruiter平台的主要特点是简洁,它将在未来几个月推出。多年来,随着LinkedIn在广告等服务上建立货币化功能,该公司为那些使用该平台播出就业机会或搜索候选人的后端体验变得越来越分散,Recruiter(主动搜索人员) ,Jobs(您发布的职位列表)和Media(您可能会宣传这些职位的广告)都基本上作为单独的实体存在。 现在,这三个产品将合并为一个平台,在这个平台上这三个产品将位于同一个数据池中,以便提高工作效率。例如,当一个工作现在被发布后,LinkedIn会利用有关谁点击了该链接、该链接会出现哪些搜索以及为谁出现的数据,来帮助定制招聘人员在主动寻找候选人时得到的搜索结果。对于LinkedIn是如何做到这一点,有一个人工智能和机器学习的因素:LinkedIn读取的数据越多,就越能给招聘人员提供更多相关信息。 这也意味着更大的盈利潜力:如果LinkedIn知道招聘人员正在积极寻找职位候选人,那么它也会知道招聘人员还没有发布招聘广告。现在,它能根据一个动作建议另一个动作。 如果LinkedIn为那些想要寻找工作机会但又不想在未来被广告或招聘人员盯上的人开发了一种类似于隐身选项的东西,那将会很有趣。LinkedIn表示,隐身模式目前只适用于在查看个人资料视图时屏蔽您的身份。 Talent Hub 与此同时,Talent Hub(如上图所示)是LinkedIn最新成果,这些产品与人们使用其高级功能的方式很接近。Talent Hub是一个ATS(HR术语,申请人跟踪系统),它将让招聘人员在整个面试和招聘流程中管理候选人。如今,已经有很多产品做到了这一点——比如smartrecruitment、Zoho Recruit和Jobvite——LinkedIn也将开始更好地整合这些产品。但现在它也将提供自己的服务来与他们竞争,其理念是参与不同阶段过程的不同人也可以更好地交流。 有趣的是,在LinkedIn开发更直接的招聘产品的同时,它也在塑造当前和未来如何雇用人员时可以使用的数据点类型。今天,它正在努力尝试以一种可能改变多样性比例的方式进行定制,特别是围绕性别。   几周前,LinkedIn推出了一款名为Talent Insights的产品,首次涉足商业智能领域,这使得公司能够深入了解自己招聘的趋势,以及与他们竞争或与之竞争的公司的趋势。 今天,LinkedIn正在添加一项新功能,让这些公司现在可以看到企业内部的性别分解。然后,当公司正在招聘时,他们现在还得到另一个细节:他们现在将知道在给定的申请人群或潜在的角色候选人中性别细分是什么。LinkedIn现在还将提供一种关于招聘人员的方式,以了解公司的招聘广告如何跨性别界面展示。 对于那些希望在这方面更加积极主动的公司,LinkedIn还推出了更多与多元化相关的在线教育课程:关于面对偏见,包容性领导和管理多样性等主题。 这些是LinkedIn在多元化领域的宝贵步骤,以及它在帮助公司思考它方面可能发挥的作用。Jersin承认,尝试查询通常与多样性相关的属性可能是“棘手的问题”。鉴于LinkedIn不会在人们的个人资料中询问这些类型的细节,如果不是不可能积极主动就很难搜索少数族裔候选人,它可以打开一堆蠕虫来说明如何使用这样的功能。 (作为衡量当今情况的一种标准,在LinkedIn上搜索一个曾在麻省理工学院(MIT)工作过的工程师,似乎比找到一个非裔美国女性工程师要容易得多。) 我的猜测是,这就是为什么领英在一开始就采取了一种不那么直接的方式,提供指导数据和其他补充信息,以及为什么该公司把性别放在首位,而不是其他多元化属性。 “我们需要仔细考虑这个问题以及如何构建其他属性的平台,”Jersin说。“我们正在探索这是一个复杂而具有挑战性的领域。” 不过,这是积极的一步,并且有助于为LinkedIn(及其客户)未来如何处理该问题奠定基础。该公司表示,其最近一项旨在确定招聘趋势的调查发现,多样性是当今最受欢迎的招聘方式,其中78%将其视为“非常重要”。 “这已经成为我们产品的指导原则,”Jersin说,他将公司的方法描述为“设计上的多样性”。   以上为AI翻译,内容仅供参考。 原文链接: LinkedIn rebuilds its Recruiter platform, launches tracking system and gender ‘insights’ in diversity push
    性别歧视
    2018年10月12日
  • 性别歧视
    亚马逊用AI筛简历被曝“性别歧视”,现已关闭应用 10月11日消息,据路透社报道,亚马逊的机器学习专家们发现了一个大问题,他们的新人工智能(AI)招聘引擎涉嫌歧视女性,为此已将其关闭。 一个戴有色眼镜的AI 五名知情人士表示,自2014年以来,这个团队始终在开发电脑程序以审查求职者的简历,目的是将寻找顶尖人才的任务自动化。自动化一直是亚马逊在电子商务领域占据主导地位的关键,无论是在配送中心内部还是制定价格决策时。 知情人士说,亚马逊的试验性招聘工具使用AI给应聘者打分,分数从一星到五星不等,就像购物者给亚马逊网站上的产品打分一样。其中一人说:“每个人都想要这个‘圣杯’。亚马逊真的想将其打造成引擎,给它100份简历,它会列出前五人,我们会聘用他们。” 但到2015年,亚马逊意识到其新系统并没有对软件开发人员和其他技术职位求职者进行性别中立式的评估。这是因为,亚马逊的电脑模型经过了培训,通过观察过去10年被提交给该公司的简历找出固有模式,并以此来审查应聘者。其中大部分简历来自男性,这也反映了男性在科技行业占主导地位的现状。 实际上,亚马逊的系统告诉自己,男性求职者更受青睐。这套系统对简历中含有“女子象棋俱乐部队长”等语句中的“女子”一词特别敏感。据知情人士透露,它还下调了两所女子学院的毕业生评级,但他们没有具体说明这些学校的名字。 亚马逊编辑了这些程序,使它们对这些特定的术语保持中立。但上述知情人士说,这并不能保证其AI系统不会设计出其他可能被证明具有歧视性的筛选求职者的方法。据不愿透露姓名的知情人士说,亚马逊最终在去年年初解散了团队,因为高管们对这个项目感到失望。 亚马逊的招聘人员在搜索新员工时查看了该工具提供的推荐信息,但他们表示,他们从来没有仅仅依靠其排名来做出判断。亚马逊拒绝就招聘引擎或其面临的挑战置评,但该公司表示,它致力于打造职场多样性和平等。 男性本身就多? 这些数据有什么问题呢?据路透社分析,可能是因为科技行业中的大部分技术岗位都是男性在做。自2017年起,路透社整理了一些公司公布的数据,从中可以看出,像谷歌、苹果、微软、Facebook这些公司,整体上男性占了2/3,而单独挑出技术岗位,男性比例则达到了将近4/5。 AI学会了人类的歧视 不过,数据量大小并不意味着少数数据就会被歧视,相信亚马逊的AI也不会傻到只选取简历数据中大多数人的共同特点,那样岂不是错过了少数天才? 在Hacker News和Reddit的评论区,一些更懂技术的网友把矛头对准了数据体现的亚马逊在招聘中现存的性别歧视问题。 从技术上讲,可以说这个人工智能是成功的,因为它模仿了亚马逊当前的招聘状态。 并给出了背后的逻辑。 机器学习过程不会引入任何偏差,但训练数据中存在的任何偏差都将在算法中忠实地展现出来。 也就是说,AI自己本身是一个天真无邪的“幼儿”,它不会自主的学会偏见和歧视,但如果给“幼儿”上课的“老师”亚马逊的招聘数据自身带了偏见,那么这些偏见就会“言传身教”给无辜的AI。 或者说,AI是从人类社会中,学会了人类的偏见和歧视。 我们不想让AI歧视女性,但这绝非易事,因为AI无法忽视它所学习的人类社会对女性的歧视。这绝对是一个难题,不仅仅是技术上的难题,更是哲学层面上的难题。 AI在无意中学会人类之恶,这并不是第一次发生。 此前的微软的聊天机器人Tay,就曾经学会了人类的那些极端言论,在Twitter上咒骂女权主义者和犹太人。 而招聘AI这一次,人类的错误让AI重蹈覆辙了。 “很显然,我们没有吸取微软Tay的任何教训。”有网友评论道。 这个AI靠抓关键词? 不只是训练数据的问题。路透社的报道中还披露了亚马逊训练AI的细节。 · 开发了500个针对特定工作职能及岗位的模型。 · 训练每个模型去识别过去求职者简历中出现的近5万个关键词。 · 模型算法按照重要程度给求职者的技能进行优先级排序。 所以这个AI,很大一部分工作是在抓关键词嘛。比如它偏好的“执行”、“抓取”这种词,在男性求职者的简历中出现次数更多,也从另一个维度造成了女性候选人的劣势。 因此,这也是导致性别歧视的一个原因。甚至,还可能会给人“钻空子”的机会。 Reddit上的一名网友评论称: “亚马逊阅读简历的AI从一开始就注定了要失败,因为任何人都可以去学习怎样写好一份简历。让我写一份医生的简历,我打赌我会比真医生写的要好。” 想一想那些“简历写作技巧”的培训,是不是都告诉你HR看一份简历只要二三十秒,简历里有某些关键词、重要数据就能吸引HR的注意? 因此,这种抓关键词的机制,就得以让很多人通过强行往简历里塞关键词,而获得更高的星级,造成了另一种不公平。 AI招聘,道阻且长 根据招聘公司CareerBuilder 2017年在美国进行的一项调查,55%的人力资源经理表示,将会在未来五年中采用AI,并将其作为日常工作中的工具。 一些“激进”或者说有大量招聘需求的公司,已经将AI应用到招聘环节中去了。比如希尔顿酒店,就在招聘的时候,会先利用聊天机器人面试,并为求职者匹配合适的岗位,之后再进入下一轮面试。 在接受采访时,希尔顿招聘副主管Sarah Smart表示,“人工智能会分析求职者的语调、眼神和回答的表情,来判断求职者是否对工作富有热情,从而来帮助我们筛选求职者。” 具体体验怎么样呢?体验过聊天机器人面试官的Japser Rey说,“和聊天机器人对话时,我不用担心自己会分神,而且机器人不会戴有色眼镜看人,相对更公平公正一些。” 相对来说,大部分公司并没有将AI放到具体的招聘决策环节之中,只是作为一个辅助工具。 百度:将AI应用到了招聘上,在今年的校园招聘中,采用AI分析简历、推荐岗位。 高盛:开发了简历分析工具,会将求职者与“最适合”的部门进行匹配。 LinkedIn:根据网站上发布的岗位消息,利用算法为雇主提供求职者的排名。 尽管人们对AI招聘并不十分待见,但却无法阻挡这样一个趋势:AI终将左右你找工作这件事。 它只会迟到,但不会缺席。   原文链接:亚马逊AI惹众怒:一个没有意识的程序,竟然自己学会了“重男轻女” 亚马逊用AI筛简历发现“性别歧视”? 最终关闭
    性别歧视
    2018年10月11日
  • 性别歧视
    不再忍耐职场性骚扰,这个聊天机器人将帮你匿名举报色狼 【AI星球(微信ID:ai_xingqiu)】2月8日报道(编译:田小雪) 当下,各行各业的性别歧视和性骚扰问题,可以说是层出不穷。那么,聊天机器人能帮助解决这个问题吗? Julia Shaw是一位犯罪心理学家,同时也是伦敦大学学院的记忆专家。她就表示,希望最近刚上线的Spot能够帮忙解决这一棘手问题。Spot是一款聊天机器人,由Shaw、Dylan Marriott和Daniel Nicolae三人联手开发,以人工智能和记忆科学为作用基础。 其实,在现实生活中,试图强化性别歧视和性骚扰报告流程的产品和服务,并不止Spot一个,之前就出现过不少。比如说STOPit,在这款应用程序的帮助之下,公司员工能够匿名上报自己在工作过程中遭到的歧视、骚扰、恐吓和欺诈等等。再比如说Empower Work,它能够为员工提供以同行为基础的文本支持,以及以网络为基础的聊天支持,帮助他们上报一些道德伦理问题和不那么明显的微暴力问题。又比如说,Jornaler@能够帮助那些一天一结的临时工上报拖欠工资等问题,维护自己应有的薪酬利益。 但是,Spot的与众不同之处,用Shaw的话来说,就是能够利用背后的人工智能技术进行认知采访,这是同类机器人所少有的功能,可以说是行业首创。 Shaw解释说,所谓认知采访,首先会让员工在一种完全放松的状态下一五一十地描述自己所遇到的问题。接着,就会根据员工的描述来提出一些有针对性的、较为具体的问题。之所以说这一技术的应用较为新颖、较为高效,主要就在于它提出这些问题的方式。因为所有的问题都是开放式的,没有固定答案,不会或隐或显地引导员工按照某种特定形式来回答问题。这种认知采访最开始是由科学家发明出来的,主要目的是帮助警察获得一些可靠性较高的、关于人生重大事件的叙述内容。 数十年的研究表明,这一技术现在已经日益精确,能够在最大程度上减少采访中那些不准确的信息内容。就目前而言,如果想要采访那些带有负面情绪和痛苦经历的人,这已经就是最好的方式了。 性别歧视和性骚扰,不仅关乎负面情绪这么简单的问题,还牵涉到是否上报公开、为自己争取正当权益的问题。对于那些受到过性骚扰的人来说,公开是需要很大勇气的,他们通常都羞于启齿或者畏惧权势忍气吞声。根据美国同等就业机会委员会(Equal Employment Opportunity Commission)的报告显示,虽然前段时间风靡全球的反性骚扰运动#MeToo,确实是鼓励不少人站出来说出自己遭到性骚扰的痛苦经历,但是大多数有着正经工作的职业女性(将近70%),还是选择默默忍受,她们不敢向上级反映自己曾经遭到过性骚扰。 至于原因,或许还是在于我们无法从根本上来准确定义性骚扰行为。再加上,公开举报的过程往往冗长而复杂,需要较为强大的心理承受能力。最重要的是,对于那些职业女性来说,她们还很害怕事件曝光之后自己遭到报复。 Shaw相信,认知采访技术能够切实帮助这些受害者勇敢说出自己遭到的性别歧视和性骚扰。尽管与警方报告一样,工作过程中的投诉举报,通常都有着较为严重的后果。 对于任何网络用户,Spot都是完全免费使用的。他们可以与Spot聊天,就像正常情况下与其他人聊天一样,也是文字消息界面,只不过屏幕另一边与你聊天的并不是真人,而是机器人。用Shaw的话说,机器人是不会对用户评头论足的,用户与它的对话内容永远都是高度保密的。只有经过用户允许,它才会按照指示向特定的人分享。 用户在认知采访过程中叙述完自己的问题之后,Spot就会根据采访结果生成形式合格、内容私密的PDF报告。每一条具体内容都是有明确时间标示的,如果需要的话,可以充当证据使用。之所以说它能够保证匿名,主要是因为它直接将报告从Spot的邮件服务器发送给用户提供的指定邮箱地址,比如说值得信任的同事、公司上级以及人力资源总监等等,无需经过用户自己的邮箱以及其他个人联系方式发出。 目前,这款聊天机器人正处于测试阶段,处理的都是一些比较敏感和紧张的问题,包括与怀孕和宗教信仰相关的性别歧视和性骚扰等等。Shaw还表示,如果你想要了解一家公司的内部文化,那么那些对公司不满的离职员工将会是比较理想的途径。她表示:“如果某位员工是由于遭到性别歧视或性骚扰而离职,那你就一定要注意这个问题了,看一看公司内部现在是否仍然存在着这些现象。” 不过,匿名举报也带来了一个问题。那就是,如果举报人在报告中没有明确自己的身份,那收到这些报告的人可能就很难判断举报人是否真的是公司员工。毕竟在与这些公司合作的过程当中,真实性验证是一大关键。Shaw指出:“现阶段,我们还在努力为各家公司开发一个能够提高接收投诉信件和处理投诉内容效率的管理系统。”对于那些报告,Spot不会出于任何目的留档,也不会从中赚取任何收益。 不过,在Shaw看来,任何收到举报信件的人都应该重视起来并且进行调查,哪怕他们无法确定举报人的身份信息。作为雇主,你在这些问题上的态度以及你针对举报信给出的回应,关乎员工对公司的信任问题。从公司角度出发,重视这些员工投诉是法律规定的义务。 但可惜的是,在现实生活中,有不少人已经对性别歧视和性骚扰现象习以为常了,不再视其为问题,从而也就相当于纵容了这些不正当行为。 来源:猎云网
    性别歧视
    2018年02月08日
  • 性别歧视
    就业性别歧视真的存在吗?我们分析了1382份简历,得出了一个答案 编者按:本文转载自微信公众号“DT数据侠”(ID:DTdatahero),作者 | Prasanna Parasurama,编译 | 慈兆佳 胡世龙。 在求职时,性别真的有影响吗?不同行业、不同职业类别的人对此或许有不同看法。这样的看法是如何产生的?有没有一种科学的方法来衡量呢?美国旧金山的一位数据侠Prasanna Parasurama通过对1382份简历的分析得出了结论:性别不平等往往和求职者的个人客观条件无关,而更多来自公司主管不可控的主观因素。 用大数据的方法来衡量职场的性别不平等 在科技业,求职时的性别不平等一直是个重要话题。但针对该议题,在实际操作层面却鲜有基于大数据的系统性研究。 对于那些拥有大量数据的企业来说,缺乏一个严格而科学的系统很容易导致人力资源部门仅仅根据道听途说来推测性别不平等问题产生的原因,而忽略了真正的根源。 为了这个目的,本文提出了一种可重复地用来评价求职性别不平等的系统研究方法,并且附带使用这种方法进行评价的案例。 样本和研究方法:基于1382份简历的数据分析 这次研究中用到的是一个数据工程师职位的1382名求职者的简历数据,其中1029人为男性,占74.4%,353为女性,占25.5%。 需要指出的是,因为不知道这些求职者的性别(DT君注:在美国等一些国家,为了避免各种偏见,简历一般不附带求职者个人照片和性别信息等),因此上述性别人数和比例是基于求职者的姓名和Atipica公司(DT君注:即本文作者所在的公司)的性别预测模型得到的,总的准确率可以达到96%,但会产生4%的误差。在后续的分析中,这一误差也可能会有所影响。 而求职者的职业技能也由Atipica公司的技能映射模型获得。 首先,我们需要明确的是,如何通过指标来衡量性别不平等? 通过比较特定职位的男女求职者的被拒比例,我们可以确定是否存在潜在的性别不平等,因为在其他条件相同的情况下,理论上被拒比例应该是接近的。 (图片说明:被拒比例=被拒的申请者人数/总申请人数) 在这项研究中,我们通过比较在审查求职申请阶段的被拒率来衡量不平等。选取这个阶段的原因主要有以下两个: 在审查求职申请的阶段,雇主会有多重方式来评价一个求职者,例如,电话沟通技巧等,而不是单一通过简历来评价。为了减少不可控因素,我们把数据的收集固定在这个阶段。 审查求职申请通常对于之后的进一步考察影响最大。我们发现约90%的求职者在这个阶段会被拒。 那么在审查求职申请阶段产生的被拒率的差异都可以被归结为: 客观因素:工作经验、教育背景和技能体系。 主观因素:被认为教育背景不符合、被认为工作经验不符合、故意或者非故意的偏见。 由于主观因素的本质,它本身是不可控的,所以我们把研究对象限定在客观因素。 我们基于以下假设对统计数据的显著性做了测试: 在测量显著性过程中,我们必须要考虑到两类误差。一是样本误差,二是性别预测的误差(4%)。考虑到性别预测误差,我们放弃了T检验(DT君注:即t-test,是用t分布理论来推论差异发生的概率,从而比较两个平均数的差异是否显著)。这类传统参数测试,而改用了置换测试并且配合蒙特卡洛方法,在每次重复测试中都在男性和女性中做了4%的样本交换,并且验证了重复性假设。 数据分析:男性和女性技能相差不大,但女性被拒率更高 被拒率的差异: (图片说明:男女求职者的被拒比例) 男性和女性的被拒率分别为83.0%和88.6%,女性比男性高出5.6个百分点,这个偏差在统计上表现出显著性(p=0.03)。紧接着作者评估了各项客观因素在偏差显著性上起的作用。 技能总数量上的差异: (图片说明:男女求职者职业技能数量的分布) 女性求职者简历上平均罗列96项技能,男性求职者简历上平均罗列93项技能。根据上图所显示出来的情况,技能数量的平均数和中位数相差不大。 可以发现,尽管在技能平均数量上存在差异,但这种差异一方面小到不存在实际影响,另一方面在统计显著性上也不显著(p=0.38)。 技能体系上的差异: (图片说明:职业相关技能的分布) 为了查明技能体系上的差异,我们根据技能映射模型找出了34项核心技能,并把我们从简历里挖掘出来的技能进行比较。上图显示了一些技能在简历中呈现的比例,例如,不论男女,约80%的求职者都在简历中提到Java。 通过定性分析,我们可以看出技能分布在男女求职者上区别不大。 定量分析男女求职者在技能集合上的相似性,我们可以看出分布的标准差。 我们用 Aᵢ和Bᵢ分别表示掌握技能i的男女求职者比例,例如,A_java = 0.8并且B_java = 0.8。则n种技能的总平均偏差比例为: 这就意味着,平均来看,对于每一项技能,男性掌握该技能的比例都要高于女性掌握该技能的比例2.2个百分点,偏差并不大。 偏差的百分数看上去直观,但缺点是我们并不知道相对偏差。我们进一步利用平均数标准化偏差计算相对偏差: 在标准化之后,技能集合上男女求职者的偏差为5.3% —— 换句话说技能集合上94.7%都是一样的。 5.3%的偏差虽然小,但也可能影响巨大,尤其是如果这种差异体现在核心技能上时。 为了搞清楚这个问题,我们运用置换测试/蒙特卡洛法计算了男女求职者在特定技能掌握比例上的偏差。比如,如果50%男性和53%女性都会“hadoop”,我们就要计算这3%的差异是不是显著。 结果发现,在剩余的33项技能中,只有SQL和统计两项技能显示出性别差异性,而且这两项都是女性的掌握程度高于男性。 大体上,我们可以说在技能的大多数方面男女之间不存在差异,而SQL和统计上又是女性有显著的优势。 工作经验上的差异: 下表列出了男女求职者工作年限的平均数和中位数,值得注意的是职位要求并不包含工作年限。 我们发现工作年限上只有半年的差异,尽管在差异上表现出显著性,但在实际录用的层面上并没有什么实际意义,很少有公司会把半年经验的缺失作为拒绝的主要因素。 教育背景上的差异: 下表列出了求职者最高学历的分布情况(百分比),职位的要求是理工科本科或者硕士毕业生。 女性求职者比男性求职者在高学历中所占比例更高,82.7%的女性求职者拥有硕士及以上学历,只有69.9%的男性求职者拥有同等学历。这方面的差异非常显著。 结论 从上面的研究可以发现,女性求职者在被拒率上高出男性求职者5.6个百分点,尽管女性拥有高学历的比例更高、工作年限上和技能体系上也没有实际意义上的差异。 当然,如果仅仅根据上面的实验结果就得出“被拒率上的差异是因为有意或者无意的偏见”的结论,还缺乏充分的理由。但考虑到在实验中至少已经排除一些客观因素的影响,那么有理由相信这种差异更有可能是来自于主观因素的影响。 研究的局限性 当然,需要指出的是,本次实验还具有一些局限性: 1. 经验和教育背景的含金量 尽管工作经验和教育背景是简历审查的一个基准线,但其中的含金量却是极其关键的因素,甚至影响到能否通过简历审查。然而,这方面又太主观并且难以控制。 2. 技能不是纸上谈兵 我们仅仅根据技能一栏填写的情况来考虑,那么会造成一个熟练掌握该技能并有5年经验的求职者和一个刚会一点的菜鸟求职者没什么区别的情况。 3. 所有相关技能所占权重都一样 全部34项技能权重都一样,这在简历审查时肯定不现实,很明显一些职位对于一些核心技能的要求要高过其他技能,也就是权重更重。然而,这方面我们可以通过招聘官给出每项技能的权重来解决。 4. 之前做过的项目没有被考虑进去 求职者之前做过的项目或者写过的代码(比如github等)有时在简历审查时是会被调阅的,而这一点在本次实验中没有被考虑。 注:本文编译自Medium.com网站文章《A Framework to Assess Gender Inequity in Hiring using Data》
    性别歧视
    2017年12月04日
  • 性别歧视
    美薪酬性别歧视主要体现在激励工资和奖金上 [摘要]公司市值每减少1%,女性高管的薪酬将下降63%,而男性高管仅下降33%。   你可能听说过这样一个事实:职场女性赚的钱一般都不如男性赚的钱多。   纽约联储银行(New York Fed)的自由街经济学(Liberty Street Economics)博客网站的研究员们对薪酬性别歧视问题进行了专项研究,并且将这个问题剖析为三个部分。   研究员们对比了女性高管与男性高管在奖金、股票期权、股票赠与、基本工资和其他形式的薪酬上面的差异,研究数据来自标准普尔ExecuComp数据库从1992年至2005年间的数据。   他们研究的对象主要是公司最高层的高管,包括首席执行官、董事长、副董事长、总裁、首席财务官和首席运营官。   简单地说,他们得出的结论就是女性高管获得的奖金要相对少一些。这主要基于以下三项发现:   1、 薪酬性别歧视主要体现在激励工资和奖金上 激励工资在女性高管的总薪酬中所占的比例比此类工作在男性高管总薪酬中所占的比例要小很多。   女性高管和男性高管在激励工资上面的差异占到了薪酬性别差异总数的93%。   研究员们发现,最大的薪酬性别差异项目是奖金和其他形式的激励薪酬。女性高管获得的奖金总额只有男性高管奖金总额的71%,女性高管获得的其他激励薪酬总额只有男性高管获得的其他激励薪酬总额的68%。其次还有股票期权类的薪酬,女性高管在这方面获得的薪酬只有男性高管所获薪酬的84%。   2、 公司经营状况好的时候,女性高管的薪酬赶不上男性高管的薪酬 女性高管的总薪酬与公司业绩之间的关联度相对更低一些。公司价值增长对男性高管薪酬增长带来的推动作用比对女性高管薪酬增长造成的推动作用更大和更明显。   研究员们发现,公司市值每增加1%,男性高管的薪酬将增加6万美元,而女性高管的薪酬将只增加1万美元。   3、 公司经营状况不佳的时候,女性高管的薪酬更加比不上男性高管的薪酬 相反,公司价值下滑对于女性高管薪酬的影响却比它对男性高管薪酬的影响更大一些。   公司市值每减少1%,女性高管的薪酬将下降63%,而男性高管的薪酬下降幅度只有33%。   研究员们发现,从1992年到2005年,女性高管的累计薪酬总额因为公司市值变化而下降了16%,而同期男性高管的累计薪酬总额却增加了15%。   这意味着什么? 高管性别导致薪酬上的差异说明薪酬与绩效之间的关系可能被扭曲了,这会令不平等的现象加剧。   因此研究员们建议公司以及董事会认真研究绩效薪酬方案,在做出有关薪酬的决策时提高透明度。(林靖东)   来源:BI中文站
    性别歧视
    2015年08月26日