• 招聘工具
    亚马逊用AI筛简历被曝“性别歧视”,现已关闭应用 10月11日消息,据路透社报道,亚马逊的机器学习专家们发现了一个大问题,他们的新人工智能(AI)招聘引擎涉嫌歧视女性,为此已将其关闭。 一个戴有色眼镜的AI 五名知情人士表示,自2014年以来,这个团队始终在开发电脑程序以审查求职者的简历,目的是将寻找顶尖人才的任务自动化。自动化一直是亚马逊在电子商务领域占据主导地位的关键,无论是在配送中心内部还是制定价格决策时。 知情人士说,亚马逊的试验性招聘工具使用AI给应聘者打分,分数从一星到五星不等,就像购物者给亚马逊网站上的产品打分一样。其中一人说:“每个人都想要这个‘圣杯’。亚马逊真的想将其打造成引擎,给它100份简历,它会列出前五人,我们会聘用他们。” 但到2015年,亚马逊意识到其新系统并没有对软件开发人员和其他技术职位求职者进行性别中立式的评估。这是因为,亚马逊的电脑模型经过了培训,通过观察过去10年被提交给该公司的简历找出固有模式,并以此来审查应聘者。其中大部分简历来自男性,这也反映了男性在科技行业占主导地位的现状。 实际上,亚马逊的系统告诉自己,男性求职者更受青睐。这套系统对简历中含有“女子象棋俱乐部队长”等语句中的“女子”一词特别敏感。据知情人士透露,它还下调了两所女子学院的毕业生评级,但他们没有具体说明这些学校的名字。 亚马逊编辑了这些程序,使它们对这些特定的术语保持中立。但上述知情人士说,这并不能保证其AI系统不会设计出其他可能被证明具有歧视性的筛选求职者的方法。据不愿透露姓名的知情人士说,亚马逊最终在去年年初解散了团队,因为高管们对这个项目感到失望。 亚马逊的招聘人员在搜索新员工时查看了该工具提供的推荐信息,但他们表示,他们从来没有仅仅依靠其排名来做出判断。亚马逊拒绝就招聘引擎或其面临的挑战置评,但该公司表示,它致力于打造职场多样性和平等。 男性本身就多? 这些数据有什么问题呢?据路透社分析,可能是因为科技行业中的大部分技术岗位都是男性在做。自2017年起,路透社整理了一些公司公布的数据,从中可以看出,像谷歌、苹果、微软、Facebook这些公司,整体上男性占了2/3,而单独挑出技术岗位,男性比例则达到了将近4/5。 AI学会了人类的歧视 不过,数据量大小并不意味着少数数据就会被歧视,相信亚马逊的AI也不会傻到只选取简历数据中大多数人的共同特点,那样岂不是错过了少数天才? 在Hacker News和Reddit的评论区,一些更懂技术的网友把矛头对准了数据体现的亚马逊在招聘中现存的性别歧视问题。 从技术上讲,可以说这个人工智能是成功的,因为它模仿了亚马逊当前的招聘状态。 并给出了背后的逻辑。 机器学习过程不会引入任何偏差,但训练数据中存在的任何偏差都将在算法中忠实地展现出来。 也就是说,AI自己本身是一个天真无邪的“幼儿”,它不会自主的学会偏见和歧视,但如果给“幼儿”上课的“老师”亚马逊的招聘数据自身带了偏见,那么这些偏见就会“言传身教”给无辜的AI。 或者说,AI是从人类社会中,学会了人类的偏见和歧视。 我们不想让AI歧视女性,但这绝非易事,因为AI无法忽视它所学习的人类社会对女性的歧视。这绝对是一个难题,不仅仅是技术上的难题,更是哲学层面上的难题。 AI在无意中学会人类之恶,这并不是第一次发生。 此前的微软的聊天机器人Tay,就曾经学会了人类的那些极端言论,在Twitter上咒骂女权主义者和犹太人。 而招聘AI这一次,人类的错误让AI重蹈覆辙了。 “很显然,我们没有吸取微软Tay的任何教训。”有网友评论道。 这个AI靠抓关键词? 不只是训练数据的问题。路透社的报道中还披露了亚马逊训练AI的细节。 · 开发了500个针对特定工作职能及岗位的模型。 · 训练每个模型去识别过去求职者简历中出现的近5万个关键词。 · 模型算法按照重要程度给求职者的技能进行优先级排序。 所以这个AI,很大一部分工作是在抓关键词嘛。比如它偏好的“执行”、“抓取”这种词,在男性求职者的简历中出现次数更多,也从另一个维度造成了女性候选人的劣势。 因此,这也是导致性别歧视的一个原因。甚至,还可能会给人“钻空子”的机会。 Reddit上的一名网友评论称: “亚马逊阅读简历的AI从一开始就注定了要失败,因为任何人都可以去学习怎样写好一份简历。让我写一份医生的简历,我打赌我会比真医生写的要好。” 想一想那些“简历写作技巧”的培训,是不是都告诉你HR看一份简历只要二三十秒,简历里有某些关键词、重要数据就能吸引HR的注意? 因此,这种抓关键词的机制,就得以让很多人通过强行往简历里塞关键词,而获得更高的星级,造成了另一种不公平。 AI招聘,道阻且长 根据招聘公司CareerBuilder 2017年在美国进行的一项调查,55%的人力资源经理表示,将会在未来五年中采用AI,并将其作为日常工作中的工具。 一些“激进”或者说有大量招聘需求的公司,已经将AI应用到招聘环节中去了。比如希尔顿酒店,就在招聘的时候,会先利用聊天机器人面试,并为求职者匹配合适的岗位,之后再进入下一轮面试。 在接受采访时,希尔顿招聘副主管Sarah Smart表示,“人工智能会分析求职者的语调、眼神和回答的表情,来判断求职者是否对工作富有热情,从而来帮助我们筛选求职者。” 具体体验怎么样呢?体验过聊天机器人面试官的Japser Rey说,“和聊天机器人对话时,我不用担心自己会分神,而且机器人不会戴有色眼镜看人,相对更公平公正一些。” 相对来说,大部分公司并没有将AI放到具体的招聘决策环节之中,只是作为一个辅助工具。 百度:将AI应用到了招聘上,在今年的校园招聘中,采用AI分析简历、推荐岗位。 高盛:开发了简历分析工具,会将求职者与“最适合”的部门进行匹配。 LinkedIn:根据网站上发布的岗位消息,利用算法为雇主提供求职者的排名。 尽管人们对AI招聘并不十分待见,但却无法阻挡这样一个趋势:AI终将左右你找工作这件事。 它只会迟到,但不会缺席。   原文链接:亚马逊AI惹众怒:一个没有意识的程序,竟然自己学会了“重男轻女” 亚马逊用AI筛简历发现“性别歧视”? 最终关闭
    招聘工具
    2018年10月11日
  • 招聘工具
    Greenhouse与IBM达成合作,宣布集成AI招聘工具 文/KYLE WIGGERS 找到合适的求职者并不容易。根据CareerBuilder的一项调查显示,大约42%的雇主担心他们无法找到所需的人才,而72.8 %的雇主表示他们正在努力寻找相关的候选人。但人工智能(AI)可以提供帮助,或者说是Greenhouse Software可以——一家总部位于纽约的B2B人才收购创业公司。 据外媒9月17日报道,Greenhouse宣布与IBM合作,将Watson Talent和Greenhouse的客户服务整合在一起。 (It today announced a partnership with IBM that’ll customers of both Watson Talent and Greenhouse integrate the two services.) Greenhouse首席执行官Daniel Chait说:“Greenhouse得知那些有大量招聘需求的公司已经取得成功。” “我们与IBM Watson的合作和直接集成标志着我们解决方案中的一项重要创新——使客户能够扩展他们的团队,同时也为其提供出色的候选体验。” 新的和现有的Greenhouse客户,包括Warby Parker,Airbnb和Cisco Meraki等2,600多家公司,将不受限制地访问IBM Watson 候选助手,这是一套AI工具,可以基于求职者的个性,技能和兴趣将工作与候选人匹配(反之亦然)。当然,这也是Greenhouse现有仪表板的补充,它允许公司收集各种渠道的数据(例如员工是否通过LinkedIn或GlassDoor提交了工作样本)并生成候选“记分卡”以帮助面试官对申请进行分类。 在候选助手功能中,有一个聊天机器人直接与职业页面集成,并回答有关申请流程的基本问题,以及Watson Rank,一个自然语言处理和预测平台,将简历与适用的工作相匹配。 根据IBM的说法,候选助手平均将应用程序转换率提高三倍并减少候选人弃权,其用户获得面对面访谈的可能性增加64%。 “Greenhouse的客户正在高速增长,需要以更加个性化的方式吸引高质量的求职者,”IBM Watson人才与协作解决方案总经理Bob Schultz在一份声明中表示。“合作伙伴,我们正在帮助Greenhouse及其客户提供卓越的候选体验,并在AI的帮助下快速指导求职者找到合适的位置。” Greenhouse和IBM并不是唯一的将人工智能应用于招聘问题的公司。Hiretual 最近为其自动候选采购技术筹集了500万美元。 Vervoe 在8月推出了一个人工智能平台,用于评估申请人的在职技能,并自动推荐最佳射手来招聘经理。今年夏初,市场在职ZipRecruiter首次推出了候选校准,该校准让雇主对潜在的工作匹配进行评级,以便在其数据库中找到类似的候选者。 但至少到目前为止,Greenhouse的策略足以赢得像Riverwood Capital这样的投资者,后者在7月参与了5000万美元的融资。自2012年以来,这家初创公司共筹集了1.1亿美元。 在筹款公告发布时,Greenhouse公司首席执行官Chait表示,该公司将利用新资本来扩展其多元化和包容性功能,该功能可以组织人口统计数据,并建议用户在撰写招聘信息、进行访谈和举荐时可以更公平地行事。 注:以上内容由AI翻译,观点仅供参考。 原文链接:Greenhouse integrates IBM Watson Talent’s AI-powered recruitment features
    招聘工具
    2018年09月18日
  • 招聘工具
    [校招宣讲会神器]试试这个免费工具,动动手指解决掉繁琐的宣讲会管理 如果您是负责校园招聘宣讲会的HR,努力辨识过签到登记表上龙飞凤舞的个性签名,感叹祖国青年才俊“不拘一格”造成纸资源极度浪费之余,这里有一款实用的工具不容错过! 数字化的HR管理 「优面宝宣讲会」可以帮助您在校园招聘宣讲会中轻松统计到场人员签到信息。过去准备一场校园招聘会,HR既要一个一个发布通知,又要统计人员到场情况、整理简历......经历过的人都懂——“累感不爱”。但是,「优面宝宣讲会」从宣讲会统计人员信息到收集简历资料等方面,完全揽下了这项繁琐的事务,使HR从事务性工作中解脱出来,将精力更多地放在宣讲会的真正目的上——招聘到合适的优秀人才。学生在签到成功之后还可以填写简历信息或上传个人简历,方便企业查看筛选到合适的人才。 贴心的细节服务 把「优面宝宣讲会」系统自动生成签到二维码放在会前的预告手册中将是个不错的选择。当学生拿到宣传手册后随时可以通过扫码登记参与宣讲会。并且,在宣讲会开始前,公司HR再也不用一个一个打电话提醒了,「优面宝宣讲会」会自动发送通知提醒,学生也不用担心错过宣讲会时间! 良好的签到体验 我们都知道,过去签到现场都需要挨个排队登记,宣讲会现场火爆起来,登记台前就会被围得水泄不通,有时候宣讲会开场时间都不得不拖延一阵,对于企业和学生来说都是一种时间的浪费。 现在通过「优面宝宣讲会」,学生只需扫描二维码,在手机上填写信息即可签到,这样做大大提高了效率,也为企业节省了不少人力和时间。此外,当学生完成签到任务后,招聘人员扫描管理二维码,输入项目管理密码就可以查看签到情况和签到人员信息。   根据官方介绍优面宝宣讲会主要有几个特点: 强大的雇主品牌 良好的签到体验 实时掌握宣讲会 数字化的HR管理 预先报名及时提醒 多种推广模式 核心功能: · 宣讲会报名 · 宣讲会签到 · 宣讲会任务 · 宣讲会统计 · 智能通知提醒 · 雇主品牌呈现   首先打开优面宝的主页(www.umianbao.com)完成注册,您将看到如下界面。在此可以快速添加宣讲会基础信息(如项目名称、公司名称、时间地点等),以及设置参会任务(比如:请浏览优面宝网站)。完成以上基本操作后,系统将会自动生成签到二维码及管理二维码。 学生通过扫描,在手机端上可以看到如下情况。   相比过去宣讲会通知不到位、宣讲会签到统计难和人员信息杂乱无序等问题,优面宝极极大地方便了HR管理。此外,优面宝还有智能通知提醒功能,实时掌握宣讲信息。 除了校园招聘外,更多的应用场景等你来开发!如果你在寻找一款宣讲会管理工具,不如先来体验试试吧!这是免费的!   (雇主品牌呈现) (签到二维码)    
    招聘工具
    2018年09月04日
  • 招聘工具
    隐藏在人工智能AI招聘工具背后的问题,值得我们HR思考! 编者注:这个主要是聊到AI招聘工具可以帮助消除偏见,但这背后并不是一蹴而就的,需要不断努力,举了两个小栗子:AI面部识别会把黑人的犯罪倾向增加,而白人就会低。还有就是高质量的程序员喜欢看漫画。。。当然这个关联性是否真的,都是AI带来的问题。 推荐阅读下,蛮有意思的。 作者:Ben Whitford   土耳其语没有性别代词:“o”这个词在英语中是由“他”、“她”或“它”完成的。这种语言怪癖对机器翻译工具提出了挑战:将土耳其语翻译成英语,像谷歌翻译这样的工具必须猜测其主体的性别——在这个过程中,往往会暴露出其固有的偏见。 例如,谷歌将土耳其语“o bir doktor”翻译成“他是一名医生”和“o bir hem?”她是个护士。谷歌的算法同样认为,总统或企业家是男性,但保姆、教师或妓女是女性。即使是性格特征也会与假定的性别一致:一个努力工作的人被认为是男性,而懒惰的人被认为是女性。 谷歌的程序员没有对这些刻板印象进行编程;该软件利用人工智能研究真实世界的文本,并创造出反映人们实际使用语言的方式的翻译。换句话说,谷歌翻译的偏见是我们自己的。“机器学习算法会发现有偏见的模式,并学会像现实世界一样有偏见,”微软研究公司的Rich Caruana说。 这应该会让人力资源经理们踌躇不前,他们认为,算法是为了消除招聘过程中的偏见。2016年,CIO在一篇文章中预测,人工智能将把招聘转变为“对任何人类偏见免疫的过程”。“一个袖珍计算器不能是种族主义的,理论上是这样的,一个自动分类简历的系统应该是公正的:”简单地使用这样一个自动化的、客观的过程,就有可能大大减少人类偏见的范围。 很容易明白为什么管理人员渴望解决偏差问题。自从美国的“民权法案”和英国的“种族关系法案”禁止明显的歧视以来,已有数十年的时间了,但较不明显的偏见仍然是一个主要问题。研究表明,平均而言,具有刻板印象的非洲裔美国人姓名的简历比用同样的白名单提交的简历要少36%,而且自20世纪70年代以来没有改变,社会学家林肯奎利安说。 奎里安说,并不是说管理者有意识地歧视别人,他去年发表了30项涉及55,842份申请的招聘偏见研究的分析报告。相反,决策者受到无意识偏见的影响,这些偏见基于他们可能不知道的根深蒂固的偏见。“定型是一种缓慢而难以改变的弹性事物,”奎利安说。“这是令人沮丧的现实 - 超过35年,它没有改变。” 在'黑盒子'里面 越来越多的无意识偏见意识促使人们对自动化招聘系统产生兴趣,但这种偏见的普遍性意味着,使用真实世界的数据进行培训的人工智能工具不是公正的。 谷歌翻译的性别问题不是一个孤立的案例。在许多行业中,有无数的例子都是机器学习工具复制了他们的血肉之躯的偏见。 考虑到研究人员发现该面部识别工具是准确的白人99%,但准确的黑人女性只有65%。并且Google的在线广告算法被发现更有可能向与名声不佳的人展开有关逮捕的广告。而且一名被法官广泛使用的人工智能工具被发现错误地将黑人被告标记为重新犯罪的高风险,几乎是白人被告的错误率的两倍。 很容易看出这样的偏见会如何污染与申请人职位空缺相匹配的工具或者通知与奖金和晋升有关的决策。审查编程职位申请的人工授精工具可能会注意到,公司目前的程序员大多是男性,并且会对男性候选人产生相应的推动作用。Caruana说:“你最终不会招聘女性积极参与编程职位,因为来源方面的偏见是,女性总的来说不是程序员。 尽管AI工具可以被命令忽略性别,种族和其他受保护特征,但消除AI系统的偏见比看起来更难。由于它们的性质,人工智能工具发现模式,许多因素 - 邮政编码,教育程度,爱好 - 可能会无意中成为诸如种族或性别等特征的代理。 在最近的一个案例中,招聘服务机构Gild吹嘘自己的AI系统已经发现了如何发现高潜力的计算机工程师:事实证明,这样的候选人可能是日本漫画网站的粉丝。喜欢漫画的候选人,Gild的团队推理,将有助于识别高质量的工程师。 正如数据科学家凯茜奥尼尔指出的那样,问题在于爱漫画和成为一名成功的工程师之间没有因果关系。相反,吉尔已经确定了一个与种族和性别相关的特征,有效地使用了后门的方法来清除那些不符合其成功候选人应该是什么样子的先入之见的人。奥尼尔说:“我很惊讶他们没有想到那个热爱漫画的候选人更有可能成为亚洲人。” “你通过关联和代理获得性别。” 更糟糕的是,O'Neil说,许多AI系统在“黑匣子”内执行这样的计算,使得无法弄清楚结果是如何得出的。如果你正在教计算机玩下象棋或处理图像,这可能无关紧要,但是当你做出关于人们事业的决定时,这是一件大事。“算法不仅仅是帮助自动化一个过程; 他们增加了一层不透明度,所以很难看到和解决失败,“O'Neil说。“面部识别很容易看出它是否可行; 雇用软件更棘手。“   一个潜在问题 - 和一个监管风险 消除这种偏见是一项艰巨的任务,但如果人工智能系统要演变成可信赖的招聘渠道,这一点至关重要,Pocket Recruiter的首席数据科学家Vineet Vashishta说。“在招聘和人力资源领域,你必须是透明的,”他说。“我们必须能够解释'这是我们做出我们做出的决定的确切方式',我们必须能够证明这些数据没有一些阴险的偏见。” 不幸的是,Vashishta说,从事人工智能招聘工具的人很少愿意面对他们系统的潜在偏见。他表示,即使在学术和行业聚会上,研究人员也不愿意将注意力放在关于偏见的谈话上。“在人们开始谈论这件事之前,这是三杯酒和一些沉重的叹息,”他说。“至少公开谈论此事的人非常少,因为这真的很可怕。当涉及到机器学习时,这是可能杀死该领域的领域之一。“ Vashishta说,监管机构很可能会开始在某些司法辖区禁止机器学习工具。纽约市成立了一个工作小组来监督政府使用人工智能系统,而欧洲监管机构正在实施框架,这将大大遏制公司在未经明确许可的情况下使用个人数据的能力。“你可能会看到一些政府在未来五年内禁止机器学习,这将是因为这个问题,”他说。“这将是因为它无法解释,缺乏透明度和问责制,以及机器的偏见会让人们感到恐慌。” 但是Vashishta说,有真正的方法可以减少偏见的可能性。Pocket Recruiter使用AI来识别具有特定技能的申请人,而不仅仅是那些与当前员工相似的申请人。尽管如此,人才招聘决策最终还是由谁来提供Pocket Recruiter用来改进算法的反馈。Vashishta说:“Pocket Recruiter可以向你展示你可能因为无意识偏见而未看过的候选人。“但是当谈到人们告诉我们他们想要的候选人时,那些无意识的偏见又回来了。” 最终,为了消除AI系统的偏见,设计师必须在事情的方式和他们应该的方式之间驾驭危险的无人地带。为了消除真实世界的偏见,设计者必须要么倾斜他们的数据,要么按照他们的系统处理数据的方式,以便最终的结果反映出更理想的替代现实。 但以这种或那种方式推动申请人的数据是一个充满挑战的过程。“我们一直这样做,”Vashishta说。“但这些钟形曲线的修正令我们非常惊讶。我们不知道我们是否正在受伤或帮助,直到我们看到算法运行起来,我们才会知道。“要做出可能让某人工作的成本的变化是不容易的,他说。“当你在像招聘这样的公司工作时,你会因此失去睡眠,因为你正在影响某人的生活。这是一种令人痛苦的方式。“ 没有在窗帘后面偷看 人工智能招聘工具的一个教训可能来自于一种较老的,技术含量较低的补救办法,以致在招聘方面存在偏见:顶级管弦乐队决定在试演期间在音乐家面前悬挂一幕布。古典音乐过去一直以男性为主,但在20世纪70年代引入了盲目的试镜 - 确保音乐家的演奏而不是外观 - 使顶级乐团的女音乐家增加了五倍以上。 然而,要达到这一点,还需要做出决定,确保音乐家的性别不会受到其他因素的影响,比如穿过窗帘的缝隙看到的鞋子,或者没有地毯的地板上的高跟鞋。 更重要的是,管弦乐队不得不将盲试作为一个起点而不是一个明确的解决方案,并且接受这样一个长期以来由男性主导的机构,偏见仍然是一个问题。尽管已经证明了他们的音乐才能,但第一批通过盲目试镜入场的女性经常不得不与他们继续寻求旁观者的合作。 这大致就是我们使用AI招聘工具的地方:就像管弦乐队的幕布一样,机器学习是一种范式转变,有可能消除长期存在的偏见,但它本身并不能解决几个世纪的偏见。 为了有所作为,人工智能系统需要仔细设计和审查,以确保他们真正无偏见,并且他们的部署方式不允许人力决策者重新向招聘中引入偏见处理。 走向这一点并不容易。“这是我们花费数百年来创造的一个问题。Vashishta说,长期的解决方案并不像我们五年后会遇到的问题。 与此同时,人力资源团队需要停止假设基于计算机的招聘工具本身就是客观的。相反,决策者应该要求证据表明,机器学习系统的设计是有偏见的,并且足够透明,可以识别和纠正潜在的问题。 卡鲁阿纳说,如果人工智能工具要演变成真正公正的招聘工具,人力资源团队将不得不坚持这种透明度。“如果有足够的人问,这将成为一个重要的标准,”卡鲁阿纳说。“但是如果没有人问,我们只会让偏见不断滑落。” 以上由AI翻译完成,HRTechChina倾情奉献。转载请注明。
    招聘工具
    2018年03月18日