新的研究突显了人工智能驱动的招聘工具的市场前景,该工具用于处理大量的求职者,这些求职者声称自己具有人性,并避免了招聘中的歧视&公牛剑桥大学的研究人员称,这项研究可以减少种族和性别对重要数据点的影响,并在以后对“自动化伪科学”的个人素质进行分析学术界还与计算机学生合作,通过构建越来越多的人力资源团队使用的软件版本,来激发对创新的使用它展示了服装或照明的随机变化,给出了截然不同的人的选择,这些选择可能会导致观察者的产生
近几年来,人工智能工具市场的出现是对劳动力多样性的一种回应,从使用电脑和电脑抓取器到合适的候选人,再到视频面试的分析软件
尽管在招聘过程中,技术周期旨在消除人们对性别和技术的偏见,而不是使用基于词汇、演讲模式和面部微表情的算法来评估求职者的个性化类型和“文化效果”
然而,在《哲学与技术》杂志发表的一份新报告中,剑桥大学GenderStudies中心的研究人员认为,这些声明在一定程度上利用了AI,而不是像“自动伪科学”一样回忆起了生理学和脑脊髓形态学:人们认为,从面部特征和头骨形状中消除了人的缺陷
他们认为这是一个“技术解决方案主义”的例子:转向技术为根深蒂固的歧视提供快速解决方案,这需要投资和改变公司文化
事实上,研究人员与剑桥大学计算机科学系的团队合作,通过建立一个基于技术的人工智能工具模型来揭示这些新的招聘技术,可用于:
“人格机器”策略显示,面部表情、服装、灯光和背景的任意变化可能会导致截然不同的人格选择——这可能会导致拒绝和对竞争最终职位的观察者的产生产生压力之间的差异
剑桥大学的团队表示,使用AI缩小候选工具可能会大大提高部队的一致性,而不是灵活性,因为技术可以证明这是为飞行员的幻想“理想和日期”而设计的
研究人员表示,这可以通过复制AI程序中要识别的行为,并在工作场所展示他们的态度,来实现“战胜算法”的良好训练和背景
此外,由于所有的算法都是根据过去的数据进行的,他们认为最合适的日期可能会与当前劳动力中最接近的日期相重叠
作者Eleanor Drage博士说:“我们注意到,有些供应商正在将‘裸油’产品包装在新的包装中,并将其包装好,以确保客户的安全。”“通过声称歧视、性别歧视和其他形式的歧视可以从使用人工智能的招聘过程中剥离出来,这些公司减少了重要数据点的数量和下降,而不是塑造我们在世界上如何前进的权力体系。”
研究人员发现AI招聘工具通常是非主流的——或者说是“黑盒子”——所以它们的工作方式是个谜
德拉格说:“如果公司不真诚地进行交易,那么这些产品的会计责任就很小。”“因此,这项技术及其市场化的产品,可以为招聘人员提供危险的错误信息来源。”
尽管有一些阻力——例如,欧盟提出的AIAct分类——将软件领域定为“高风险”——研究人员表示,Retorio和HIreV等公司制造的工具部署在监管较少的情况下,并指出调查表明,AI抑制的程度正在上升
A2020年一项针对不同国家不同行业的500家组织的研究发现,24%的企业出于招聘目的实施了AI,56%的招聘经理计划在下一年进行选择
在2020年4月进行的人力资源部34名领导的另一项民意调查中,作为一项调查,发现86%的组织将虚拟技术融入到了创新实践中
作者KerryMackereth博士在Drage的GoodRobot播客中表示:“随着大流行病的开始,这一趋势已经不可替代,Covid-19导致的向在线工作的加速转变可能会在未来引发人力资源部门对AI工具的大规模部署。”
根据人力资源运营研究,Covid-19不是唯一的因素Mackereth说:“招聘数量的增加是人力资源无法满足的,这对软件削减成本以及招聘人员的数量至关重要。”
DragandMackereth表示,许多公司现在都使用AI来分析候选人的视频,通过评估面部区域(类似于AI检测)来解释个性,并使用“五大”个性比喻:外向、随和、开放、认真和神经质在使用类似技术来暴露缺陷的“个性化机器”中,本科生们表示,虽然他们的工具可能无法帮助用户克服算法,但它将为求职者提供各种类型的AI来仔细检查他们所处的位置——可能是在他们不知情的情况下完成的
学生开发人员之一EuanOng说:“通常情况下,更新过程都是失败的。”“我们希望让人们对目前正在自动进行的一些判断进行直观的演示。
”这些工具是基于他们以前分析过的人的常见图像模式来预测个性的,然后重复发现个性和图像(如亮度)之间的纯粹相关性我们相信,一些模型的大部分版本都是在实践中重复使用的,以便在自己身上进行实验,“Ongsaid
来源:
Materials provided by
University of Cambridge. The original text of this story is licensed under a Creative Commons License.
注明: Content may be edited for style and length.
参考:
2024-01-20
2024-01-20
2024-01-20
2024-01-20
2024-01-20