2024年英国伦敦国际人力资源技术展览会:算法人力资源
2024年4月30日-5月1日英国伦敦国际人力资源技术展览会算法人力资源,将“人力资源”中的“人”去掉?随着零工经济的兴起,人力资源决策也越来越由算法而非人力来做出。这是未来的趋势吗?您有多严格地遵守指导方针?假设某人未达到其月度 KPI 的 3/5,您就会对其处以警告。六个月内警告三次,则立即解雇。这是处理绩效不佳的具体且结构化的方法。不过,一些人力资源专业人士可能会引入一些回旋余地——如果在其中一个月份,相关员工失去了亲人怎么办?或者第三次警告只是刚好低于标准?那么,算法人力资源可能会将你(和你的回旋余地)排除在外——这是相当确定的。
什么是算法人力资源?算法人力资源的概念非常直观:人力资源部门可以使用人员分析来指导他们的选择,而不是基于主观意见和人类观察做出决策。这样,他们就可以对自己的决策更有信心,因为他们知道这些决策是基于客观数据的。这种方法可以用于员工监控。如果某人超额完成了目标,或者经历了特别好的一周,系统可能会奖励他们一张午餐券或一个下午的休息时间。相反,如果销售人员经常迟到,或者打电话的时间减少,这可能会触发一个序列,安排他们与直线经理会面讨论他们的表现。虽然这听起来有点悲观,但它也消除了人为偏见;每个人都会得到公平对待。在招聘阶段,消除偏见尤其有益。当一个人的技能和经验由计算机系统评估时,性别、种族或残疾等关键特征就再也不会成为阻碍。一旦人工智能进入这个领域,可能性就会扩大。预测模型可以根据某些数据点之间的关系,找出可能离开公司的员工。基于此,企业可以确定需要做些什么来留住这些员工。
缺点算法的好坏取决于它所得到的数据。袖珍计算器可以计算出圆周率的平方根(顺便说一下,是 1.7725),但它无法告诉你你举起了多少根手指。同样,算法人力资源对“什么”的总结是无与伦比的,但它对“为什么”的分析充其量也有限。就拿开头的例子来说吧。如果你的算法没有给出一个人表现不佳的完整背景——也许他们刚生完孩子,累得神志不清——它可能会建议你把这个新父母赶出家门。当然,情况可能更糟。它可能会把它们扔出去。亚马逊通过 Flex 与许多司机签约,这意味着他们无法获得与全职员工相同的保护。最近,亚马逊遭到抨击,因为这些工人在没有人类做出决定的情况下被解雇。相反,亚马逊使用一款应用程序来监控司机的速度、安全性和完成配额的能力。如果司机的驾驶速度低于标准,他们不会被叫到办公室讨论此事。相反,他们会在手机上收到一条消息,说他们不再需要服务。这个系统被批评为冷酷无情,最糟糕的是,它完全是反乌托邦的。当一个人的生计取决于一组 1 和 0 的决定时,很难不同意。拥有解雇员工权力的系统意味着什么?有些人会认为这绝对公平——你设定一个标准,那些落后的人就会被解雇。它消除了人为偏见;一个人被解雇的可能性不会因他的经理有多喜欢他而增加或减少。然而,机器偏见仍然是一个值得关注的问题:计算机系统并不完美,它们很少(如果有的话)对自己的错误负责。这自然使得它们很难被争论。
继承偏见人工智能让事情变得更加复杂,因为它倾向于遵循训练模式。讽刺的是,这给人工智能植入了许多人类潜意识中的偏见。以 Dall-E 和 Midjourney 等 AI 图像生成器为例,它们在现有艺术作品上接受过训练,能够根据提示创建图像。当被要求画一个“女人”时,这些程序往往会默认画一个白人女人,除非提示指定了不同的种族。这不是故意为之。相反,这是因为互联网上其他艺术作品的描述很少会指明女性是白人时的种族。然而,如果艺术作品描绘的是亚洲或西班牙裔女性,这一特征更有可能被指出。艺术创作中的小问题会成为招聘中的大问题。如果你要求人工智能为你提供与你现有团队“相似”的候选人,结果会怎样?你可能想要一套类似的技能,却没有注意到你的小团队恰好完全由 40 岁以下的男性组成。那么,人工智能可能会在不知不觉中排除那些不符合这一表面描述的候选人。就这样,你就有了一个反馈循环,它可以以多种方式教条地影响你员工队伍的多样性。
那么,我们该怎么做?算法人力资源是一种工具。就像锤子一样,它既不是善的力量,也不是恶的力量,尽管它可以同时用于善和恶。事实上,最好将这些系统视为团队的支持成员:听取他们告诉你的内容,相信他们会做好自己的工作,但将决策权留给自己。请记住,对于他们能够注意到的每一个你永远不会注意到的细节,都有一千条他们不可能理解的背景信息。简而言之:使用算法心率作为卫星导航。不要让它驾驶汽车。
展会时间及展会地点:2025年4月30日-5月1日 英国 伦敦 就业 (意向参展请点击询洽展览专业展会顾问)