算法招聘不稀奇,现在利用 AI 算法来自动化处理海量简历筛选,已经是司空见惯的操作。但算法裁员,对于许多人来说就闻所未闻了。
最近,一家海外公司 Xsolla 通过算法判断出 150 人是“没有生产力的员工”,然后一口气裁掉了他们。
引起争议的不是裁员本身,而是这一决定背后的原因、标准:Xsolla 首席执行官阿列克桑德・阿加皮托夫接受俄罗斯出版物《Meduza》的一次采访中提出,员工的“数字足迹”不符合公司标准。
远程工作时代,加上外部环境急剧变化,处于困境的企业不得不裁员自救,原本无可厚非。但利用 AI 算法来履行裁员职责,就有待商榷了,因为这牵涉到一系列问题,比如:
靠数字足迹判断员工合格是否合理?算法开除的决定是否符合劳动保护条例?这是不是意味着未来打工人必须按照 AI 的喜好来行动,从而成为算法的奴隶?
通过算法来开除员工,听起来着实有些匪夷所思,直到 Xsolla 创始人阿加皮托夫撰写的内部邮件被公开,人们才知道算法的判断标准是:数字足迹(Digital Footprint)。
信中提到,Xsolla 的大数据团队分析了员工在 Jira、Confluence, Gmail、聊天、文档、仪表板等应用中的活动,然后将那些行为路径不总出现在工作场景中的员工标记为“没有生产力的员工”。
在技术社会中,想要追踪一个人的网络活动是很容易的。此前,许多企业会通过社交媒体筛选潜在的员工,员工也会经营自己的“赛博形象”以传递好的形象,大家似乎都为企业考察员工的数字足迹投出了一张“赞成票”。
但当事情发生在裁员这一动作下,或许才会发现,数字足迹在职场的应用,正释放出了三个危险信号:
1.模糊生活与工作的隐私边界。涉及 150 人规模的员工不知道自己正在被 AI 跟踪,并且网络活动的“蛛丝马迹”都可能被引入考核标准,还是很让人恐惧的。
2.算法“黑箱性”缺乏说服力。通过数字足迹的可以分析判断出该人的性格特征,这在招聘时可作为加分项,但裁员需要明确的“不胜任工作”的认定标准,算法“黑箱性”让裁员这件事充满了不确定性,难以服众,容易引发心理失衡的报复事件;
3.缺乏对“幸存者”的指导意义。一次成功的裁员,不仅仅在于将部分员工开除,还要让“幸存者”做好对新任务的准备、了解持续发展的规范,但通过分析数字足迹作出的裁员决定,却无法清晰地体现出被裁和网络活动的因果关系。
一个人可能因为总在工作时间登录社交媒体,被认为效率过低,但这一结果对于需要与用户频繁交流的创意型岗位就没什么价值,也让“幸存者”处于惶惶然不可终日的状态。
疫情之后,越来越多的企业开始推行永久制的远程办公,与此同时,如何评估员工的工作状态和生产力也成为难题。这个案例也驱使我们思考,个人该向企业让渡多少数字足迹访问权限,将成为未来劳动市场和法律法规的重要议题。
那么,通过数字足迹来衡量员工的敬业度和生产力,到底靠不靠谱呢?
我们知道,数字足迹只能跟踪到软件交互的时间和频率,对于流程化程度高的工作有直接的参考意义,但对于创造性工作就有点无能为力了。
一来,科技企业是典型的知识经济,涉及到大量的创意创新,这是十分个性化的过程。比如乔布斯喜欢打坐冥想,然后做出决策;有媒体报道过,当团队遭遇瓶颈时,张小龙就带着大家一起听摇滚乐;德国作家席勒缺乏灵感的时候,则喜欢吸几口烂苹里的味道…… 如果让 AI 来判断,这些都算“不务正业”。
二来,现有算法很难评估 OKR 与数字足迹之间的因果关系。英特尔公司创始人安迪・葛洛夫发明的 OKR 目标与关键成果法,已经成为谷歌、Facebook、Linked in、BAT 等科技企业广泛使用的工作模式,即先明确努力的方向和目标,过程中员工可以自主探索,只要保质保量地完成预定目标即可。这种方式能最大程度地激活员工的积极性,并且鼓励他们打破常规。这时候,用网络冲浪的蛛丝马迹来衡量员工的表现,是一种既过时又极其无效的标准。
标准的不合理性,也会直接影响裁员程度的正当性。我们知道,为了避免任意裁员,许多国家的法律法规都对裁员的程序公平有着严格限制,依靠 AI 算法裁员很难避免暗箱操作和违规裁员,正规企业为了避免陷入风险也不会草率上马相关算法。