当AI成为面试官,你会申请这个岗位吗?

用AI面试号称能消除偏见,事实真的如此吗?

Floria Tan向外卖巨头美团申请实习岗位,她在第一次视频面试中面对的并不是真人。面试官看起来相当真实,是一名跟Tan年龄相仿的女性,面带友好的微笑,但她的声音和举止又相当刻板,明显有机器人的感觉。面试官简要介绍了公司,并提出一系列预设的问题,例如“你之前遇到过的挑战是什么?”每次回答之后,面试官都会总结求职者所说的内容,再提出后续问题。

这位面试官明显是AI数字人,根据预先确定的问题列表来完成任务,同时使用大语言模型来即时生成听起来真实顺畅的答案。Tan表示,这更像是参加一场笔试,没有沟通的感觉:“我无法把它当作真正的人,只是看着镜头自说自话。”

AI求职面试曾被视为一种神奇事物,但随着初创公司开始尝试在OpenAI等平台的惊人能力基础上建立业务,这种面试方式也越来越受到欢迎。虽然这个行业体量不大,但所覆盖的岗位却往往来自大型企业,此类巨头往往一次需要筛选数千名申请者。而随着企业争相寻求将AI融入业务的方法,像Tan这样的经历也将变得司空见惯。

使用大语言模型进一步推动招聘流程自动化的思路,已经在全美企业界引起轰动。美国公司ResumeBuilder曾在2023年对1000名人力资源从业者开展调查,结果发现10%的企业已经开始在招聘过程中使用AI,另有30%的公司计划在次年开始使用AI。研究公司Gartner也将自然语言聊天机器人列为2023年招聘行业的关键创新之一,称该项技术虽仍处于实验阶段、但前景相当光明。

这种做法似乎也开始在中国和印度流行起来。在社交媒体上,除了Tan的经历之外,一些其他公司的应聘者近期也表示自己接受了AI面试。在印度,Talently.ai、Instahyre和Intervue等平台也为众多印度企业在招聘过程中提供AI技术支持。

目前有多种方法可以实现招聘流程自动化。第一步就是将初次面试中提出的问题列表标准化,这通常是为了缓解文化偏见所采取的措施。一旦问题标准化,自然没必要非得由真人介入。企业通常会从线下面试转向远程Zoom通话,再过渡到预先录制的人工视频,最终转为完全由计算机生成的虚拟形象。哈佛商学院的一篇文章,将这一系列方案描述为“非人格化频谱”。

OpenAI和Anthropic等公司推出的生成式AI,也让企业得以进一步实现流程自动化。具体就是通过平台的自然语言系统添加响应式的后续问题。talently.ai就是这样一项服务,它能够将面试答案转换为文本,并使用提示词工程生成响应。公司创始人Qasim Salam表示,他们的平台能够帮助客户将填补岗位空缺的所需时间最多缩短80%。

Salam坚信,AI面试官的偏见比人类更少:“因为他们在面试过程中不会生气或者心情不好,也不会因此而忽视求职者的诉求。求职者的肤色、出身和口音也都将不再重要……它纯粹是在根据客观优势来评估候选人。”

AI招聘公司还反复强调,自身能够紧密匹配客户招聘偏好。Sarbojit Mallick是新德里人力资源初创公司Instahyre的联合创始人,这家公司希望利用AI科技将求职者与雇主进行匹配。Mallick在采访中解释称,公司在不同地区提出的人力要求各有不同。例如,当Uber为其美国办事处招聘印度人时,往往更倾向于熟悉跟体制打交道的专业人士。“但在印度,比如说想要在海得拉巴和班加罗尔开设办事处,他们就更青睐创业爱好者。”Mallick强调,成功的诀窍在于了解这些偏好并将其融入业务模式——这样才能在客户都没有意识到自身需求的情况下,准确找到最适合的人才。

但这也引发了人们对于AI将偏见纳入招聘模式的担忧。可Mallick坚持认为,在直接歧视案例中,Instahyre反而会采取不同的策略:“对于某些职位,招聘人员往往认为男性才适合、女性并不适合,而这是完全错误的。在这类情况下,我们专门对AI模型进行了训练以消除偏见。”

但在专家们看来,这些措施并不足以阻止偏见向训练数据集的渗透。在普利策中心研究算法偏见的Hilke Schellmann就在采访中表示,缺乏透明度已经成为最令人担忧的现实问题。她表示:“我们都希望招聘人员和招聘经理能够列出明确的标准与人员评估方法,但却根本没办法搞清楚ChatGPT这类系统到底是怎么衡量求职者的。”

当然,哪怕是Schellmann这样的怀疑论者,也没有彻底否认AI系统在招聘领域发挥的作用。她只是希望这类技术方案在发挥作用之前,能够先引入更多保障性措施。Schellmann强调:“这些企业要做的应该是发布足够清晰的技术报告,向大众证明:这就是我们构建工具的方式,这就是我们保障它稳定有效的方式。它确实测试了求职者是否满足工作岗位的实际需求,同时从种种具体方面缓解了偏见问题。但到目前为止,我还没有看到任何这样的技术报告。”

她对于AI市场对数据规模的过度关注同样感到不安。虽然此类系统确实需要海量训练数据实现性能改进,但大量数据也往往让人们更难理解模型做出特定决策的实际原因。Schellmann指出:“在招聘过程中,引入更多数据并不总能解决问题。相反,我们提供的数据越多,引发偏见的可能性反而越大。”

来源:Rest of World

0赞

好文章,需要你的鼓励

2024

08/01

14:41

分享

点赞

邮件订阅