来自剑桥大学的研究人员在《哲学与技术》(Philosophy & Technology)期刊上称:“人们对于能解决面试偏见等问题的新方法越来越感兴趣。”AI的实际应用正愈发普遍,但在通过视频或应用指标遴选求职者方面仍处于“伪科学”的水平。
曾有人力资源专业机构向媒体放话,称AI技术有望对抗偏见。
研究发现,2020年一项针对500名人力资源专业人士的跨国调查表明,近四分之一的从业者正在利用AI“以自动化方式选拔人才。”但这种减少偏见的探索似乎并未奏效,剑桥大学性别研究中心博士后研究员Kerry Mackereth在采访中表示,这事完全就是在“扯淡”。
她解释道:“这些工具无法通过训练获得单纯识别工作相关特征的能力,也不能从招聘过程中剔除性别和种族因素。这是因为人类总认为,一位员工是否优秀会不可避免地与其性别、特征和种族存在内在关联。”
也有研究指出,一些公司还发现这些工具本身也存在问题。2018年,亚马逊就宣布放弃开发AI驱动型招聘引擎,因为发现其会从简历中检测性别并歧视女性求职者。
“现代颅相学”
研究人员还特别关注那些能够“分析候选人言语与肢体动作细节”的工具,据称这些细微要素也能体现对象是否符合特定职位的要求。
研究合作者Eleanor Drage博士则坦言,这类视频与图像分析技术“没有科学依据”,并将其斥为“现代颅相学”——即依靠颅骨形状推断性格与智力的虚假理论。
她强调:“他们认为可以通过面部观察了解对方的性格。这种想法就跟测试工具一样根本不靠谱。AI没办法‘透过’面孔看到真实的内在。”
剑桥工具截屏
研究人员们还与六名计算机科学专业的学生一道,构建起自己的简化版AI招聘工具,基于所谓“五大”人格特征对候选者照片进行评分:
但最终评级还是会受到种种非相关变量的影响。
Drage博士写道:“在使用这些工具时,可以看到只要调整图像的对比度/亮度/饱和度,AI得出的性格结论就会发生变化。”
The Register指出,其他调查也得到了类似的结论。
德国一家公共广播公司甚至发现,在视频中佩戴眼镜或头巾,也会影响到候选者的最终得分。
英国特许人事与发展协会(Chartered Institute of Personnel and Development)的Hayfa Mohdzaini指出,他们的研究表明只有8%的企业雇主会使用AI技术来筛选求职人才。
“AI确实可以加大候选人才库的整体规模,借此帮助组织提升多样性水平——但如果规则和训练数据不完整或不准确,也有可能错失很多优秀的求职者。”
她总结称:“目前,用于对候选者言语和肢体语言进行分析的AI软件尚处于起步阶段,其中当然蕴藏着巨大的机会,但也有风险与之伴生。”
好文章,需要你的鼓励
随着AI技术不断发展,交通运输行业正迎来重大变革。MIT研究显示,AI将很快自动化价值650亿美元的交通工作,大幅提升运输效率。从陆地到海空,AI正在推动全方位的交通创新。斯坦福专家强调,AI将通过基础模型、合成数据和数字孪生等技术,实现从单一车辆自动化到整个交通网络优化的跨越式发展,同时解决可持续性、安全性和公平性等关键挑战。
香港科技大学团队发表重要研究,开发GIR-Bench测试基准评估统一多模态AI模型的推理与生成能力。研究发现即使最先进的AI模型在理解与生成之间也存在显著差距,无法有效将推理过程转化为准确的视觉生成,为AI行业发展提供重要警示。
波兰研究团队开发ORCA数学基准测试,对五个主流大语言模型进行评估。结果显示ChatGPT-5、Gemini 2.5 Flash、Claude Sonnet 4.5、Grok 4和DeepSeek V3.2的准确率均低于63%。测试涵盖生物化学、工程建筑、金融经济等七个领域的500道数学题目。研究发现模型主要在四舍五入和计算错误方面存在问题,表明自然语言推理进步并未直接转化为可靠的计算能力。
Meta超级智能实验室联合麻省理工学院开发了SPG三明治策略梯度方法,专门解决扩散语言模型强化学习训练中的技术难题。该方法通过上下界策略为AI模型提供精确的奖惩反馈机制,在数学和逻辑推理任务上实现了显著性能提升,为AI写作助手的智能化发展提供了新的技术路径。