Meta公司的员工收到通知,称不得在工作中讨论敏感问题,例如堕胎、枪支管制、未决立法和疫苗效果等。《财富》杂志援引Meta人事主管Lori Goler泄露的一份内部备忘录,证实了事件的真实性。Meta公司的发言人也对报道予以确认。
Goler在这份备忘录中写道:「扎克伯格最近提到,我们需要推动一系列文化转变,帮助我们专注于处理优先事项。我们这样做是为了确保内部讨论始终建立在尊重、富有成效且有助于专注的基础之上。这要求做出权衡,因此我们必须对工作中的表达方式做出约束。我们认为,出于对内部社区长期健康的考虑,这才是正确的做法。」
Meta在今年6月就采取过类似的立场,当时最高法院推翻罗诉韦德案的意见草案被泄露。根据《纽约时报》当时获得的一份文件,Meta公司表示「在工作中公开讨论堕胎问题,会增加工作环境中敌意上升的风险。」
Meta公司发言人Kadia Koroma在采访电子邮件中表示:「我们非常重视表达、公开讨论,以及建立在尊重和包容基础之上的企业文化。我们更新了员工预期,围绕在工作场所中适合讨论的问题提供指导,这样能帮助大家减少干扰、营造一个充满尊重和包容的环境,让人们可以将更多精力投入到工作当中。」
至于那些必须讨论这些问题才能完成本职工作的Meta员工,不会受到新政策的约束。这些准则也不会扩展到工作场所之外。
目前,Meta公司正处于金融动荡时期,主要原因自然是大力推动的元宇宙投资未能带来回报。今年年初,Meta每股交易价格约为330美元,到目前已经下跌约50%至每股115美元。整个夏季,Meta公司CEO扎克伯格都在全体员工电话会议上强调,他将提高预期并设定更积极的运营目标。他向团队直言:「实际上,公司里有很多人压根不该继续留下。」就在上个月,Meta裁员11000人,占员工总数的13%。
这些避免讨论敏感问题的新规,也符合扎克伯格增加工作强度的计划。根据《财富》杂志报道,Goler称这些调整的意义在于「最大限度减少干扰」,从而让员工们保持专注工作。Goler还谈到Meta在公共政策方面采取的立场。「我们经常被要求签署跟某些重要、但却与工作内容没有直接关系的主题宣传信。这些与我们使命无关的问题,可能分散员工们宝贵的注意力。因此展望未来,作为一家企业,我们将只就与核心业务相关的问题发表公开声明,即只参与那些服务交付所必需的议题。」
Coinbase公司早在2020年就采取过类似的做法。当时公司CEO Brian Armstrong发布了一份文化备忘录,解释了不得在工作场所内讨论社会问题的原因——如果员工对此不满,可以领取遣散费和离职。
但新政策仍然引起争议。对不少科技工作者来说,特别是那些来自弱势群体的从业者,时事对他们的日常工作和生活有着显著影响。就连前Twitter CEO兼比特币布道师Jack Dorsey都公开反对过Coinbase的反行动主义政策。他写道,加密货币就是「针对无法验证且具有强烈排他性的金融体系的直接行动主义反抗,反抗的正是金融体系给我们社会产生的诸多负面影响。」Dorsey表示,Amstrong的立场「甩下了一部分人。」
作为一家用户多达数十亿的日常社交媒体平台,我们很难想象Meta的一纸禁令能够让这家公司彻底告别此类敏感话题。
好文章,需要你的鼓励
亚利桑那州立大学的研究团队开发了RefEdit,这是一种新型图像编辑AI系统,能够准确理解和处理指代表达(如"中间那个人"、"右边的猫")。通过创建RefEdit-Bench基准测试,研究者们证明现有模型在多物体场景中表现不佳。他们设计了一种创新的数据生成流程,仅用2万样本就训练出的RefEdit模型超越了使用数百万样本训练的大型模型。这一突破使AI图像编辑在复杂场景中更加精确和实用。
这项研究提出了Critique-GRPO,一种创新的在线强化学习框架,将自然语言批评与数字反馈相结合,克服了传统仅用数字反馈的三大局限:性能瓶颈、自我反思效果有限和顽固性失败。实验表明,该方法使大语言模型能够从错误中学习并改进,在八项数学和通用推理任务中,将Qwen2.5-7B和Qwen3-8B模型的平均通过率分别提高了约4.5%和5%,超越了包括那些引入专家示范的方法。研究还揭示,高熵探索和长回答并不总是最有效的学习方式,质量更重要。这一方法为大语言模型的自我提升能力开辟了新路径。
这篇研究介绍了"量化LLM评价者",一个创新框架,能使大型语言模型(LLM)在评估其他AI输出时更接近人类判断。由麻省理工和Adobe联合研发的这一方法,将评估过程分为两个阶段:先让LLM生成文本评价,再用轻量级机器学习模型将这些评价转化为更准确的数值评分。研究提出了四种评价者模型,适用于不同评估场景,实验表明它们不仅能显著提高评分准确性,还比传统微调方法更节省计算资源。这一框架特别适合人类反馈有限的场景,为AI评估领域开辟了高效且可解释的新路径。
这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。