近期有消息称,美国政府“准备通过诉讼阻止Adobe去年公布的,以200亿美元收购Figma的交易,理由是此举属于反竞争行为。”新闻一出,Adobe股价旋即下跌,但跌幅并不像2022年刚公布这笔交易时那么迅猛。
看起来,相较于收购成功,投资者们反而希望Adobe能够收购失败。
司法部在这笔交易中横插一脚也在意料之中,毕竟其他监管部门也一直在关注这项计划。今年2月初有媒体报道,Adobe以200亿美元收购数字设计竞争对手Figma的计划已经引起欧洲委员会(EC)的关注。委员会称拟议的这笔交易有可能“对交互式产品设计与白板软件市场的竞争态势产生重大威胁和影响。”
更重要的是,去年12月有消息称英国政府也在研究这笔交易。许多从业者都对这笔收购持怀疑态度,认为这种“大鱼吃小鱼”式的决策会消灭市场上的竞争关系。面对各方声讨,交易现在果然是以失败告终。
从初创企业的角度来看,这倒不是什么坏消息。但从风险投资的思路出发,这事可就麻烦了,意味着变现难度再次提升。至于从市场竞争这方面考虑,最大的问题不是交易是否涉及反竞争,而是我们有没有必要关注。
下面,咱们就从初创企业、风险投资和市场竞争三个角度,聊聊Adobe跟Figma的这笔收购案。
三个视角
首先,没有哪家初创企业愿意在宏观经济疲软的整体形势下,放弃这样一次卖出200亿美元的机会。所以我们初步判断,Figma自己是愿意接受收购的。但对于大多数初创企业而言,此次交易失败倒并不是坏消息。为什么这么说?因为我们看到过不少更成功的案例。
大家应该还记得金融科技公司Plaid吧,当初Visa想开展收购,也是被监管部门硬生生叫停了。之后Plaid按估值继续融资,拿到的金额远高于Visa的报价。当然,该公司之后也遇到了一些波折,但我认为像Plaid和Figma这样的年轻企业,其实没必要急着把自己的大好前途变现。
从风险投资的角度看,Adobe未能收购Figma就着实令人忧心了。因为当初有大约32家投资方参与了Figma的融资,我们估计各方都希望能快点以现金回报的形式给合作伙伴分红。但由于收购交易失败,这笔如意算盘自然也就打不响了。
那我们其他人呢,应该怎么理解这里的潜在矛盾?讨论之前,让我们先了解一点相关背景:
Adobe对Figma的收购并不是市场竞争的一部分,而是要消灭这种竞争,免得养虎为患。
如果交易成功,那Adobe将变得比以往更加强大。产品组合更丰富,客户群体更年轻,收入也可能重新恢复增长。但这样的强势地位,明显不利于企业继续保持创新。毕竟Figma之所以能成为现在的自己,靠的就是一股行业巨头所没有的拼劲。
缺乏竞争约束的少数企业寡头明显不利于创新,也有损客户利益。只有各厂商纷纷争夺巨头地位、努力拉升盈余,才对客户有利。
所以我真的很难找到支持Adoba收购Figma的理由……除了一条,我见过Figma的CEO,他看起来是个好人。如果非要说成功收购有什么好处,那就是能让他瞬间成为亿万富翁。
而且如果不把Adobe收购Figma界定成反竞争,那市场才真要乱套了。Adobe继续收购Canva,Uber和Lyft搞合并,Facebook买下TikTok……
所以如果Adobe真的想对抗Figma所代表的这股新兴势力,那最好是拿出一半的预算——大概100亿美元,真正打造出能跟人家拼一下子的优秀产品。
这对消费者和客户都是好事。所以哪怕单从立场上来讲,我们也应该支持司法部做出的决定。
好文章,需要你的鼓励
这项研究介绍了Ankh3,一种创新的蛋白质语言模型,通过多任务预训练策略显著提升了模型性能。研究者采用两种互补任务:多掩码概率的掩码语言建模和蛋白质序列补全,使模型仅从蛋白质序列就能学到更丰富的表示。实验表明,Ankh3在二级结构预测、荧光预测等下游任务中表现优异,尤其在模型未曾训练过的任务上展现出强大泛化能力,为蛋白质设计和分析开辟了新路径。
法国波尔多大学研究团队开发了一个突破性框架,用于神经退行性痴呆症的差异化诊断。该框架将3D脑部MRI转换为文本报告,并利用强化学习优化的大语言模型进行详细诊断推理。不同于传统"黑箱"方法,这一系统能生成透明、有因果关系的解释,同时保持高诊断准确率。研究显示,通过群组相对策略优化(GRPO)训练的轻量级模型能展现复杂推理行为,包括假设检验和非线性思考,提供与临床决策流程一致的排序诊断结果。
这项研究提出了CLUE框架,首次能够生成自然语言解释来揭示AI事实核查系统不确定性的来源。与现有方法不同,CLUE能识别文本片段间的冲突与一致关系,并解释它们如何影响模型的预测不确定性。实验表明,CLUE生成的解释在三种语言模型和两个事实核查数据集上都更忠实于模型不确定性,用户评价其更有帮助、信息更丰富、冗余更少且逻辑更一致。CLUE不需要微调或架构更改,适用于任何白盒语言模型,为事实核查提供了实用支持。
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。