最近在拉斯维加斯召开的AWS re: Invent大会其实有点奇怪。总的来说,这次盛会上发布的新闻可能稍欠份量。虽然最重要的公告也都跟AI有关,但从实际效果来看,亚马逊猛然发现自己在这一领域正处于追赶微软的尴尬境地。
而哪怕是OpenAI刚刚上演了一出“宫斗”闹剧,微软的优势地位也几乎没有受到影响。
而在亚马逊CEO Adam Selipsky在上周二的主题演讲中或明或暗对微软这位云竞争对手出言讽刺时,双方的对抗关系也被真正摆上了台面。
需要明确的是,落后对亚马逊来说倒不一定是坏事。自从2006年AI再度焕发活力以来,就一直在云技术领域占据主导地位。不过当下生成式AI仍处于萌芽状态,而且市场变化速度极快,投资者和部分媒体人士甚至认为微软在接下来12到18个月间处于的领先地位,其实并没有太多实际意义。
跟去年一样,本届大会真正有新闻价值的公告很少,其中最有趣的可能就是Amazon Q了。它帮助开发人员将生成式AI层接入企业软件,有报道认为这是亚马逊对于微软Copilot的有力回应。但从另一个角度看,这也意味着这家云巨头正在努力缩小与微软之间的差距。
Redpoint公司合伙人Scott Raney表示,微软提早采取了一系列重大举措,比如2018年以75亿美元收购了GitHub,并向OpenAI注资至少100亿美元。由此形成的有利地位,使微软成为开年以来这波生成式AI浪潮中的绝对王者。
Raney解释道:“这可能是人们第一次意识到亚马逊在AI这波巨大的机遇当中不再处于领先地位。微软围绕Copilot所做的一切、再加上Amazon Q的发布,意味着亚马逊已经处于落后且正在奋力追赶。”
但在他看来,这倒不一定能从根本上改变云市场的基本格局。多年以来,AWS一直在云计算领域占据主导地位,而这也没有改变微软在AI技术层面拥有优势的事实。
当然,亚马逊和微软之间的关系,其实要比表面上看起来复杂得多。曾在AWS工作近十年的投资公司Madrona合伙人Jon Turow直言:“首先,微软和亚马逊之间绝不是敌对关系,双方的立场其实更加微妙。”
他指出,亚马逊与微软就Office 365达成的价值10亿美元协议证明,这种关系确实相当微妙。但与此同时,两家科技巨头也很有可能在企业级业务市场上展开激烈竞争。
两家公司似乎走上了不同的AI探索之路。微软坚定选择了OpenAI,这也为他们在企业客户中赢得了新的吸引力。首先,微软可以接触到OpenAI的内部运作结构,并将技术成果带入Office 365、Bing和GitHub当中。此外,OpenAI就运行在微软的Azure服务器之上,这也让软件巨头能更深入地理解OpenAI如何保持大规模运行,在企业客户的CIO群体内建立起信任优势。
亚马逊在自家AI基础引擎BedRock上选择的则是另一条路线,这是一种基于API的实现方式,可帮助开发者们灵活接入除OpenAI以外的各种大语言模型。
Turow表示同:“BedRock用明确的产品定位向全世界宣布,亚马逊拥有最广泛的领先模型选择空间。这份底气并非来自现有模型有多么成熟,毕竟人们都知道这些模型还处于早期发展阶段。相反,BedRock是大模型全面走向市场的重要标志。”在他看来,这是亚马逊在向CEO和CIO们发出强烈信号,即模型灵活性才是正确的技术探索路径。
供应商的选择通常取决于诸多因素,包括公司已经在与谁开展合作。德勤公司战略与分析产品组合负责人Jim Rowan指出:“我认为亚马逊公布的大部分内容都是从CIO的视角出发,讨论他们当前与各家云服务商的关系。毕竟多数企业可能已经处于混合、多云环境当中,部分负载运行在云端、也有一部分归属于本地。”而德勤则致力于寿命企业客户评估并实现自己的生成式AI项目。
他还提出反问:“你的战略路线图是什么?你要如何建立并实现这样的战略路线?”在Rowan看来,这明显属于传统商业咨询问题,客户需要认真为其寻求答案。因为随着时间推移,企业需要管理的项目越来越多,其中既涵盖AI、也涉及云计算。
但目前断言一切恐怕还为时过早。随着企业买家持续关注生成式AI,他们自然会探索各种选项,就像当初筛选云方案那样尽量保持灵活、避免被供应商所绑定。然而生成式AI技术的吸引力太大,任何一家公司都不可能坐视自己被时代的车轮无情碾过。
至少就目前来看,微软仍然占据着显著优势。但随着亚马逊着力构建自己的生成式AI技术组合,这一差距可能会迅速缩小。因此亚马逊必须奋起直追,我们也期待观察这位云巨头在未来一段时间内如何应对这一波巨大的压力和考验。
好文章,需要你的鼓励
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。
MAGREF是字节跳动智能创作团队开发的多主体视频生成框架,能从多张参考图像和文本提示生成高质量视频。该技术引入了区域感知动态遮罩机制,使单一模型灵活处理人物、物体和背景,无需架构变化;并采用像素级通道拼接机制,在通道维度上运作以更好地保留外观特征。实验表明,MAGREF在身份一致性和视觉质量方面优于现有技术,能将单主体训练泛化到复杂多主体场景,为内容创作者提供了强大而便捷的视频生成工具。
这项研究揭示了大型语言模型(LLMs)偏好决策的内在机制。以色列理工学院和IBM研究院的团队开发了一种自动化方法,不需人工预设即可发现和解释影响AI判断的关键概念。研究横跨八个领域(从一般问答到安全评估),分析了12种偏好机制,发现人类评判者重视权威性和清晰度,而AI评判更关注事实准确性。他们提出的层次多领域回归模型不仅能准确预测偏好,还能清晰解释判断过程,为构建更透明、更符合人类价值观的AI系统提供了新途径。