Microsoft Corp. 和 Google LLC 今天对各自生产力套件中内置的生成式 AI 功能进行了定价调整。
这些变动是两家公司为提升企业用户对其 AI 工具采用率所做努力的一部分。Microsoft 在其 Microsoft 365 生产力套件中提供名为 Copilot 的 AI 助手。而 Google 则在其竞争对手 Workspace 套件中提供 Gemini 机器学习功能包。
Microsoft 365 中的旗舰 AI 产品是一个名为 Microsoft 365 Copilot 的附加服务,每用户每月收费 30 美元。该公司还提供功能较为有限的免费版本。两者的主要区别在于,付费版本可以直接在 Word 等 Microsoft 365 应用程序中嵌入 AI 助手,而免费版本则不能。
今天,Microsoft 推出了一个名为 Microsoft 365 Copilot Chat 的新版免费服务。主要变化是用户现在可以创建 AI 代理,这些是能够自动执行业务任务的自定义 AI 工具。这项功能此前仅在付费版本中提供。
用户可以在 Copilot Studio 中使用自然语言提示创建 AI 代理。例如,营销团队可以构建一个从广告活动性能数据中提取关键信息的代理。客服团队可以使用该功能自动生成对常见用户询问的回复。
Microsoft 将根据一个称为"消息"的使用指标对代理进行计费。Copilot Studio 使用大语言模型处理的每个用户提示计为两条消息,而使用较基础 AI 的提示则每条计为一条消息。需要代理通过 Microsoft 365 中的 Microsoft Graph 功能分析公司业务文件的请求将消耗 30 条消息。
如果公司选择按使用量付费,每条消息收费一美分。组织也可以购买预付费代理包,每月 200 美元可获得 25,000 条消息。
Microsoft Power Platform 总经理 Richard Riley 在博客文章中写道:"每次代理响应都会收费,而不是用户提示。在构建代理时,开发者可以定义对话主题、创建分支逻辑流程,并应用生成式 AI 基于知识源创建响应。"
Microsoft 365 Copilot Chat 的发布恰逢 Google 更新其 Workspace 生产力套件中的 Gemini AI 工具包。后者的升级同样旨在扩大企业用户对 AI 功能的采用。
此次更新将应用于 Workspace 的商业版和企业版。此前,访问完整的 Gemini 功能需要购买每用户每月 20 美元的附加服务。通过今天的更新,Google 取消了这一要求。它将在所有商业版和企业版订阅中默认提供完整的 Gemini 功能集,未来每用户每月将增加 2 美元。
两个 Workplace 计划的客户此前已经可以使用有限版本的 Gemini。这个版本缺少一个侧边栏,该侧边栏允许用户直接在 Drive 等 Workspace 应用程序界面中与 AI 交互。通过今天的更新,商业版和企业版计划的客户将获得对该侧边栏的访问权限。
还有其他增强功能。据 9to5Mac 报道,使用免费限制版 Gemini 的客户将升级到更强大的名为 Gemini Advanced with 1.5 Pro 的大语言模型。他们还将获得对名为 Gems 的 AI 代理创建工具和兼具研究工具功能的笔记应用 NotebookLM 的访问权限。
Google 云应用程序总裁 Jerry Dischler 在博客文章中写道:"通过取消需要为访问最新生成式 AI 功能而支付附加费用的要求,我们正在简化计划和定价,为所有 Workspace 客户带来 Google AI 的附加价值。"
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。