自从微软于今年6月首次推出基于Arm架构的Copilot Plus笔记本电脑以来,我就一直好奇Copilot Plus上的各项功能什么时候才会出现在台式机这边。六个月之后,我们明显看到其即将发布的迷你电脑将通过Windows 11中的Recall、Click To Do及Ai驱动的图像生成与编辑等功能实现这个目标。在强有力的AI工具支持之下,这款迷你PC甚至有望让微软能够与苹果的最新款Mac Mini一争高下。
华硕已经成为第一家在去年9月宣布支持Copilot Plus的迷你电脑PC制造商。上个月,也就是CES大会召开的一周之前,华硕宣布了即将推出的NUC 14 Pro AI的全部规格。华硕的迷你电脑下面甚至设有一个Copilot按钮,而且尺寸几乎与苹果的最新款Mac Mini完全相同。
华硕发布规格之时,恰逢台湾厂商Geekom宣布在CES上展出三款新型迷你电脑。Geekom发布了一款搭载AMD Strix Point CPU的迷你电脑,外加一款搭载高通骁龙X Elite处理器的迷你机型,这两款产品都将兼容Copilot Plus。第三款机型搭载的则是英特尔尚未发布的Arrow Lake-H笔记本处理器,但该处理器恐怕不足以提供支持Copilot Plus所需要的NPU。
长久以来,CES一直是微软发布新款笔记本电脑或者平板设备的最佳舞台,去年微软方面就在着力说服各家OEM合作伙伴在笔记本电脑键盘上添加Copilot键。如果没有微软的游说,华硕绝不会在自己的迷你电脑正面添加Copilot按钮。所以接下来最让人好奇的,就是这个按钮到底会出现在多少家PC制造合作伙伴的产品当中。
Geekom提到其迷你PC中安装有高通芯片,意味着我们首次看到高通的最新款芯片涉足笔记本电脑以外的领域。高通原本计划于6月连同Copilot Plus笔记本电脑一同发布其迷你PC骁龙开发套件,但由于设备制造出现问题,其几个月后又取消了这项计划。
我个人更加期待的,自然是何时才能在功能更为强大的传统台式机上迎来Copilot Plus功能。英特尔最新的酷睿Ultra台式机CPU已经于10月上市且内置NPU,但其性能仍不足以达到微软在Copilot Plus功能下规定的40 TOPS要求。因此我们还得等待英特尔和AMD的下一代台式机CPU上市,才能确定这些芯片制造商是否会将引入更加强劲的NPU作为设计优先事项。在此之前,使用笔记本电脑处理器的迷你电脑和一体机将成为在桌面系统上体验Copilot Plus功能的唯一途径。
虽然Copilot Plus的功能仍仅限Windows PC使用,但相信Copilot助手仍将在更多设备上持续发光发热。根据多位知悉微软内情的消息人士所言,该公司正在积极将Copilot推向PC、手机和平板设备以外的多种平台。
Windows部门CEO Pavan Davuluri在去年10月的采访中就坦言,现代AI模型的强大功能“将释放硬件创新潜力,并催生出更多专用的硬件平台。”
Davuluri并没有具体解释微软的专用AI硬件会是什么样子。但在短短几周后,微软执行副总裁兼消费者首席营销官Yusuf Mehdi在采访中就给出额外的暗示。
Mehdi在去年10月底指出:“这些能够观察世界的设备可以佩戴在身上,我认为将它们与AI结合起来将迸发出巨大的价值。它可以实现图像识别,可以告诉你正在发生什么,我觉得这样的体验绝对会令人着迷。”
在采访后段,Mehdi还将可穿戴健康相关设备列为令人兴奋的“重大未来机遇”。微软上个月证实,公司AI部门CEO Mustafa Suleyman已经聘请多位前同事来协助运营新的AI健康部门。虽然很难想象微软在2016年放弃Microsoft Band之后,会愿意再度亲自进军健康类可穿戴设备市场,但我敢肯定软件巨头至少愿意与设备制造商合作,并为此类设备提供AI健康服务支持。
无论如何,微软在2025年绝不会停止探索的脚步,将继续雄心勃勃地将Copilot部署在我们日常接触到的每一块屏幕、每一种计算平台之上。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。