索尼正启动一项新的可持续发展计划,希望自家推出的机器狗产品能够在生命的后半程中继续发挥余热。索尼曾在90年代末推出过广受欢迎的“自主娱乐”型机器狗,并于五年前发售了次世代重制型号ERS-1000 Aibo。如今,索尼日本就此推出“Aibo寄养计划”,帮助那些已经停止订阅Aibo Cloud Plan的用户将ERS-1000捐赠给其他需要这款设备的机构。
根据索尼的公告,索尼将测试并修复这批ERS-1000捐赠设备,而后将其移交给医疗机构、疗养院和其他能够从Aibo等情感支持机器人中获益的组织。索尼还表示,这项计划将向Aibo的“认养者”收取一笔数字不明的服务费用,其中部分捐款将用于维护和修复更多Aibo设备。
Aibo当初在设计上并不属于专门的情感支持产品,但我们可以理解索尼为何选择了这种善后处理方式。ERS-1000能够对语音和触摸做出反应(搭载有识别抚摸的传感器),甚至还配备了鼻尖摄像头来帮助它识别家庭成员。
因此对于无法与真实的狗展开互动的人来说,Aibo至少也能带来一定程度的慰藉。另外,日本总体上比较接纳情感支持类机器人(软银的Pepper机器人和Paro的治疗型海豹就是证明),所以此举应该能够在帮助Aibo设备发挥余热的同时,减少潜在的废弃电子垃圾。
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。