普通人一跃不过两、三英尺,即使是动物王国中那些跳跃健将也很难把成绩提高一个数量级。
但机器人可能!先前垂直跳高纪录的保持者仅勉强跳过1层楼的高度,但如今这道标线已经变成了10层楼高。成绩来自一部重量不及网球的机器人,它跳出了102英尺(31米)高,相当于从自由女神像的脚部直接蹦到眼部位置。
这项技术可能在行星探索领域发挥重大作用。由于月球的引力强度仅为地球的六分之一,这种小型跳跃机器人能够垂直跳跃超410英尺、横向跳跃超1600英尺,由此轻松前往人类因大气稀薄/地形不稳而难以前往的样本/数据收集位置。而且这方面的探索已经起步,机器人的开发者Veritasium正在研究如何让设备自我调整以准备下一轮起跳。
这么小的机器人是怎么蹦起30多米的?视频显示,为了严格符合“跳跃”的定义,这些机器人不能像火箭那样消耗燃料、也不能像箭那样进行额外的能量转换。总之,这台机器人只能靠自身设计和结构跃起。这台机器人由四个碳纤维拱结构实现推进,这些拱结构通过松紧带系在中央的支撑轴上。
机器人顶部的瓶鼻状隔槽内装有一部电机,通过绳子连接至支撑轴。当电机启动,它会卷起绳子、缩短支撑轴长度并拉动碳纤维拱收缩。这种形态收缩就如同弹簧,当电机松开绳子后,碳纤拱的回弹就将机器人向上推起。而夸张的弹跳高度要归功于其轻的结构,最终达成的创纪录成绩不禁让人们对它在太空中的表现充满期待。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。