索尼已经向着虚拟现实和元宇宙的未来又迈出了重要一步,载体是一套朴实无华的按钮式设备。很多朋友都知道,在VR中玩游戏、在元宇宙应用里探索肯定离不开某种动作捕捉系统,但这些东西往往非常笨重、碍手碍脚。
以Meta公司为代表,很多人都坚称元宇宙才是互联网的未来。过去几年中,越来越多的平台允许用户在虚拟世界中选择自己的数字化身。但如果没有合适的设备,用户还是没有多少能与元宇宙真正交互的途径。
单靠鼠标和键盘,甚至是游戏手柄,显然不足以把我们的动作充分映射到化身那边。虽然这种功能缺失在传统的游戏和应用程序中不是什么大事,但未来的元宇宙场景肯定还需要更强的响应能力。索尼公布的小工具有望解决这个问题。它虽然没办法取代VR头显,但却打开了一道大门、解决了VR头显也无法应对的挑战。
索尼公布了一段节奏欢快的有趣视频,其中介绍了这款名为「Mocopi」的全新运动跟踪系统,并很好地展示了其功能。Mocopi在本质上类似于由六个苹果AirTag构成的一组传感器,其区别就是按钮在束带上、而不像AirTag那样放在钥匙扣上。这些束带可以佩戴在头上、脚部、手部和臀部,在正确设置之后,它们就能跟元宇宙应用程序配对,由此创建出一个能实时跟踪用户动作的全同步化身。
Mocopi依靠的是索尼的专利算法,能够以最不限制行动的方式测量并跟踪用户动作。它虽然不足以成为单独的游戏控制器,但依然能支撑元宇宙和社交应用中的简单操作。截至目前,Mocopi还没有公布与此类服务的关联,但索尼表示将在2022年12月15日发布软件开发工具包,并开放对Unity开发者平台和MotionBUilder的访问。如此一来,Mocopi将可用于收集运动数据以制作3D动画。
Mocopi可能需要匹配Android 11或更高版,以及iOS 15.7.1或更高版本的设备才能运行。从12月中旬开始,索尼将在接下来几周内开放产品预订。但真正的全面投放市场估计要从2023年1月开始。不过遗憾的是,目前还不清楚这款产品何时才会登陆日本以外的其他市场。
好文章,需要你的鼓励
AI数据训练师负责确保AI模型训练数据的准确性和可行性,是薪酬丰厚的热门职业。两项新研究显示,该职位年收入在6.5万至18万美元之间,专业领域专家薪酬更高。这一角色已从简单的数据标记发展为高度专业化的认知工作,需要细致的推理能力、深厚的专业知识和多语言能力。随着生成式AI工具兴起,行业正从普通工作者转向专业领域专家,计算机科学学位非必需,但数据标注经验有帮助。
延世大学研究团队开发出FlowBlending视频生成加速技术,通过智能分配大小模型的工作阶段,在保持视频质量不变的前提下将生成速度提升65%。该技术发现视频生成过程中只有开头和结尾阶段需要大模型,中间阶段可用小模型替代,实现了效率与质量的完美平衡,且可与现有技术无缝集成。
Rust资深开发者Steve Klabnik在AI助手Claude的帮助下设计了新的系统编程语言Rue。该语言旨在提供无垃圾回收的内存安全保障,同时比Rust和Zig提供更高级的易用性。Klabnik表示,通过与Claude合作,两周内完成了7万行Rust代码,远超此前独自开发的进度。Claude参与了大部分代码编写工作,而Klabnik负责方向指导和设计决策,展现了AI在编程语言开发中的巨大潜力。
斯坦福大学研究团队开发的Dream2Flow系统通过让机器人观看AI生成的演示视频来学习操作技能。系统提取视频中物体的3D运动轨迹作为指导,让机器人能够零样本完成多种日常任务,包括移动物品、开关门窗等操作,在真实环境测试中取得了最高80%的成功率。